Simone Kimpeler · Michael Mangold Wolfgang Schweiger (Hrsg.) Die digitale Herausforderung
Simone Kimpeler Michael Man...
49 downloads
1450 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Simone Kimpeler · Michael Mangold Wolfgang Schweiger (Hrsg.) Die digitale Herausforderung
Simone Kimpeler Michael Mangold Wolfgang Schweiger (Hrsg.)
Die digitale Herausforderung Zehn Jahre Forschung zur computervermittelten Kommunikation
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage 2007 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2007 Lektorat: Barbara Emig-Roller Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-15477-0
Inhalt Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation" ......................9 Gerhard Vowe Einführung: Computervermittelte Kommunikation als Forschungsgegenstand in der Publizistik und Kommunikationswissenschaft............................................................................15 Simone Kimpeler, Wolfgang Schweiger
Gastbeiträge Vom Rechenautomaten zum elektronischen Medium: Eine kurze Geschichte des interaktiven Computers .............................................................27 Michael Friedewald Reflektierte und populäre Kritik der elektronischen Massenmedien. Anforderungen an eine kritische und gestaltende Medienforschung..................39 Roger Häussling, Michael Mangold
Kommunikatoren in der Onlinekommunikation Stabilität und Wandel von Weblog-Praktiken: Erste empirische Befunde ..............................................................................................................51 Jan Schmidt Sechs Podcast-Sendetypen und ihre theoretische Verortung..............................61 Dennis Mocigemba
6
Inhalt
Aneignung, Nutzung und Wirkung von Onlinemedien Ein integratives Modell der Aneignung mobiler Kommunikationsdienste.....................................................................................77 Werner Wirth, Thilo von Pape, Veronika Karnowski Wirkungsmodelle: die digitale Herausforderung revisited. Forschungsstand zu Wirkungen von Online-Kommunikation – ein rückblickender Essay .........................................................................................91 Patrick Rössler
Markt- und Akzeptanzstudien Mit gebremster Kraft voraus? Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer .............................................................107 Oliver Quiring Online-Rubriken als Innovationen in der Marktkommunikation – Strukturwandel im Anzeigengeschäft ..............................................................121 Castulus Kolo Zielgruppenorientiertes eLearning – ein Angebot auch für ältere Menschen? .......................................................................................................135 Peter Georgieff
Onlinekommunikation als interpersonale Kommunikation Multimediale Gespräche in Skype: Hybridisierung von Gebrauchsweisen in der interpersonalen Kommunikation ...............................149 Martina Joisten
Inhalt
7
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet ...................................................................................159 Julie Woletz Kommunikation im Computerspiel ..................................................................171 Jan-Noël Thon Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?....................................................................................181 Markus Schubert, Nadin Ernst
Onlinekommunikation als Netzwerk Soziale Netzwerke und die Frage nach der Effizienz.......................................197 Harald Rau Von der Gaming zur Working Community: Was können virtuelle Arbeitsorganisationseinheiten von Computerspielgemeinschaften lernen?..............................................................................................................209 Jörg Müller-Lietzkow
Onlinekommunikation aus politischer Sicht Innovation oder Konvergenz im Online-Wahlkampf? Deutsche Partei-Websites zu den Bundestagswahlen 2002 und 2005 .............................229 Eva Johanna Schweitzer Leben in verschiedenen Welten? Themenagenden von Offlinern und Onlinern im Vergleich......................................................................................239 Martin Emmer, Jens Wolling Autorenverzeichnis ..........................................................................................251
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation" Dinner Speech zum zehnten Geburtstag der Fachgruppe "Computervermittelte Kommunikation" Gerhard Vowe
10 Jahre Fachgruppe "CVK"! 10 Lichtlein brennen! 10 Jahre sind ein Wimpernschlag in der Mediengeschichte, aber für die Kommunikationswissenschaft, die ja nicht gerade zu den ursprünglichsten Disziplinen gehört, sind 10 Jahre doch ein recht ansehnlicher Zeitraum. Überhaupt sind 10 Jahre das schönste Jubiläum. Da ist die Kraft des Anfangs noch nicht ganz verflogen, da ist der Aufbruch noch gegenwärtig, aber das Risiko des Scheiterns ist minimal geworden. Mit 10 Jahren ist man wer, da ist man etabliert, aber noch nicht saturiert. Dagegen 20 Jahre – regelrecht peinlich. Und wenn man dann ein 25-jähriges Jubiläum feiert, "silberne Hochzeit", da kommt man sich dann schon sehr alt vor. Ab dann kommen die Feier-Einschläge immer dichter, hinterher feiert man jedes Jahr Jubiläum, weil man nicht weiß, ob man sich danach noch mal sieht. 30 Jahre: das klingt nur noch nach Tradition und Rückschau, nach alten Herren auf der Suche nach der verlorenen Zeit. Eine einziges Gejammere, wie schwierig es früher war, aber auch wie schön, und überhaupt.... "Und wie geht's mit Deinen Knien?" Also 10 Jahre kann man unbeschwert feiern, und da ist dann auch eine Rückschau erlaubt – mit heiterem Unterton, aber auch mit Momenten, die ein wenig besinnlich stimmen, passend zur heraneilenden Adventszeit. Wie fing es an? 1996 ist die FG als "Arbeitsgruppe Computervermittelte Öffentliche Kommunikation" ins Leben gerufen worden. "Fachgruppen" gab es erst später, erst dann wurden die Sprecher und Stellvertreter gewählt. Vorher wurde das Amt vererbt. Die Länge des Namens macht misstrauisch. Da hatte sich ein Bereich noch nicht gefunden, er suchte noch nach seinem Gegenstand und nach einem Etikett danach. Der Name war ein Notbehelf, vorab ein Amerikanismus, dem "Computer mediated" nachempfunden, veredelt durch das alteuropäische "öffentlich" und dann das deutliche Bekenntnis zur Kommunikationswissenschaft. Ein langer Name, 20 Silben. So viel hatte keine andere Fachgruppe. Eine glänzende Bestätigung eines ehernen Gesetzes der Onomastik, der Namenkunde: je länger der Name eines Gemeinwesens oder einer Vereinigung,
10
Gerhard Vowe
desto geringer ihre Reputation. Wir waren die Demokratische Republik Kongo der DGPuK, ihr schwarzes Herz. Die Fachgruppe "CÖK" ist "damals" quer zu der Systematik der Fachgruppen der DGPuK gegründet worden. Eigentlich gehört es sich nicht für eine Kommunikationswissenschaft, sich nach einzelnen Medien zu differenzieren. Das überlassen wir eigentlich den Film- und Fernsehwissenschaftlern. Die Ausnahme wurde aus mehreren Gründen gemacht: Man sah im Vorstand der DGPuK, dass dieses Themenfeld rasch an Boden in der wissenschaftlichen und öffentlichen Diskussion gewinnen würde, und wollte dabei als Fachgesellschaft Flagge zeigen, dafür sorgen, dass in dem anschwellenden Chor der publizistikwissenschaftliche Bariton erklingen möge. Das Themenfeld sollte mit einem Knall in der Fachgemeinschaft etabliert werden, nicht mit zaghaftem Anklopfen in dieser oder in jener Fachgruppe. Es bestand auch nicht die Gefahr, dass nun die Freunde des Films, des Fernsehens, des Tastentelefons, des Fotokopierers, der Banknote und der Überraschungseier jeweils ihr eigenes Fachgrübchen würden graben wollen. Nun hat die Gründung auch ihre personelle Seite. Es waren die Herren Bentele und Jarren, die mich fragten, ob ich das nicht in die Hand nehmen wolle. Wer wen vorgeschickt hat, weiß ich nicht mehr. Sach- oder gar Fachkunde gaben für die Auswahl meiner Person sicherlich nicht den Ausschlag. Mein Studium der "Informationswissenschaft" lag auch da schon lange zurück und hatte in mir ein Weltbild verankert, das mich nicht gerade fit für die Internetzeit machte. In diesem Weltbild gab es sehr wenige Großrechner und sehr viele Terminals. Das oberste Gesetz hieß: Wer als Benutzer eines Terminals mit anderen Benutzern Kontakt aufnimmt oder wer andere Benutzer dazu anstiftet oder deren Kontaktaufnahme fördert, wird mit Logout nicht unter vier Jahren bestraft. Außerdem war ich ein durch Bildschirmtext in mehrfacher Hinsicht gebranntes Kind. Ich hatte mir danach geschworen, nie mehr zu glauben, dass nächste Woche die Weltrevolution ausbricht oder dass Innovationen sich in Form eines exponentiellen Wachstums durchsetzen. Bei der Bildplatte und bei DAB konnte ich mich bestätigt fühlen, beim Internet nun gerade nicht. Also fachlich war ich nicht ausgewiesen, aber ich hatte drei andere Eigenschaften, die mich zur Gründung dieser FG prädestinierten: Der will was werden. Der macht nichts kaputt. Der ist dankbar. Also trat der Vorstand auf mich zu. Im jugendlichen Forscherdrang sah ich die Chancen riesig und die Risiken winzig und schlug in die dargebotene Hand ein. Wir haben uns dann am 17.5.96 im Rahmen der DGPuK-Jahrestagung in Leipzig konstituiert. Von den drei Gründungsmüttern ist heute keine anwesend, von den Gründungsvätern derer drei: Klaus Beck, damals noch in Berlin, dann aber bald Erfurt, Patrick Rössler, damals noch Hohenheim, dann München, und
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation"
11
ich, damals gerade noch in Berlin, schon auf dem Sprung nach Ilmenau – also eine unstete Brotherhood. An der Sitzung vor 10,5 Jahren nahmen ausweislich des akribischen Protokolls außerdem teil: Joan Kristin Bleicher, Hans Kleinsteuber, Martin Löffelholz, Ulrich Müller-Schöll, Mike Sandbothe, Elizabeth Prommer, Gunnar Roters, Georg Ruhrmann, Barbara Thomaß, Hartmut Weßler. Ein Jahr später, auf der Mitgliederversammlung 1997, hat man mich zum Sprecher gewählt, Klaus Beck zum Stellvertreter. Ich kann mich an die gequälten Gesichter der Kollegen noch gut erinnern. Aber einen Sammy brauchte die Fachgruppe. Und so viele Dienstbeflissene, äußerlich Pumperlgsunde und Kompromiss-Stiefel gab es nicht. Nun brach ein anderes Leben an: ich war "Fachgruppensprecher". Vorbei die Zeit, als man unerkannt über die Jahrestagung huschen musste. Nun war man wer. Wenn man durch das Tagungsfoyer schlenderte, denn zu Vorträgen brauchte man ja nun nicht mehr gehen, bei eigenen brauchte man sich auch nur noch am Anfang und am Ende kurz zeigen, also wenn man da so flanierte, hörte man die Fremden aus anderen Wissenschaften flüstern: "Wer ist das?" Und die Eigenen gaben Auskunft "Der Fachgruppensprecher der CÖK!". Ja, das tat gut. Man wurde nun um Rat gefragt: Gestandene Professoren sprachen einen an, sie bräuchten da eine Hilfskraft mit 4 Stunden im Monat, die einem dieses Mailen und so abnehmen könne, ob man da jemanden kenne? Mütter brachten einem ihren Halbwüchsigen, der kenne sich mit Computern aus, ob man da nicht etwas tun könne, eine Professur vielleicht? Am besten für Atari, mit besonderer Berücksichtigung von Pong. Ja, man hatte jetzt Einfluss. Ich machte reichlich davon Gebrauch, wer wusste, wie lange man im Rad der Fortuna oben saß, vielleicht gab es bald eine "Fachgruppe Mobile computervermittelte öffentliche Kommunikation" mit 22 Silben und dann vielleicht "Automobile ...." – und schon war man nicht mehr topp und abgemeldet. So weit zur Gründung. Seitdem ist viel passiert. Wir waren und sind eine produktive Fachgruppe – wir haben getagt und getagt. Jedes Jahr. Und wir haben uns lange geweigert, unsere Tagungen Tagungen zu nennen. Nein, das waren "Workshops"! Das ist ein mächtiges Sprachbild. Da sieht man Männer in Netzhemden, an denen der Schweiß in Bächen herunterrinnt, weil sie so gewaltige Räder in Schwung halten. Man sieht Frauen in endlosen Reihen an surrenden Maschinchen, die Werte schaffen, 24 Stunden am Tag, sieben Tage die Woche. Wir haben nicht getagt, wir haben geschuftet! Und wenn wir doch mal getagt haben, dann in Klausur, im Kloster! Hören wir uns noch einmal die Liste der Orte an: Berlin 1996 an der FU mit einem Doppeltitel: Am Donnerstag "Facetten Probleme der computervermittelten öffentlichen Kommunikation in der kommunikationswissenschaftlichen Analyse". Am Freitag dann "Sichtweisen – Zugänge zur computervermittelten öffentlichen Kommunikation im Vergleich".
12
Gerhard Vowe
Wow - sehr ambitioniert! Und der Bericht im Aviso war überschrieben: "Ein Zipfel vom Mantel der Mediengeschichte". Von heute aus gesehen etwas befremdlich. Überhaupt wird man melancholisch, wenn man durch die Akten blättert. Peinlich ist es, wenn man sieht, dass man die gleichen munteren Floskeln wie heute schon vor acht Jahren strapaziert hat: da wünscht man den Kollegen "für die Zielgerade des Sommersemesters alle Gute", und da überschreibt man die Organisationssitzung mit "Wer, wie, was - wieso, weshalb, warum?" Und da verabschiedet man sich mit "Glück auf!" München 1997 an der Hochschule für Film und Fernsehen unter der Obhut von Elizabeth Prommer, die am letzten Tag für alle, die wollten, Original Münchner Weißwürscht besorgte - es wollte aber nur einer. Und wo ein Mitglied der Fachgruppe an der Hotelrezeption drohte, das Hotel zu zerlegen, wenn er keinen Fernseher auf dem Zimmer vorfinden würde. Dann der Paukenschlag Elgersburg 1998! Gewohnt haben wir in einem Hotel, das in den 20er Jahren ein Heim der Roten Hilfe war und Kinder von inhaftierten Kommunisten aus der ganzen Welt beherbergte. So war uns auch zumute. Getagt haben wir in einer Burg, die über dem Flecken Elgersburg dräute. Deren Verliese haben wir besichtigt, geführt von einem Ritter der Tafelrunde von Elgersburg, ein Senoussi-Raucher mit den gelbesten Fingern, I've ever seen. Erfurt 1999. Da kann ich mich nur noch an einen Frankfurter Schöler erinnern, der uns in die Geheimlehre des Postfordismus einführen wollte und eine Aura des Schweigens erzeugte, das er vermutlich für respektvoll hielt. München 2000. Da hatten sich bereits die Rituale der Fachgruppe eingeschliffen, so z.B. das Hakeln um die Herausgeberschaft bei den Tagungsbänden. In dieser heiklen Frage berief man sich auf uralte Rechte, bis hin zu germanischen Weistümern, in denen festgelegt sei, was der Clan, der den Thing ausrichtet, alles dürfe. Leipzig 2001: Da war Klaus Beck fast ganz allein und musste sich auch fast alleine mit der immer wieder neu gestellten Frage auseinandersetzen, ob man nun etwas mit der GOR zusammen machen solle oder nicht – auch das ein Ritual der FG. München 2002, dieses Mal im IfKW. Erinnerlich ist mir da noch, dass man hier einzelne Vorträge für die Publikation weiträumig umfahren wollte und dafür sogar vorgab, eigentlich gar keine Publikation machen zu wollen – ohne dass uns lange Nasen gewachsen wären. Erfurt 2003: Keine Tagung zu einem Fachthema, sondern Klausurtagung, wie es denn weiter gehen solle mit der FG-Arbeit. Wir saßen an einem Tisch, und Gernot Wersig hat uns allen noch mal gezeigt 1. was technische Kommuni-
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation"
13
kation wirklich ist, 2. was Wissenschaft wirklich ist und was 3. der Mensch und die Welt wirklich sind. Dortmund 2004 – im feudalsten aller Tagungsgebäude, im Erich-BrostInstitut. Alles nur vom Feinsten: kein Stahlwerk mehr, keine Zeche mehr, keine Brauerei, aber noble Tagungsstätten. Berlin an der Humboldt-Universität 2005: Dies war eine Tagung zusammen mit der Medienökonomie. Es war mit der Zeit doch schwierig geworden, die kritische Masse von Vortragsvorschlägen zu erreichen. Man brauchte also Partner, notfalls auch die Medienökonomie. Ich höre, man ist derzeit mit der Gendergruppe im Gespräch. Wir haben nicht nur getagt, wir haben auch publiziert: die Tagungsbände, z.B. der erste aus dem ersten Workshop, "Computernetze - ein Medium öffentlicher Kommunikation". Da kam man mit dem Nachdrucken gar nicht nach. Und ganze Buchreihen: "Internet Research" mit inzwischen bestimmt 20 Bänden, zumeist aus dem Kreis der Fachgruppe. Die Wissenschaftsgeschichtsschreibung vermutet dahinter drei Autoren mit acht Pseudonymen. Dann: Wir waren und sind eine ordentliche FG! Wir haben die Leitung der Fachgruppe in bewundernswerter Kontinuität geregelt. Nach Vowe/Beck kamen 1999 Beck/Schweiger, 2004 Schweiger und Kimpeler. Keine Diadochenkämpfe, kein Interregnum. Keine Sekunde ohne Leitung und kein Leiter, der nicht Jahre vorher als Stellvertreter gefront hatte. Es gibt also Reste von Ordnung in dieser aufgeregten Online-Welt. Wir haben jedes Jahr einen Tätigkeitsbericht abgegeben. Wir haben Kriterienkataloge für das Review von Vorträgen entwickelt, als andere Fachgruppen noch die Slots auf Zuruf füllten und dabei besonders auf die hörten, die man gut kannte und deshalb besonders deutlich verstand. Wir haben uns eine Satzung gegeben, schon 1998, und wir haben unser Selbstverständnis formuliert, 2003: Besonders wichtig der Punkt römisch III: "Verantwortlichkeiten". Da heißt es zunächst scheinbar harmlos: "Die Fachgruppe verfährt arbeitsteilig." Den Satz liest man, man nickt, man sagt: Ja, klar, wie sollte es anders sein? Und damit sitzt man in der Falle, denn dann kommt ein Satz wie ein Hammer: "Ins Auge gefasste Aktivitäten werden von einzelnen Mitgliedern der Fachgruppe verantwortlich übernommen." Aha. Ich möchte nicht wissen, wer da für die Fachgruppe welche Art von Aktivitäten "ins Auge gefasst" hat. Dann aber nach der Peitsche das zuckersüße Brötchen: "…was im jeweiligen Jahresbericht der Fachgruppe entsprechend gewürdigt wird." Und wir waren und sind eine kreative Fachgruppe. Wir haben die Respondents in die Tagungskultur der DGPuK eingeführt. Schauen Sie sich das gedruckte Programm von Leipzig an – das ist so schön gestaltet, das gehört in die erste Vitrine im ersten Raum des DGPuK-Museums. Und erst die Titel:
14
Gerhard Vowe
• "Gute Seiten – schlechte Seiten. Qualität in der computervermittelten Kommunikation." • "Jenseits von Raum und Ort. Enträumlichung und Mobilität in einer vernetzten Welt." • "Trau schau wem! Vertrauen und Glaubwürdigkeit in der cvk" • "Attention please – Fragen der Aufmerksamkeitsökonomie in der OnlineKommunikation". Dagegen fällt 2004 mit "Aktuelle Problemfelder und Studien zur cvK" doch sehr ab, muss ich kritisch anmerken. Was gab es außer Tagungen für weitere Meilensteine? Vor allem das Schisma auf dem Konzil von Elgersburg 1998. Es hing an einem "Ö". Aus der CÖK wurde gegen meinen erbitterten Widerstand das unaussprechliche C-V-K. Und ich habe noch im Bericht für Aviso geschrieben, dass die FG ihren Namen verkürze und ihren Gegenstandsbereich erweitere – und das positiv klingen lassen, gegen meine innerste Überzeugung. Ich habe mich noch nie so schmutzig gefühlt in meiner Laufbahn. Sie spüren, wie ich immer noch einen Phantomschmerz verspüre, das abgeschnittene "öffentliche" tut mir immer noch weh. Hat die FG ihre Ziele erreicht? Das Ziel, die öffentliche Sichtbarkeit der DGPuK in Gestalt ihrer Fachgruppe in öffentlichen CVK-bezogenen Debatten zu erhöhen, sehe ich nicht in dem seinerzeit erhofften Maße realisiert. Das haben wir wohl auch nie ernsthaft genug betrieben. Die Rechnung ist aber aufgegangen, was die fachinterne Etablierung angeht. Die Fachgruppe ist etabliert. Mit 105 Mitgliedern sind wir eine der größeren Fachgruppen. Zum anderen ist Online ein selbstverständliches Element der Arbeit in allen Fachgruppen geworden – von den "Methoden" über "Politik" bis zu "Journalismus". Mit dem Fortschreiten der Digitalisierung schmelzen die Grenzen zwischen den Gebieten, die bislang vor dem Zugriff der CVKStrategen bewahrt waren. Mit "Hypertext" und "Hypermedium" hat man sich ja terminologisch schon früh das Recht gesichert, an jedem Punkt der Medienwelt intervenieren zu dürfen. Kritisch und selbstkritisch muss man anmerken: Wir haben einiges versäumt, z.B. gemeinschaftliche Forschungsinitiativen, Ansätze gab es, wie die Überlegungen zu einer DFG Forschergruppe "Online-Kommunikation". Ich möchte meinen Rückblick beenden mit dem klassischen Vortragsschlusssatz, den ich auch auf unseren Tagungen des Öfteren herbeigesehnt habe und als Moderator und Souffleur dann den Referenten zugeflüstert habe. Der Satz lautet: "Mit Blick auf die Uhr brech' ich hier einfach mal ab." Ad multos annos!
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand in der Publizistik und Kommunikationswissenschaft Simone Kimpeler, Wolfgang Schweiger Im November 2006 veranstaltete die DGPuK-Fachgruppe "Computervermittelte Kommunikation" eine Fachtagung zum Thema "Computervermittelte Kommunikation als Innovation" in Kooperation mit dem ZKM | Institut für Medien und Wirtschaft in Karlsruhe. Der vorliegende Band dokumentiert den Großteil der Fachbeiträge der Tagung und zeigt dabei die Vielfalt der Forschungsarbeiten in diesem Gebiet auf. Da die Fachgruppe im Jahr 2006 zugleich 10-jähriges Bestehen feiern konnte, nahm sie das Jubiläum zum Anlass, um auf der Fachtagung neben der Diskussion aktueller Forschungsbeiträge auch einen Rückblick auf die Geschichte der Erforschung computervermittelter Kommunikation sowie einen Ausblick auf zukünftige Entwicklungen zu wagen. Gewiss ein Highlight der Tagung ist daher auch die Dinner Speech von Gerhard Vowe, der die Geschichte der Fachgruppe ebenso unterhaltsam wie spannend skizziert und treffend kommentiert hat. Wir danken Gerhard Vowe dafür, dass wir seine Rede in den vorliegenden Band aufnehmen durften. Computervermittelte Kommunikation (CvK) umfasst alle Formen der interpersonalen, gruppenbezogenen und öffentlichen Kommunikation, die offline oder online über Computernetze oder digitale Endgeräte erfolgen. Gegenstand der kommunikations- und medienwissenschaftlichen Forschung ist dabei die Analyse wirtschaftlicher, technischer und sozialer Implikationen computerbasierter Anwendungen zur Kommunikation, Information und Unterhaltung. Dabei stehen neben den Chancen und Potentialen der zunehmenden Vernetzung und Mobilität der Akteure und der Virtualisierung der Kommunikationswelten auch Herausforderungen und Gefahren bezüglich einer möglichen Fragmentierung der Öffentlichkeit, Vertiefung des Digital Gap, Konzentrationstendenzen auf dem Medienmarkt oder Praktiken der Informationsfilterung und -selektion im Fokus der Forschung. Neben den wissenschaftlichen Beiträgen, die in einem anonymen Begutachtungsprozess ausgewählt wurden, leiten zwei Gastbeiträge den Band ein. Der erste Gastbeitrag von Michael Friedewald liefert eine kurze Geschichte des interaktiven Computers. Friedewald greift populäre Sichtweisen zur Geschichte des Computers auf, ergänzt um die noch wenig reflektierte Kontinuität des Übergangs vom gemeinsam genutzten Großcomputer zum einzeln verwendeten PC. Dazu beleuchtet er den kulturellen Hintergrund der Idee einer "per-
16
Simone Kimpeler, Wolfgang Schweiger
sönlichen Informationsverarbeitungsmaschine" und wie diese sich im Laufe der Wissenschafts- und Technikentwicklungen verändert hat. Friedewald zeichnet anhand historischer Beispiele nach, wie bestimmte Ideen zu Leitbildern der Computertechnikentwicklung geworden sind und wie diese Ideen im Laufe der Zeit verbreitet, verändert und umgesetzt worden sind. So weist er beispielsweise darauf hin, dass die Metapher des Schreibtisches (Desktop) wegen ihres immensen Erfolges bis heute auch zu einem Hemmnis für die Entwicklung der Benutzerfreundlichkeit geworden ist. Er sieht am Ende eine Notwendigkeit in der Neudefinition der Mensch-Computer-Schnittstelle, welche dem Wunsch der "naiven Benutzer" nach leichter Erlernbarkeit und intuitiver Bedienung des Computers ebenso entspricht wie dem der professionellen Benutzer nach umfassender Konfigurier- und Programmierbarkeit von Hard- und Software. Friedewald bemerkt dazu, dass uns bei allem technischen Fortschritt die gesellschaftlichen Institutionen verloren gegangen sind, die uns ein Bewusstsein für sinnvollen Benutzen des Computers zum sich Informieren – im Gegensatz zum reinen Datensammeln – vermitteln könnten. Der zweite Gastbeitrag ermöglicht einen Einblick in die wissenschaftliche Arbeit des ZKM | Institut für Medien und Wirtschaft in Karlsruhe. Am Beispiel der Medienkritik am Fernsehen und unter Bezugnahme auf die Medienkritik von Jürgen Habermas formulieren Roger Häussling und Michael Mangold neue Anforderungen an eine kritische und gesellschaftlich gestaltende Medienforschung, die sich auf die zentrale Funktion der Wissensvermittlung des Fernsehens bezieht und zugleich differenziert aktuelle Verhältnisse und Entwicklungen der Medienlandschaft zu erfassen glaubt. Eine Reflektion der Massenmedien muss nach Ansicht der Autoren am wohl zentralsten gesellschaftsgestaltenden Beitrag der Medien ansetzen: der Vermittlung von Wissensinhalten. Das Fernsehen stellt für sie das wichtigste Medium der Wissensvermittlung dar, insbesondere weil es den Medienkonsum der sogenannten bildungsfernen Bevölkerungsgruppen dominiert. Sie regen eine Einbeziehung der computervermittelten Kommunikation in die Analyse an, da auch hier vielfältige Anknüpfungspunkte zur Gestaltung sozialer Wandlungsprozesse ermittelt und genutzt werden können. Die wissenschaftlichen Beiträge des Tagungsbands sind in sechs Themenblöcke gegliedert. Kommunikatoren in der Online-Kommunikation Im ersten Themenblock geht es um neue Typen von Kommunikatoren in der Online-Kommunikation, die durch die Entwicklungen des "Web 2.0" an Bedeutung gewonnen haben sowie um die daran geknüpften Erwartungen an neue
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
17
Formen der Integration von Nutzern und neue Möglichkeiten, eigene Interessen, Meinungen und soziale Beziehungen um Internet sichtbar zu machen. Jan Schmidt liefert erste empirische Befunde zu Stabilität und Wandel von Weblog-Praktiken. Ausgehend von neuen Formen der Nutzung des Internet zur Äußerung von Meinungen und Interessen sowie der Darstellung und Gestaltung von sozialen Netzwerken gewinnen Weblogs an Bedeutung. Schmidt unterscheidet strukturelle Dimensionen von Weblogs, die dem Weblogger einen Rahmen vorgeben und zugleich durch die Anwendung reproduziert werden. Trotz zahlreicher vorliegender Studien zu Weblogs kann Schmidt eine Forschungslücke im Bereich der Längsschnittanalysen zu intra-individuellen Veränderungen der Weblog-Nutzung identifizieren, um die Dynamik der WeblogPraktiken zu untersuchen. Unterschiedliche Sendetypen von Podcasts und ihre theoretische Verortung sind Gegenstand des Beitrags von Dennis Mocigemba. Podcasts werden als eine Art Rundfunkbeitrag definiert und als Angebot von Privatpersonen für vorwiegend kleine, integrierte Communities analysiert. Dazu werden die Funktionen von Podcasts für den privaten Podcaster anhand von Sendepraktiken, Motiven, Qualitätsansprüchen und sozialen Interaktionen der Podcaster diskutiert und Ergebnisse einer explorativ-qualitativen Studie herangezogen. Damit kann Mocigemba sechs Podcast-Typen identifizieren und kommunikationstheoretisch verorten. Aneignung, Nutzung und Wirkung von Online-Medien Im zweiten Themenblock geht es um Aneignungsprozesse und Wirkungen von Online-Medien. Werner Wirth, Thilo von Pape und Veronika Karnowski stellen ein integratives Modell der Aneignung mobiler Kommunikationsdienste vor. Vor dem Hintergrund der hohen Dynamik auf dem Mobilfunkmarkt und neuer Nutzungsweisen stellen sie zwei Paradigmen der Weiterentwicklung technischer Innovationen vor und leiten dann ihr Aneignungsmodell ab. Dafür unterscheiden die Autoren zwischen dem Adoptions- und dem Aneignungsparadigma und zeigen, dass beide Ansätze sowohl inhaltlich als auch methodologisch komplementär sind. Darauf aufbauend entwickeln die Autoren ein integratives "Mobile Phone Appropriation-Model" (MPA-Modell), das sowohl individuelle wie auch soziale Faktoren und ein breites Spektrum an Nutzungen und Bedeutungen erfasst. Das MPA-Modell wird als Analysegerüst verstanden, um bei jeder Innovation möglichst von Grund auf und mit Rückgriff auf quantitative und qualitative Methoden den Aneignungsprozess zu untersuchen.
18
Simone Kimpeler, Wolfgang Schweiger
In einem rückblickenden Essay untersucht Patrick Rössler mit Rückgriff auf einen eigenen Beitrag aus dem Jahr 1998, welcher Wirkungen computervermittelter Kommunikation sich die Forschung in den vergangenen zehn Jahren überwiegend angenommen hat. Seine systematische Untersuchung zur internationalen und deutschsprachigen Forschung kommt zum Ergebnis, dass sich die Analyse von Wirkungen der Online-Kommunikation meist nicht auf die klassischen Medienwirkungsansätze bezog. Es sind, entgegen Rösslers früherer Annahme, inzwischen neue Hypothesen über Medienwirkungen erforderlich, die die netzbasierte Kommunikation und ihre Spezifika angemessen berücksichtigen und in der Folge vielleicht ein neues Verständnis der Begriffe 'Nutzung' und 'Wirkung' erforderlich machen. Markt- und Akzeptanzstudien Bisher unausgeschöpfte Potenziale der Nutzung des interaktiven Fernsehens (iTV) in Deutschland sind Gegenstand der Studie von Oliver Quiring. Er nimmt sich der Forschungslücke repräsentativer Studien zur iTV-Nutzung an und liefert auf der Basis einer regionalen CATI-Befragung einen Überblick über die Bekanntheit ausgewählter interaktiver Anwendungen, die Einstellungen zu diesen Anwendungen sowie ihre Nutzung bzw. Gründe der Nicht-Nutzung. Basierend auf einer Reihe von Beiträgen zur Konzeption von Interaktivität, Studien zu Verbreitungshemmnissen auf Angebotsseite und nur wenigen verfügbaren Studien zur Akzeptanz und Diffusion aus Nutzerperspektive wird versucht, Aussagen über die tatsächliche Nutzung zu gewinnen. Trotz der regionalen und zeitlichen Beschränkung der Erhebung kann aufgezeigt werden, dass die Verbreitung des iTV neben bekannten angebotsseitigen Hemmnissen auch mit der "Ungerührtheit" der Nutzer zu kämpfen hat. Neue Online-Angebote versprechen durch die Vermeidung von Medienbrüchen eine Effizienzsteigerung des gesamten Marktprozesses und treten zunehmend in den Wettbewerb mit Printmedien. Castulus Kolo analysiert in seinem Beitrag über Online-Rubriken den Strukturwandel im Anzeigengeschäft. Am Beispiel der Märkte für Stellen, Immobilien und Kfz unterscheidet er Gesamtmarkteffekte und Substitutionen in der Entwicklung der Anzeigenvolumina und zeigt damit, dass in wenigen Jahren etwa die Hälfte des Volumens aus dem Printbereich abgewandert ist. Der Beitrag systematisiert nach einer aktuellen quantitativen Analyse der Substitutionsdynamik Online versus Print über den Zeitraum von 12 Jahren, wie die jeweilige Substitutionsdynamik mit den Charakteristika der entsprechenden Märkte zusammenhängen könnte sowie in welcher Weise diese von Eigenschaften der Anzeigenkunden und der Nutzer digitaler Medien potentiell beeinflusst wird.
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
19
Der Einsatz von eLearning als mediengestütztes Lehren und Lernen in Schulen, Hochschulen und bei der beruflichen Aus- und Weiterbildung ist weit fortgeschritten. Informelle Lernmöglichkeiten, bei denen Lernende ihren Lernfortschritt selbstbestimmt steuern, unterstützt insbesondere durch computerbasierte Lernformen, gewinnen an Bedeutung, Peter Georgieff stellt in seinem Beitrag über zielgruppenorientiertes eLearning die Frage nach der Umsetzbarkeit dieser Zielgruppenorientierung für den Personenkreis älterer Menschen. Er zeigt die soziodemografischen Besonderheiten des Alterns, die Bildungspräferenzen und das Medienverhalten älterer Menschen auf, um danach die tatsächliche Verbreitung entsprechender eLearning Angebote in Institutionen der Altenbildung zu prüfen. Online-Kommunikation als interpersonale Kommunikation Das Telefon ist durch seine massive Verbreitung die vermutlich bedeutendste interpersonale Kommunikationstechnologie. Neu ist nun die massentaugliche Internettelefonie, die im Vergleich zu eMail oder Instant Messaging eine noch junge Form der internetbasierten computervermittelten Kommunikation darstellt. In ihrem Beitrag zu multimedialen Gesprächen in Skype untersucht Martina Joisten die Prozesse der Hybridisierung von Gebrauchsweisen in der interpersonalen Kommunikation. Sie geht der Frage nach, ob aus der technischen Konvergenz interpersonaler Kommunikationsmedien eine Konvergenz der Gebrauchsweisen erfolgt. Joisten beobachtet in einer ethnografischen Fallstudie der Einführung der PC-basierten Internettelefonie-Software Skype in einem Unternehmen. Die Studie ermöglicht einen Einblick in die Aneignung konvergenter interpersonaler Kommunikationsmedien und zeigt erste Veränderungen in der Kommunikation. Die von Joisten aufgezeigten Entwicklungen haben sowohl Implikationen für das Design innovativer Kommunikationsmedien als auch für das zukünftige Verständnis computervermittelter interpersonaler Kommunikation. Die Kommunikationsform des Digital Storytelling bzw. der Videostories ist kein neues Phänomen, meint Julie Woletz in ihrem Beitrag zur Frage nach dem Innovationsgehalt dieser Medienentwicklung. Ausgehend vom Entstehungszusammenhang und der technischen Entwicklung des Digital Storytelling sowie am konkreten Beispiel der Videostories im Internet zeigt Woletz spezifische Innovationen in der Medienkonfiguration und den Kommunikationsmodalitäten. Die Autorin geht davon aus, dass sich der medientechnologische Wandel auch auf die Kommunikationsform auswirkt. Sie kommt zu dem Schluss, dass sich Innovation und Medienwandel der Kommunikationsform Digital Storytelling
20
Simone Kimpeler, Wolfgang Schweiger
nicht vollständig auf technische Entwicklungen reduzieren lassen, sondern in den medialen Gebrauchsweisen die Strukturen multimedialer Kommunikation und Interaktion begründet sind. Computerspiele als Untersuchungsgegenstand finden sich heute bereits in vielen Disziplinen, so auch in der CvK-Forschung. Jan-Noël Thon behandelt besonders relevant erscheinende Aspekte der interpersonalen Kommunikation am Beispiel der Funktion von textbasierter Kommunikation zwischen Spielern des First-Person Shooters HALO sowie des Massive Multiplayer Online Role Playing Game WORLD OF WARCRAFT. Angelehnt an ein allgemeines Strukturbeschreibungsmodell für Computerspiele unterscheidet er zwischen räumlicher, ludischer, narrativer und sozialer Struktur von Computerspielen. Diese Ebenen sind zugleich Untersuchungsebenen und Perspektiven in seiner Studie und ermöglichen die Beschreibung der Computerspiele strukturiert nach Formen und Funktion der Kommunikation. Auch die Untersuchung der Nutzung und Wirkung computervermittelter Kommunikation in Chaträumen stellt hohe Anforderungen an Methodik und Forschungsdesign. Markus Schubert und Nadin Ernst stellen Ergebnisse einer Studie zu Involvementsituationen im Internet-Chat vor. Chats gelten als besondere Art der Kommunikation, die mit Ausnahme von Emoticons zur Visualisierung von Stimmungen ohne Bilder und gesprochene Sprache auskommt. Schwerpunkte bisheriger Forschung waren Nutzungsmotive sowie der Aspekt der Identität bzw. des Rollenverhaltens mit Hilfe reaktiver Messverfahren oder inhaltlich-semantische Textanalysen und psychologisch-klinische Untersuchungen zu Suchtpotenzialen des Chat. Schubert und Ernst hingegen interessieren sich dafür, was genau bei dieser Art von Online-Kommunikation in Abhängigkeit vom Grad des Involvement mit den Nutzern passiert. Sie analysieren ChatKommunikation in High- und in Low-Involvement-Situationen in einem experimentellen Untersuchungsdesign mit Hilfe eines Methodenmixes aus quantitativen und qualitativen Verfahren mit retrospektiver und periaktionaler Ausrichtung. Online-Kommunikation als Netzwerk Harald Rau geht der Frage nach, inwieweit theoretische Überlegungen aus einem Vor-Internetzeitalter auf die Regeln und Zusammenhänge beispielsweise einer "Second-Life"-Plattform angewandt werden können und darüber hinaus vielleicht auch kollaborativ erstellte Onlinemedien erklärbar machen. Er untersucht die Möglichkeit, mit ökonomischen Größen soziale Netzwerke hinsichtlich ihres Nutzens, ihrer Effizienz oder ihrer Größe zu analysieren. Ausgangsbasis bildet die Erkenntnis, dass die Demokratisierung von Medieninhalten ähnli-
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
21
che Wirkungen zeitigt wie eine zunehmende Kommerzialisierung. Rau möchte mit einem theoretischen Exkurs dafür sensibilisieren, ökonomische Größen wie Wert, Nutzen und Effizienz für die Bewertung von Netzwerken nur mit äußerster Vorsicht zu gebrauchen. Die Theorie sozialer Netzwerke der Manchester School hat die Erkenntnis gebracht, dass soziale Netzwerke nicht durch etwaige Zielsetzungen auf eine gemeinsame Basis reduziert werden können. Damit ist der Ansatz für Rau wie geschaffen für die Analyse sozialer Netzwerke im Zeitalter des Web 2.0, da hier das soziale Netzwerk, z.B. als "Community" eine Verknüpfung disparater Ziele der einzelnen Akteure oder Gruppen bedingt. Für Rau ergeben sich zwei zentrale Notwendigkeiten bei der Erforschung sozialer Netzwerke in der computerbasierten Kommunikation: eine Systematisierung der Ziele von Netzwerken, eng gekoppelte an die Frage der Qualität von Netzwerken sowie eine Werte-Diskussion. Im Beitrag von Jörg Müller-Lietzkow geht es um die mögliche Übertragbarkeit von Forschungsergebnissen zu Computerspielgemeinschaften auf virtuelle Arbeitsorganisationseinheiten. Heute ist der e-Lancer in virtuellen Organisationsstrukturen ebenso Normalität wie auch die berufliche oder private Mitgliedschaft in virtuellen Communities. Ein Zwang des "anytime, anywhere, anyhow" für den arbeitenden Menschen wirkt sich für Müller-Lietzkow negativ auf die Motivation aus. Er geht davon aus, dass sich intrinsische Motivationsansätze für digitale Unterhaltungsangebote wie zum Beispiel bei Computerspielgemeinschaften auf virtuelles Arbeiten übertragen lassen. Digitale Spiele erfordern spezifische Leistungen und Konstanz der Nutzung vom Spieler, um SpielGratifikation zu erhalten – auch typische Indikatoren in der virtuellen Arbeitswelt. Müller-Lietzkow führt zentrale Ergebnisse aus der ComputerspieleForschung an und findet Parallelen in den Anforderungen an den virtuellen Arbeiter. Online-Kommunikation aus politischer Sicht Bei der Untersuchung von Online-Kommunikation in der Politik lautet eine zentrale Frage, ob die Politikvermittlung im Internet die spezifischen Präsentationsmerkmale des Mediums (Aktualität, Interaktivität, Hypertextualität, Multimedialität, Speicherkapazität) nutzt und somit im Gegensatz zu Politikvermittlung in Print oder TV neuen Gesetzmäßigkeiten folgt, oder ob sich umgekehrt bisherige Muster der Kampagnenführung aus dem Offline-Bereich in der internetbasierten Politikkommunikation widerspiegeln. Dazu liefert Eva-Johanna Schweitzer eine Studie, die auf der Differenzierung zwischen der Innovationsthese und der Konvergenz- oder Normalisierungshypothese basiert. Die Innovationsthese geht von einer weitgehenden Integration der Online-Kommunikation
22
Simone Kimpeler, Wolfgang Schweiger
in die Wahlkampfplanung aus, bei der die Möglichkeiten des WWW umfassend ausgeschöpft werden. Die Konvergenz- oder Normalisierungshypothese hingegen besagt, dass die medienspezifischen Möglichkeiten der CvK weitgehend ungenutzt bleiben und stattdessen die Übertragung bisheriger Kampagnenprinzipien auf das Internet betrieben wird. Ziel von Schweitzer ist es, den Limitationen der bisherigen Forschung durch eine kombinierte Inhalts- und Strukturanalyse nationaler Partei-Websites zu den Bundestagswahlen 2002 und 2005 zu begegnen. Dazu werden diese Thesen für den deutschen Online-Wahlkampf anhand eines Längsschnittvergleichs überprüft. Die Befunde belegen im Zeitverlauf eine Innovationsbewegung auf der Strukturebene des OnlineWahlkampfes in Deutschland. Gleichzeitig liefert der Beitrag ein differenziertes Bild hinsichtlich der Unterschiede zwischen Bundestagsfraktions-Kampagnen und Online-Kampagnen von Parteien, die nicht im Bundestag vertreten sind. Eine wesentliche Funktion der Medien für moderne demokratische Gesellschaften ist die Herstellung von Öffentlichkeit für gesellschaftlich relevante Themen und Probleme. Martin Emmer und Jens Wolling gehen der Frage nach, ob diese Thematisierungsfunktion der traditionellen Massenmedien durch die wachsende Bedeutung des Internets als politisches Informationsmedium geschwächt wird. Dabei untersuchen sie, ob das Internet die Fragmentierung der Mediennutzung befördert und auf diese Weise zur Desintegration der Gesellschaft beiträgt. Hierzu gab es trotz einiger Debatten bisher kaum empirische Ergebnisse, ebenso wenig wie für die Gegenthese der stimulierenden Wirkung des Internets auf das Engagement in der Politik. Die untersuchte Hypothese lautet daher, dass bei denjenigen Personen, die sich besonders stark auf politische Informationen aus dem Internet verlassen, andere Themen auf der individuellen Agenda stehen als bei solchen, die sich vorwiegend über traditionelle Medien informieren. Die Autoren können diese Annahme auf der Basis einer bundesweiten, repräsentativen Befragung aus dem Jahr 2005, in der neben den Mediennutzungsgewohnheiten (on- und offline) auch weiterführende Aktivitäten politischer Kommunikation erhoben wurden, nicht bestätigen. Ein intensiver Rückgriff auf Online-Quellen bei gleichzeitiger Abwendung von herkömmlichen Informationsquellen zu deutlich anderen, insbesondere vielfältigeren und stärker globalen Themenpräferenzen findet nicht statt. Die Autoren verweisen daher darauf, dass erst eine vergleichende Analyse über mehrere Zeitpunkte hinweg zeigen könnte, wie stabil die ermittelten Themenpräferenzen sind.
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
23
Danksagung Die Herausgeber danken Vanessa Diemand und Christine Schädel herzlich für ihre tatkräftige und zuverlässige Unterstützung sowie Geduld bei der Vorbereitung und Durchführung der Jahrestagung und bei der Herstellung der Druckvorlage dieses Bandes.
München und Karlsruhe, Juni 2007
Gastbeiträge
Vom Rechenautomaten zum elektronischen Medium: Eine kurze Geschichte des interaktiven Computers Michael Friedewald
Einleitung Wenn heute vom Computer gesprochen wird, ist meist der kleine Personal Computer mit Tastatur, Bildschirm und Maus gemeint, der seit 1981 den Weg in Millionen Büros und Haushalte gefunden hat und meist zur Textverarbeitung, für Kalkulationen, zum Spielen und seit einigen Jahren auch als Kommunikationsmedium verwendet wird. Er ist für die meisten Menschen so alltäglich wie der Fernseher oder das Telefon. Als der Computer vor mehr als 60 Jahren erfunden wurde, war all dies nicht nur nicht vorauszuahnen, sondern auch gar nicht vorstellbar: Computer waren riesige Rechenmaschinen, mit deren Betrieb ein ganzes Team von Technikern, Operateuren und Programmierern beschäftigt war. Sie waren so groß und teuer, dass sich nur große Unternehmen, Behörden und das Militär Computer leisten konnten, um damit komplizierte Berechnungen anzustellen oder große Datenmengen zu verwalten. Diese Maschinen spielen zwar heute in diesem Umfeld immer noch eine wichtige Rolle, sind aber fast aus dem Blick der Öffentlichkeit verschwunden. Nach weit verbreiteter Vorstellung beginnt die Geschichte des PCs mit der Erfindung des Mikroprozessors durch Intel im Jahre 1971. Als nächste Etappen gelten die ersten Computerbausätze, die erfolgreichen Homecomputer der späten siebziger Jahre, der erste IBM PCs 1981 und schließlich die Einführung des derzeitig leistungsfähigsten Rechner mit Intel- oder AMD-Prozessor. Demnach wären Personal Computer das zwangsläufige Endprodukt der fortschreitenden Miniaturisierung in der Mikroelektronik. Eine andere, weniger verbreitete, aber ebenso populäre Geschichte des PCs erzählt von begeisterten Computeramateuren in Kalifornien, die es geschafft haben, gegen die Interessen der großen Unternehmen den Computer zu den Menschen bringen. "Computer Power to the People" lautete einer ihrer Wahlsprüche, der von den politischen Ideen der 68er-Generation beeinflusst war (Nelson 1987).
28
Michael Friedewald
Diese Sichtweisen sind nicht falsch. Sie übersehen allerdings die Kontinuität, die es beim Übergang vom gemeinsam genutzten Großcomputer zum einzeln verwendeten Personal Computer gegeben hat. Und sie lassen außer Acht, dass die Idee für eine persönliche, Daten verarbeitende Maschine wesentlich älter ist, sogar älter als der Digitalcomputer selbst. Wenig Beachtung fand bislang die Frage, vor welchem kulturellen Hintergrund die Idee der persönlichen Informationsverarbeitungsmaschine entstanden ist und wie sich diese im Laufe der Zeit unter dem Einfluss anderer Wissenschafts- und Technikentwicklungen verändert hat. Im Folgenden sei daher an einigen repräsentativen Beispielen nachgezeichnet, wie bestimmte Ideen zu Leitbildern der Technikentwicklung geworden sind, wie sich diese Leitbilder durch die Kommunikation zwischen den Mitgliedern einer überschaubaren Gruppe von Wissenschaftlern verbreitet haben und wie sich die Ideen mit der jeweils verfügbaren Technik, mit den wechselnden Finanzierungsquellen der Forschung und nicht zuletzt mit den veränderten politischen und gesellschaftlichen Bedingungen gewandelt haben.
Drei Wurzeln: Digitalcomputer, Memex und Kybernetik Eine Ideengeschichte des Personal Computers muss weit ausholen. Drei wichtige Entwicklungen der vierziger Jahre verdienen besondere Beachtung: Die erste ist die Entwicklung des elektronischen Digitalcomputers am Ende des Zweiten Weltkrieges. Über die Pionierarbeiten von Konrad Zuse in Deutschland, von Presper Eckert und John Mauchly an der Moore School of Electrical Engineering in Philadelphia und von John von Neumann am Institute for Advanced Study in Princeton ist bereits ausführlich publiziert worden (Goldstine 1980; Heintz 1993; Rojas 1998). Interessanter für die Geschichte des Personal Computers sind die zwei anderen Entwicklungen. Im August 1945 entwarf der bekannte Analogrechnerpionier und Wissenschaftspolitiker Vannevar Bush (1890–1974) in seinem Aufsatz "As we may think" die Vision des Memory-Extender. Er beschrieb detailliert, wie Wissenschaftler mit dieser informationsverarbeitenden Maschine arbeiten und in Interaktion treten könnten. Aufgabe einer solchen Maschine sollte es sein, dem Wissenschaftler bei der Verwaltung der täglich anfallenden Daten zu helfen, indem sie beispielsweise Zeitschriftenaufsätze, Messergebnisse, handschriftliche Notizen und Fotographien speichert. Die Information sollte nach biologischem Vorbild assoziativ miteinander verbunden sein. Schließlich sollte der Benutzer in der Lage sein,
Vom Rechenautomaten zum elektronischen Medium
29
mit dem Gerät zu arbeiten, ohne sich über die Realisierung Gedanken machen zu müssen (Bush 1945). Der Memory Extender wurde zwar nie in der von Bush beschriebenen Form realisiert, hatte aber eine inspirierende Wirkung auf eine ganze Reihe von jungen Wissenschaftlern. Sie begannen in den fünfziger und sechziger Jahren Aspekte des Memex in den Entwurf von neuen Computersystemen zu übernehmen. Die dritte wichtige Entwicklung war die Etablierung der Kybernetik als wissenschaftliche Disziplin. Mit ihr setzte sich nämlich die Erkenntnis durch, dass der Mensch in komplexen technischen Systemen eine wichtige Rolle spielt. Das bis dahin vorherrschende lineare Modell der Datenverarbeitung (Eingabe von Daten, Verarbeitung der Daten, Ausgabe der Ergebnisse – alles ohne Eingriff des Menschen) wurde zu einem geschlossenen Regelkreis erweitert, in dem der Mensch nicht nur ein Anhängsel der Maschine war. Es entstand das "Human Factors Engineering", das den Menschen mit seinen physischen und kognitiven Fähigkeiten und Limitierungen beim Entwurf technischer Systeme berücksichtigte. Ein Beispiel für diesen Trend ist die Computerentwicklung am Bostoner Massachusetts Institute of Technology (MIT) zwischen 1945 und 1960. Die dort tätigen Ingenieure waren, anders als die meisten anderen Computerkonstrukteure, durch die Regelungstechnik beziehungsweise Kybernetik geprägt. Sie entwickelten in den fünfziger Jahren ein erstes computergestütztes Luftverteidigungssystem, für das nicht nur einer der leistungsfähigsten Digitalrechner der damaligen Zeit entwickelt wurde, sondern auch eine erste auf wissenschaftlichen Erkenntnissen basierende Mensch-Computer-Schnittstelle oder Interface. Dabei musste berücksichtigt werden, dass das Bedienpersonal nicht aus Computerspezialisten, sondern aus einfachen Soldaten bestand. Zu diesem Zweck wurden erstmals Verfahren zur Ein- und Ausgabe von Daten in unmittelbarer Interaktion mit dem Computer entwickelt, die den hohen militärischen Anforderungen entsprachen. Dabei entstanden Bildschirmsysteme für Texte und Grafiken sowie der Lichtgriffel als Eingabegerät für grafische Daten (Edwards 1996; Redmond/Thomas 2000).
Mensch-Computer-Symbiose Die Realität der Computernutzung sah in den fünfziger Jahren aber fast immer anders aus als bei diesen wenigen militärischen Computersystemen. Computer, wie sie in Wirtschaft, Staat und Universitäten verwendet wurden, waren keine Geräte, an denen man unmittelbar arbeiten konnte. Und weil die Computer teuer waren, mussten sie möglichst rund um die Uhr in Betrieb sein - das Resultat
30
Michael Friedewald
dieser wirtschaftlichen Überlegung war die so genannte Stapelverarbeitung. Diese Betriebsweise machte das Arbeiten mit dem Computer besonders für die Programmierer nicht leicht: Sie mussten ihr Programm zunächst auf Papier schreiben, dann wurde es auf Lochkarten gestanzt. Der Stapel mit Lochkarten daher der Name - wurde dem Operateur im Rechenzentrum übergeben. Dort wurden die Daten dann auf ein Magnetband übertragen. Das Band wurde schließlich in den Computer eingelesen, und die Resultate der Verarbeitung auf ein weiteres Band gespeichert oder über einen Zeilendrucker ausgegeben. Bei der Stapelverarbeitung dauerte es deshalb immer mehrere Stunden, bis der Programmierer sehen konnte, ob sein Programm wirklich das tat, was es tun sollte. Insbesondere die Verbesserung von Programmierfehlern war auf diese Weise extrem mühsam. Aus Unzufriedenheit mit dieser Situation wurde seit Beginn der Sechziger Jahre der Versuch unternommen, den Benutzer, insbesondere den Programmierer, wieder in engeren Kontakt mit dem Computer zu bringen. J.C.R. Licklider (1915–1990), Professor für experimentelle Psychologie und Elektronik am MIT, griff dazu Ansätze aus der frühen Künstlichen-Intelligenz-Forschung auf und entwickelte daraus die Idee der Mensch-Computer-Symbiose. Nach seiner Vorstellung sollte der Computer den Benutzer bei allen routinemäßig anfallenden Tätigkeiten unterstützen, beim Schreiben von Programmen und Texten ebenso wie beim Erstellen von Grafiken aus Messreihen. Voraussetzung hierfür war jedoch, dass die Benutzer in unmittelbarer Interaktion mit dem Computer arbeiten konnten. Ideal wäre es, so Licklider, wenn jeder Benutzer einen eigenen Computer zur Verfügung hätte (Licklider 1960). Dafür war die Zeit um 1960 noch nicht reif, denn Computer waren immer noch groß und sehr teuer. Die Zentraleinheiten von Computeranlagen waren aber schon so leistungsfähig, dass die Eingaben des Benutzers bereits viel mehr Zeit benötigten als die eigentliche Verarbeitung. Man konnte deshalb beim so genannten "Timesharing" die Rechenzeit auf viele gleichzeitig am Rechner Arbeitende aufteilen, ohne dass merkliche Verzögerungen eintraten. Obwohl der Computer weiterhin von einer Vielzahl von Personen gleichzeitig benutzt wurde, hatte jeder den Eindruck, er habe den ganzen Rechner zur alleinigen Verfügung (Hellige 1996). Als Licklider 1962 einen wichtigen Posten bei der militärischen Advanced Research Projects Agency (ARPA) übernahm, konnte er durch großzügige Fördergelder die Realisierung seiner Idee in Form von Timesharing-Computern forcieren (Norberg/O'Neill 1996). Bei Timesharing-Computern änderte sich auch die Art der Programme. Während der Programmablauf zuvor nicht unterbrochen werden konnte, wurde die Programmunterbrechung nun zum charakteristischen Merkmal. Interaktive Programme, bei denen der Benutzer während
Vom Rechenautomaten zum elektronischen Medium
31
der Ausführung Eingaben machen konnte, gaben diesem das Gefühl, mit dem Computer zu kommunizieren und partnerschaftlich zusammenzuarbeiten. Obwohl auch der Ablauf interaktiver Programme im Voraus festgelegt war, vermittelten sie ihren Benutzern das scheinbare Gefühl der Kontrolle über die Maschine. Man erkannte bald, dass der Umfang dieser Illusion von der Gestaltung der Mensch-Computer-Schnittstelle abhängt. Um 'Missverständnisse' zwischen dem Computer und seinem menschlichen Benutzer zu vermeiden, musste der Programmierer bereits im Vorfeld dafür sorgen, dass er stets eine korrekte Vorstellung über dessen Intentionen besaß. Dass es nicht immer leicht ist, diese einfach klingende Anforderung zu erfüllen, ist auch heute noch zu spüren.
Computerwerkzeuge Die interaktive Benutzung eröffnete auch völlig neue Anwendungsgebiete, bei denen die Vorstellung des Computers als individuelles Werkzeug in den Vordergrund trat. Ein Textverarbeitungsprogramm stellt zum Beispiel die Funktionen zur Verfügung, die man zum Erstellen, Formatieren und Drucken eines Textes benötigt. Inhalt und äußere Form des Textes werden allerdings durch die Aktionen des Benutzers mit dem Programm festgelegt. Dadurch erhält der Benutzer des Computers eine relativ hohe Autonomie gegenüber seinem Arbeitsmittel. Er behält stets das bearbeitete Material im Auge, an dem die vorgenommenen Änderungen sofort sichtbar sind. Als Beispiel für die Konsequenzen dieser verschobenen Sichtweise können die Arbeiten von Douglas Engelbart (*1925) am Stanford Research Institute während der sechziger Jahre gelten. Engelbart machte sich Gedanken über ein Gerät, mit dessen Hilfe man die geistige Arbeit von Wissenschaftlern und Managern effektiver gestalten konnte, und sprach von der Verstärkung der menschlichen Intelligenz mithilfe des Computers. Zu diesem Zweck griff er bereits zu Beginn der sechziger Jahre Ideen der noch jungen kognitiven Psychologie auf und entwickelte auf dieser Grundlage einen theoretischen Rahmen für die Gestaltung der Mensch-Computer-Schnittstelle (Engelbart 1963; Friedewald 2000). Gleichzeitig entwickelten Engelbart und seine Mitarbeiter leistungsfähige Werkzeuge für die Dokumentenerstellung und -verwaltung sowie für Aufgaben des Projektmanagements. Bei Engelbarts 1968 öffentlich vorgestelltem interaktiven Computersystem wurde auch erstmals die bis heute übliche Form der Computerarbeit praktiziert: Der Benutzer arbeitete an einem Terminal mit einem alphanumerischen oder Grafikmonitor, einer Tastatur und mit der von Engelbart erfundenen 'Maus' (Engelbart/English 1968).
32
Michael Friedewald
Computermedien Während in den sechziger Jahren vor allem Computerwerkzeuge für die individuelle Unterstützung von Programmierern und anderen Computerfachleuten im Vordergrund gestanden hatten, wurde in den siebziger Jahren immer stärker an Computersystemen gearbeitet, die über Computernetze miteinander verbunden waren und mit denen auch Laien arbeiten können sollten. Seit 1971 gab eine junge interdisziplinär interessierte Gruppe von Wissenschaftlern am Palo Alto Research Center (PARC) von Xerox in beiden Bereichen entscheidende Impulse. Unter der Leitung von Robert Taylor (*1932), einem erfahrenen Forschungsorganisator, entwickelte eine Gruppe, der viele ehemalige Mitarbeiter Engelbarts angehörten, die Computerwerkzeuge für das so genannte "Büro der Zukunft". Dabei entstanden nicht nur der erste Arbeitsplatzcomputer und ein erstes lokales Netzwerk, das Ethernet, sondern auch eine Vielzahl von Programmen zur Unterstützung der Arbeit von Wissenschaftlern, Ingenieuren und Managern, darunter zukunftweisende Textverarbeitungs- und Grafikprogramme, die später als Vorlagen für die heute so erfolgreichen OfficeProgramme dienten. Den Computerwissenschaftlern wurde bald klar, dass ihre Vorstellung eines voll automatisierten und papierlosen Büros allzu naiv gewesen war, da das Wissen über die Tätigkeiten in einem Büro nicht nur informell und intuitiv ist, sondern sich auch auf eine Vielzahl von Personen verteilt. Weil solches Wissen nur schwer formalisiert werden kann, legten die PARC-Wissenschaftler besonderen Wert auf die Anpassung der Computersysteme an individuelle Bedürfnisse, die einfache Bedienbarkeit und die Möglichkeiten zur computervermittelten Kommunikation (Hiltzik 1999). Gleichzeitig arbeitete eine andere Gruppe unter Leitung von Alan Kay (*1940) an der Programmiersprache Smalltalk, die auch Computerlaien und sogar Kinder zu Programmierern machen sollte. Sie sollte den Computer zu einem universellen Medium für die Informationsbedürfnisse für Jedermann machen, zu einem Speicher für Texte und Notizen mit dem man aber auch spielen, Bilder zeichnen, Musik komponieren und abspielen oder mit Freunden Botschaften austauschen konnte. Um diesem Personenkreis den Zugang zum Computer weiter zu erleichtern, entstand unter Nutzung von Erkenntnissen aus der Entwicklungspsychologie auch die erste grafische Benutzeroberfläche mit den heute so selbstverständlichen Bestandteilen wie Fenstern, Icons und Bildschirmmenüs (Kay/Goldberg 1977). Im Gegensatz zu allen bislang geschilderten Vorgängerprojekten waren die Arbeiten bei Xerox keine reinen Forschungsarbeiten mehr. 1975 beschloss das Management von Xerox, einen Bürocomputer auf den Markt zu entwickeln, in
Vom Rechenautomaten zum elektronischen Medium
33
den die Forschungsergebnisse des Palo Alto Research Center und all seiner Vorgänger einfließen sollten. Dieser Rechner mit graphischer Benutzeroberfläche und Mausbedienung, mit Laserdrucker und der Anschlussmöglichkeit an ein lokales Datennetz kam Anfang 1981 auf den Markt – und wurde ein wirtschaftlicher Misserfolg.
Der Weg zum Massenartikel Der Grund für diesen Misserfolg war nicht nur der hohe Preis von etwa 15 000 $, sondern auch die Tatsache, dass IBM 1981 ebenfalls einen Personal Computer auf den Markt brachte, der zwar längst nicht so leistungsfähig war wie das Gerät von Xerox, dafür aber vom Marktführer bei Großcomputern hergestellt wurde und einen deutlich geringeren Preis hatte. Hier trifft sich nun die kurz skizzierte Geschichte des interaktiven Computers mit der bekannten Geschichte des Mikroprozessors und der Mikrocomputer. Fast hätten sich diese beiden Entwicklungsstränge nicht getroffen. In der Computerindustrie gab es in den siebziger Jahren immer noch den Trend zu immer höheren Leistungen und eine fortbestehende Dominanz der Stapelverarbeitung. Die akademische Welt – zu der auch das Forschungszentrum von Xerox zu zählen ist – führte in ihrem Elfenbeinturm weitgehend selbstverliebte Projekte durch, die oft wenig mit den Bedürfnissen potenzieller Kunden zu tun hatten. Und die Halbleiterindustrie hatte zunächst keine Idee, welches wirtschaftliche Potenzial der Mikroprozessor besaß. Anfangs sah es so aus, als gebe es für die noch leistungsschwachen Mikroprozessoren keine ernst zu nehmenden Anwendungen. Hier waren es dann tatsächlich die Computeramateure oder Hacker, wie sich selbst nannten, die neue Einsatzbereiche definierten und binnen weniger Jahre einen neuen Sektor der Computerindustrie aufbauten. Junge und risikobereite Unternehmen wie Apple oder Microsoft, die an den wirtschaftlichen Erfolg von preiswerten Computern für jedermann glaubten, machten der Personal Computer Anfang der achtziger Jahre zu einem erfolgreichen Produkt (Ceruzzi 1996). Sie waren es schließlich auch, die benutzerfreundliche und (bis zu einem gewissen Grade, s. u.) intuitiv zu bedienende Computer mit grafischen Benutzeroberflächen zu einem Konsumgut gemacht haben, das heute jedes Jahr millionenfach verkauft wird. Die erfolgreichsten Firmen der PC-Industrie waren bald nicht mehr die PCHersteller, sondern zwei Firmen, die IBM 1981 als Lieferanten für den Mikroprozessor (Intel) und das Betriebssystem (Microsoft) ausgewählt hatte. Intels Marktanteil stieg von weniger als 5 Prozent im Jahr 1981 auf mehr als 80 Prozent im Jahr 1992. Microsoft nahm einen ebenso kometenhaften Aufstieg von
34
Michael Friedewald
einer unbekannten Software-Firma mit einem Jahresumsatz von 16 Mio. Dollar im Jahr 1981 zu einer weltbekannten Firma mit sechs Milliarden Dollar Jahresumsatz im Jahr 1995. Während IBM im Software-Krieg mit Microsoft vergeblich versuchte, den Markt für PC-Betriebssysteme zu erobern, gewann Microsoft in der ersten Hälfte der 1990er Jahre nicht nur die Herrschaft über den Markt für Betriebssysteme, sondern auch über den Schlüsselmarkt der Büroanwendungssoftware. Obwohl Microsoft im Jahr 1998 zum ersten Mal IBM bei den Umsätzen im Softwarebereich überholte, überstiegen die gesamten Einnahmen von IBM die von Microsoft allerdings immer noch um ein Vielfaches (CampbellKelly 2001). Für die Visionäre der Computertechnik spielte der PC am Ende des 20. Jahrhunderts keine Rolle mehr. Das Internet und die Vision des Computers als intelligente Maschine waren die meist diskutierten Themen. Obwohl die Vision des 'Elektronengehirns' und der 'Denkmaschine' sich bis heute als leere Versprechungen erwiesen haben, vertreten Experten mit Nachdruck die Theorie, dass in etwa zwanzig Jahren die Rechenleistung der Computer mit der des menschlichen Gehirns vergleichbar ist - vorausgesetzt der technologische Fortschritt setze sich weiterhin so fort (Kurzweil 1999).
Das Ende der Entwicklung? Mitte der achtziger Jahre hatten sich Personal Computer wie der IBM PC und der Apple Macintosh etabliert. Computer sind seitdem keine Rechenmaschinen mehr, sondern vor allem Arbeits- und Spielgeräte, seit Beginn der neunziger Jahre zunehmend auch Kommunikations- und Informationsmedien. Seit dem Beginn dieser Ära sind 15 Jahre vergangen. Mittlerweile gibt es kaum mehr Computersysteme, die nicht über eine grafische Benutzeroberfläche zu bedienen sind. Dabei fällt auf, dass bei der Gestaltung der Mensch-Computer-Schnittstelle seit Ende der achtziger Jahre kaum neue Ideen erkennbar sind. Vielmehr sind die Produkte der großen Hersteller heute kaum mehr voneinander zu unterscheiden. Es bleibt zu diskutieren, ob man mit dem Defacto-Standard ein Optimum an Benutzerfreundlichkeit oder sogar eine erste Stufe der Mensch-ComputerSymbiose erreicht hat, oder ob die eigentliche Computerrevolution noch bevorsteht. Nach der Ansicht von Alan Kay haben die heutigen Benutzeroberflächen (mit Fenstern, Icons, Menüs) mit ihrem Schwerpunkt auf der direkten Manipulation von Bildschirmobjekten die Möglichkeiten des Computers lediglich angerissen. Tatsächlich sind heutige grafische Benutzeroberflächen nicht viel benutzerfreundlicher als bei den ersten Personal Computern. Schon damals zeigten Testergebnisse, dass eine Benutzeroberfläche, die mit Metaphern arbeitete, eine
Vom Rechenautomaten zum elektronischen Medium
35
Abstraktion ist, die mit den realen Fähigkeiten vieler Benutzer nicht viel zu tun hatte. Mittlerweile haben sich die meisten Computerbenutzer so an die Benutzungsschnittstellen ihres Computers gewöhnt, dass sie diese Gewöhnung mit der Benutzerfreundlichkeit des Computers verwechseln. Tatsächlich kann man aber immer wieder beobachten, dass die scheinbar einfache Benutzeroberfläche die Benutzer davon abhält, überhaupt Bedienungsanleitungen und Handbücher zu lesen, weil sich Grundelemente des Programms bequemer durch Ausprobieren erlernen lassen. Dies führt dazu, dass ein großer Teil der Funktionalität verborgen bleibt und die Fähigkeiten des Programms falsch eingeschätzt werden (Dertouzos 1997). Deshalb darf man mit einiger Berechtigung behaupten, dass die Metapher des Schreibtisches wegen ihres Erfolgs heute zu einem Hemmnis bei der Entwicklung von noch benutzerfreundlicheren Computern geworden ist. Bereits 1984 formulierte Alan Kay diese Tendenz folgendermaßen: "A powerful genre can serve as wings or chains. The most treacherous metaphors are the ones that seem to work for a time, because they can keep more powerful insights from bubbling up. As a result progress is slow..." (Kay 1984).
Die Metapher des Schreibtisches ist auch aus einem anderen Grund eher hinderlich: Die Zielgruppe, die die Hersteller von benutzerfreundlichen Computern ansprechen wollten, waren ursprünglich die klassischen Informationsarbeiter wie Wissenschaftler und Manager. Diese hatten in der Regel keine Erfahrungen im Umgang mit dem Computer, waren aber mit der klassischen Büroumgebung vertraut. In der Zwischenzeit hat der Einsatz von Computern die Büroarbeit weitgehend verändert, und viele der jüngeren Computernutzer haben bereits als Kinder Erfahrungen mit Computern sammeln können. So wie sich das Auto vom Vorbild der Kutsche lösen musste, um ein eigenes Profil zu gewinnen, muss sich die Mensch-Computer-Schnittstelle von dem anfangs hilfreichen, nun aber eher hemmenden Vorbild des Schreibtisches befreien. Bei einer Neudefinition der Mensch-Computer-Schnittstelle kann auch der Versuch unternommen werden, die immer noch divergierenden Nutzergruppen zusammenzuführen. Dazu müsste dem Wunsch der 'naiven Benutzer' nach leichter Erlernbarkeit und intuitiver Bedienung des Computers ebenso entsprochen werden wie dem Bedürfnis professioneller Benutzer nach umfassender Konfigurier- und Programmierbarkeit von Hard- und Software. Nur so kann wirklich sichergestellt werden, dass sich der durchschnittliche Benutzer eines Computers, der irgendwo zwischen den beiden Extremen angesiedelt ist, weder bevormundet noch überfordert fühlt (vgl. Friedewald 2007).
36
Michael Friedewald
Es ist allerdings nicht ausreichend, besonders benutzerfreundliche und aufgabengerechte Computer und Benutzungsschnittstellen zu entwickeln. Schon Mitte der achtziger Jahre wurde festgestellt, dass die Computertechnik nicht in erwartetem Maße zur Produktivitätssteigerung in Unternehmen beitragen konnte. Mittlerweile ist klar, dass dieses Produktivitätsparadoxon vielfach auf Anpassungsprobleme der Verwender zurückzuführen ist. Der Einsatz der Informationstechnik produziert keine materiellen Güter, sondern Informationen, die erst in einer angepassten Organisationsstruktur und durch ihre effiziente Verwendung einen eigenständigen Wert erlangen. Dennoch wurden und werden die meisten Computeranwendungen nach tayloristischem Vorbild gestaltet, das heißt sie betonten eine unflexible Arbeitsteilung. Außerdem wird bei der Auswahl eines Computersystems der Gesichtspunkt der Software-Ergonomie nur selten beachtet. In vielen Entscheidungsmodellen, die heute für die Systemwahl angewendet werden, wird die Benutzbarkeit und Benutzerfreundlichkeit nicht oder nur schwach berücksichtigt (Dué 1993). Auch auf gesamtgesellschaftlicher Ebene sind die heutigen Computer kein Allheilmittel für das immer noch aktuelle Informationsproblem. Es scheint sogar, als habe das exponentielle Anwachsen der verfügbaren Datenmenge im Internet mehr negative als positive Wirkungen. Die Handlung des bewussten Informierens degeneriert zunehmend zur Datensammlung. In den vergangenen Jahrzehnten sind uns bei allem technischen Fortschritt die gesellschaftlichen Institutionen verloren gegangen, die uns dieses Bewusstsein vermitteln könnten. Bis in die sechziger Jahre wurde die Vorauswahl und Bewertung von Information durch kompetente Herausgeber oder Verlage vorgenommen. Diese Entwicklung konnte auch durch den Einsatz des Computers bislang nicht gestoppt werden. Heute sind gerade wegen der allgegenwärtigen Informations- und Kommunikationstechnik mehr Informationen verfügbar als je zuvor in der Geschichte. Wenn man den Computer trotzdem als grundsätzlich geeignet erachtet, der Informationsflut Herr zu werden, gibt es für die Wissenschaft und Technik der nächsten Jahrzehnte noch genügend Aufgaben zu lösen.
Vom Rechenautomaten zum elektronischen Medium
37
Literatur AFIPS (American Federation of Information Processing Societies) (Hrsg.) (1968): Proceedings of the AFIPS 1968 Fall Joint Computer Conference. San Francisco, CA.: Thompson Book. Bush, Vannnevar (1945): As we may think. In: Atlantic Monthly 176.1. 101-108. Campbell-Kelly, Martin (2001): Not Only Microsoft: The Maturing of the Personal Computer Software Industry, 1982–1995. In: Business History Review 75. 103-146. Ceruzzi, Paul E. (1996): From Scientific Instrument to Everyday Appliance: The Emergence of Personal Computers, 1970-1977. In: History and Technology 13.1. 1-32. Dertouzos, Michael L. (1997): Creating the People's Computer. In: Technology Review 100.3. Dué, Richard T. (1993): The Productivity Paradox. In: Information Systems Management 10.Winter. 68-71. Edwards, Paul. N. (1996): The Closed World. Computers and the Politics of Discourse in Cold War America. Cambridge, Mass.: MIT Press. Engelbart, Douglas C. (1963): A Conceptual Framework for the Augmentation of Man's Intellect. In: Howerton/Weeks (Hrsg.) (1963): 1-29. Engelbart, Douglas C./English, William K. (1968): A research center for augmenting human intellect. In: AFIPS (American Federation of Information Processing Societies) (Hrsg.) (1968): 395-410. Friedewald, Michael (2000): Konzepte der Mensch-Computer-Kommunikation in den 1960er Jahren: J. C. R. Licklider, Douglas Engelbart und der Computer als Intelligenzverstärker. In: Technikgeschichte 67.1. 1-24. Friedewald, Michael (2007): Ubiquitous Computing: Ein neues Konzept der Mensch-ComputerInteraktion und seine Folgen. In: Hellige (Hrsg.) (2007). Goldstine, Herman H. (1980): The Computer from Pascal to von Neumann. Princeton, N.J.: Princeton University Press. Heintz, Bettina (1993): Die Herrschaft der Regel. Zur Grundlagengeschichte des Computers. Frankfurt, New York: Campus. Hellige, Hans D. (Hrsg.) (2007): Das Mensch-Computer-Interface: Geschichte, Gegenwart und Zukunft. Bielefeld: Transkript Verlag. Hellige, Hans D. (1996): Leitbilder im Time-Sharing-Lebenszyklus: Vom "Multi-Access" zur "Interactive Online-Community". In: Hellige (Hrsg.) (1996): 205-234. Hellige, Hans D. (Hrsg.) (1996): Technikleitbilder auf dem Prüfstand. Leitbild-Assessment aus der Sicht der Informatik- und Computergeschichte. Berlin: Edition Sigma. Hiltzik, Michael A. (1999): Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age. New York: HarperCollins. Howerton, P. W./Weeks, D. C. (Hrsg.) (1963): The Augmentation of Man's Intellect by Machine. Washington, DC: Spartan Books. Kay, Alan C. (1984): Computer Software. In: Scientific American 251.3. 41-47.
38
Michael Friedewald
Kay, Alan C./Goldberg, Adele (1977): Personal Dynamic Media. In: IEEE Computer 10.3. 31-41. Kurzweil, Ray (1999): The age of spiritual machines: When computers exceed human intelligence. New York: Viking. Licklider, J. C. R. (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics 1.1. 4-11. Nelson, Ted (1987): Computer Lib/Dream Machines [1. Auflage 1974]. Redmond: Tempus Books. Norberg, Arthur. L./O'Neill, Judy E. (1996): Transforming Computer Technology: Information Processing in the Pentagon 1962-1986. Baltimore Md.: Johns Hopkins University Press. Redmond, Kent C./Thomas, M. S. (2000): From Whirlwind to MITRE: The R&D Story of the SAGE Air Defense Computer. Cambridge, Mass.: MIT Press. Rojas, Raúl (Hrsg.) (1998): Die Rechenmaschinen von Konrad Zuse. Berlin, Heidelberg: Springer.
Reflektierte und populäre Kritik der elektronischen Massenmedien. Anforderungen an eine kritische und gestaltende Medienforschung Roger Häussling, Michael Mangold
Vermittlung von Wissensinhalten als zentraler gesellschaftsgestalterischer Beitrag der Massenmedien "Was wir (…) über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien" (Luhmann 2004: 9). Mit dieser Aussage bringt Niklas Luhmann den wohl wichtigsten gesellschaftsgestaltenden Beitrag der Massenmedien auf den Punkt. Unser Wissen über Naturphänomene, politische Zusammenhänge, wirtschaftliche Prozesse, kulturelle Gegebenheiten – inklusive der Lebensweise derjenigen sozialen Milieus unserer Gesellschaft, denen wir selbst nicht angehören und zu denen wir auch keine direkten Berührungspunkte besitzen –, erhalten wir über Massenmedien.1 Sind also unsere "Weltbilder" (Dux 1982) tatsächlich zu einem beträchtlichen Teil durch die Massenmedien erzeugt, so bedarf es einer ebenso differenzierten wie distanzierten Reflektion über diese Medien. Was – so ist zu fragen – wird da eigentlich vermittelt? Welches Wissen wird generiert? Und trifft dies überhaupt relevante Wissensbereiche der Gesellschaft, um zu mehr gesellschaftlicher Mündigkeit zu gelangen? Besonders das Fernsehen – das Leitmedium der Massenkommunikation2 – steht hierbei in der populären Kritik, wenig zu einer anspruchsvollen Vermittlung von Wissensinhalten beitragen zu können. Eine Orientierung an Sensationellem, ein Werteverfall, ein Verlust an Niveau, eine zu starke Orientierung an Unterhaltung und reinem Entertainment, ein Schielen auf Einschaltquoten, aber auch ein Manipulieren von Meinungen und gesellschaftlichen Stimmungen werden im Rahmen dieser populären Kritik konstatiert. Man wäre als Wissenschaftler durchaus nicht schlecht beraten, in diesen Chor der Kritik mit einzu1 2
Ja, selbst die meisten Erkenntnisse eines Wissenschaftlers sind über Massenmedien, vorzugsweise Bücher und Zeitschriften, vermittelt. Selbst bei intensiven Onlinenutzern hat sich an diesem zentralen Stellenwert des Fernsehens, wie empirische Befunde zeigen, nichts geändert. Allein die Nutzungsweise hat sich noch stärker zur Unterhaltung hin verschoben (vgl. Oehmichen/Schröter 2003: 158).
40
Roger Häussling, Michael Mangold
stimmen. Hier wird aber stattdessen gefragt, ob diese Form der Medienkritik nicht selbst von dem Urteil eingeholt wird, welches sie über ihren Gegenstand verhängen möchte, nämlich wenig anspruchsvoll zu sein? Als Maßstab einer gehaltvollen Medienkritik sollen hier die entsprechenden Ausführungen von Jürgen Habermas herangezogen werden (Kapitel 2). Anschließend (Kapitel 3) wird aufgezeigt, dass seine Medienkritik zwar vielfach aufgegriffen wurde, allerdings in oftmals bedenklicher Simplifizierung und Pauschalisierung. Eine derartige Kritik trifft nicht nur nicht mehr zu, sondern sie büßt auch ihre eigentliche Funktion ein: Ein Regulativ für die Medienentwicklung selbst zu sein. Abschließend (Kapitel 4) sollen deshalb Anforderungen an eine gehaltvolle Medienkritik formuliert werden, die sich auf ihre zentrale Funktion der Wissensvermittlung bezieht und andererseits differenziert aktuelle Verhältnisse und Entwicklungen der Medienlandschaft zu erfassen erlaubt.
Der Maßstab gehaltvoller Medienkritik: Jürgen Habermas Habermas kommt in seiner berühmten Habilitationsschrift "Strukturwandel der Öffentlichkeit" zu einer durchaus ambivalenten Einschätzung der Massenmedien. Ohne die Massenmedien wäre die Entstehung und Etablierung demokratischer bürgerlicher Gesellschaften wahrscheinlich nicht möglich gewesen. Sie spielen in der Gewinnung eines eigenen Selbstverständnisses und Selbstbewusstseins der bürgerlichen Schichten im Rahmen noch bestehender feudaler Machtstrukturen eine nicht zu unterschätzende Bedeutung. Für Habermas bilden die englischen Kaffeehäuser ab Mitte des 17. Jahrhunderts, die französischen Salons im nachrevolutionären Frankreich sowie die deutschen Tischgesellschaften und literarischen Zirkel im 19. Jahrhundert die Prototypen der bürgerlichen Öffentlichkeit (vgl. Habermas 1990: 90ff). An diesen Orten wurden literarische und bald auch politische Texte diskutiert. Er spricht vom "Räsonnement des Publikums" (ebd.: 130). Hierbei kommt der Presse eine zentrale Bedeutung zu, deren Wandel Habermas mustergültig für das England des ausgehenden 18. Jahrhunderts nachzeichnet (ebd.: 122ff.). Immer mehr werden dort Themen aufgegriffen, die für das erstarkende Bürgertum von Bedeutung sind: vornehmlich wirtschaftliche und politische. Schrittweise erhalten Journalisten mehr Zugang zu Parlamentsdebatten, womit der Politik als geschlossene Veranstaltung ein Ende bereitet wird. Die Tagespresse (wie die "Times") gewinnt so die Rolle eines sich institutionalisierenden kritischen Regulators, mit dem das Parlament fortan zu rechnen hat. Diese regulative Idee von Öffentlichkeit schafft damit – so Habermas – eine bedeutungsvolle Instanz der Wissensvermittlung zwischen Staat und Privatsphäre (ebd.: 225).
Reflektierte und populäre Kritik der elektronischen Massenmedien
41
Dieser hohe Anspruch wird nun, so die weitere Argumentation von Habermas, ausgerechnet von der Instanz schrittweise wieder demontiert, die maßgeblich an der Etablierung der bürgerlichen Öffentlichkeit mitgewirkt hat: die Presse und die Massenmedien (ebd.: 275ff.). Denn durch die Ausdehnung des Pressewesens werde ein erneuter Rückzug in die häusliche Privatsphäre begünstigt.3 Der gerade entwickelte öffentliche Kommunikationsraum zerfalle somit in eine Vielzahl vereinzelter Rezeptionsakte, wobei die Zuordnung dieser Tätigkeit in den Bereich der Freizeit eine faktische Entpolitisierung des Bürgers bedeute. Nicht mehr länger stehe die Artikulation eines politischen Willens im Vordergrund, sondern Öffentlichkeit werde zu einer kommerziell organisierten und produzierten Angelegenheit (ebd.: 258ff.). Die Wissensinhalte werden dementsprechend marktverwertbar zurechtgestutzt. Habermas spricht in diesem Zusammenhang von einer "Refeudalisierung der Öffentlichkeit" (ebd.: 292), bei der das Publikum in zunehmendem Maß vom Sprachrohr zum Resonanzboden von öffentlichen Kommunikationen degradiert wird. Denn das öffentliche Räsonnement, das vormals außerhalb der Medien stattfand, wird nun von den Medien selbst beansprucht, wodurch dem Publikum die Chance genommen wird, sprechen und widersprechen zu können. So wie im Mittelalter die Feudalmächte die öffentlichen Auftritte als Selbstrepräsentation zu Legitimationszwecken genutzt haben, erscheinen nun "öffentliche Angelegenheiten" (Informationen) und "Akteure der Öffentlichkeit" als Material (Ware) der Selbstinszenierung der Massenmedien.4 Sieht man Habermasens Kritik im zeitgeschichtlichen Kontext einer flächendeckenden Ausbreitung des Fernsehens in den 1950er Jahren und des nachholenden Konsums einer vom "Wirtschaftswunder" ergriffenen Gesellschaft, so erscheinen seine Befürchtungen für die damalige Zeit mehr als berechtigt.5 In 3
4
5
Auch Richard Sennett hat den Zerfall des öffentlichen Lebens diagnostiziert. Die Differenz zwischen den sozialen Bereichen der Privatheit und der Gesellschaftlichkeit werden nivelliert, was zu einer Einengung des Variationsspielraums von sozialen Beziehungen führe (Sennett 1990). Im Anschluss an Habermas versuchen Ulrich Oevermann und weitere Vertreter der Objektiven Hermeneutik die Darstellungsstrategien der Produzenten mittels differenzierter Einzelfallanalysen als Selbstinszenierungen zu deuten (vgl. Ackermann 1994; Mingot 1993; Oevermann 1983). Nicht von ungefähr lassen sie sich in Deckung bringen mit den Beiträgen von Adorno und Horkheimer zur "Kulturindustrie" – die sich auf die US-amerikanische Gesellschaft der 1940er Jahre bezog und in der die Ausbreitung des neuen Massenmediums Fernsehen und die Kommerzialisierung viel weiter fortgeschritten war als in irgend einer anderen Gesellschaft der damaligen Zeit. Adornos und Horkheimers Kritik an den Massenmedien richtete sich auf den Aspekt der Unterwerfung der Kultur unter die Verwertungsmechanismen der Kulturindustrie (Adorno/Horkheimer 1969: 132).
42
Roger Häussling, Michael Mangold
seinem Vorwort zur Neuauflage seiner Habilitationsschrift räumt Habermas selbst ein, die Rolle der Rezipienten zu kritisch-pessimistisch gesehen zu haben. Diese besäßen durchaus größere Handlungsspielräume in der Aneignung der Medieninhalte (ebd.: 30). Von dieser späteren Relativierung bleibt allerdings seine vehemente Kritik bezüglich der Produktion massenmedialer Inhalte unberührt. Denn für Habermas könne sich bei einer öffentlichen Kommunikation über Massenmedien prinzipiell die diskursive Vernunft, also der "zwanglose Zwang" des besseren Arguments nicht durchsetzen. Im Grunde trifft diese Kritik von Habermas jedoch nicht nur die Massenkommunikation sondern auch die kommunikativen Handlungen fast aller anderen gesellschaftlichen Bereiche; denn dort ist der "herrschaftsfreie Diskurs" aus anderen strukturellen Gründen ebenso wenig möglich. Setzt man aber den Bewertungsmaßstab, wie Habermas, zu hoch, läuft man Gefahr, gegenläufige Tendenzen in den kritisierten Kommunikationsformen nicht adäquat würdigen zu können.
Die Verdinglichung der Kritik Die von Seiten Horkheimers und Adornos formulierte Kritik an der Kulturindustrie sowie die Arbeit von Habermas zum Strukturwandel der Öffentlichkeit finden sich jeweils eingebettet in eine sehr komplexe Theorie der Gesellschaft. Alle Theorien mit einer derartigen Komplexität werden jedoch mit der Problematik der Vermittlung gegenüber den Adressaten konfrontiert. Dabei reduziert sich die Problematik nicht als eine des Adressaten und dessen Weltsicht, vielmehr wirkt die rezipierte Sichtweise auf den Gegenstand zurück und affiziert ihn dadurch. Die Vermittlungsschwierigkeiten von Theorie sind bereits innerwissenschaftlich sowie unter Bedingungen eines mehr oder weniger statischen Untersuchungsgegenstandes erheblich. Bereits unter relativ günstigen Bedingungen der Vermittlung der Theorie zur Kulturindustrie sowie des Strukturwandels der Öffentlichkeit wohnen ihr so gewisse Tendenzen zur Reduktion und damit letztlich zur Verfälschung inne, die nachfolgend analytisch getrennt näher betrachtet werden sollen.
Die Kritik an der Kulturindustrie wird dessen Opfer Die benannte Problematik des Affizierens komplexer Theorie erlangt eine besondere Qualität, sofern die Vermittlung außerhalb des wissenschaftlichen Diskurses erfolgt und eine breitere Öffentlichkeit einbezogen wird. Die Mechanis-
Reflektierte und populäre Kritik der elektronischen Massenmedien
43
men der innerwissenschaftlichen Kontrolle gelten für diesen Fall nicht mehr. Vielmehr finden im außerwissenschaftlichen Diskurs eigene Regeln der Kommunikation ihre Anwendung. Dies gilt insbesondere vor dem Hintergrund, dass die Vermittlung der Theorie bzw. ihrer simplifizierten Formen vorrangig über jene Medien, auf die sich ein wesentlicher Teil der Kritik bezog,6 erfolgte: die der kommerzialisierten Massenmedien. Besonders bedeutsam war dabei sicher die Rezeption der genannten Theorien über populäre Sachbücher, das Feuilleton sowie nicht zuletzt über das Fernsehen. In diesem Medienkontext ist die Vermarktung und damit verbunden die Verdinglichung in besonders ausgeprägter Form wirksam.7 Dabei kommen diese Prozesse erst in Gang, sofern bereits Anknüpfungsmöglichkeiten an bereits etablierte allgemeine gesellschaftliche Deutungsschemata vorliegen. Letztere sind in diesem Fall jene, in Denk- und Wahrnehmungsmustern verankerte Vorbehalte gegenüber spezifischen Kulturerscheinungen, wie beispielsweise der Jugend- oder Populärkultur bzw. ihrer medialen Ausdrucksmittel. Bei näherer Betrachtung bedeutet dies, dass die kritische Analyse der kulturellen Produktion im Zuge ihrer Vermittlung über die Massenmedien genau jenen Prozessen der Verdinglichung unterworfen wurde, die ursprünglich im Zentrum der Kritik stand. Das Kritisierte holt derart die Kritik ein und macht sie stumpf.
Die Negation emanzipatorischer Potenziale durch populäre Medienkritik Die benannte Problematik verschärft sich weiterhin erheblich, sofern die eingangs genannte Bedingung eines mehr oder weniger statischen Untersuchungsgegenstandes nicht zutrifft. Dies gilt zweifelsohne für die in den zurückliegenden Jahrzehnten bei den elektronischen Medien festzustellende Entwicklung. Die hier erfolgten Veränderungen sind dabei nicht lediglich als eine quantitative Ausweitung der Verwertungsprozesse und damit als eine Allgegenwart der Mechanismen der Kulturindustrie zu interpretieren, sondern vielmehr als eine 6
Der Begriff der Kulturindustrie, wie er von Horkheimer und Adorno geprägt wurde, richtete sich nicht lediglich auf die Medien bzw. die Massenmedien. Vielmehr bezieht er die ganze Bandbreite der öffentlichen kulturellen Äußerungen ein, wie sie auch außerhalb des im engen Sinn als Kultur bezeichneten Rahmens stattfindet, so beispielsweise im Kontext der Politik, des Städtebaus oder auch der Straßenkunst (siehe hierzu auch: Resch/Steinert 2003).
7
Damit soll darauf verwiesen werden, dass im wissenschaftlichen Kontext ebenfalls jene Regeln des Marktes und der Warenförmigkeit Geltung aufweisen, wenngleich unter spezifischen Bedingungen.
44
Roger Häussling, Michael Mangold
qualitative Veränderung, die die traditionellen Kategorien der elektronischen Massenmedien obsolet werden ließ. Dies gilt insbesondere für die traditionellen Kategorien des Produzenten und des Konsumenten (Häussling/Mangold 2006). Die zwar insgesamt nicht befriedigende, gleichwohl in einzelnen Bereichen wichtige Weiterentwicklung der Theorie der Kulturindustrie, der Massenmedien bzw. des Strukturwandels der Öffentlichkeit (so z.B. Habermas 1990; Wenzel 2001) fand jedoch offenkundig nicht in einem nennenswerten Ausmaß Eingang in eine die breite Öffentlichkeit einbeziehende Diskussion. Dies bedeutet letztlich, dass im öffentlichen Diskurs über die elektronischen Massenmedien eine die Veränderungen der zeitlichen, gesellschaftlichen und medientechnologischen Realitäten weitgehend ignorierende und zudem sich auf eine simplifizierte und popularisierte "Theorie" der Kulturindustrie stützende allgemeine Deutung herausbildete. Da zugleich der fachliche Diskurs lediglich innerhalb der "scientific community" erfolgte, tritt die allgemeine Deutung mehr oder weniger ohne Konkurrenz und daher ohne Zwang zur Begründung von Urteilen über die Medienrealität in Erscheinung. Mit anderen Worten: Sie erlangte nahezu unangefochten die Deutungshoheit. Besonders augenfällig wird dies bei Betrachtung der vom Kriminologen Christian Pfeiffer (2003) und vom Neurobiologen Manfred Spitzer (2002; 2005) vorgetragenen populären Kritik an den elektronischen Medien. Von beiden Autoren wird an das bereits etablierte Deutungsschemata der Vorbehalte gegenüber den Massenmedien, hier insbesondere des Fernsehens und der Computerspiele, angeknüpft.8 Dabei stießen jene Beiträge der beiden Autoren nicht zuletzt in dem von ihnen kritisierten Medium Fernsehen auf große Resonanz, da sie durch eingängige Formeln, wie jene der "Medienverwahrlosung" (Pfeiffer 2003), nicht nur die genannten Ressentiments gegenüber den vorrangig in der Jugendkultur verankerten Medien bedienten. Vielmehr suggerierten sie auch den im Zusammenhang mit den PISA-Studien (Baumert et al. 2001; Baumert et al. 2002) entstandenen großen Bedarf an einer Erklärung der konstatierten Misere in der bundesdeutschen Bildung zu decken und nicht zuletzt den dadurch ausgelösten Bedarf an unmittelbar umsetzbaren und nachhaltig wirksamen Lösungen zu befriedigen. Die von den Autoren in einer breiten Öffentlichkeit angebotenen "Lösungen" lassen sich letztlich auf die Kernforderung einer Abwendung von den elektronischen Medien reduzieren. Eine derartige Form von Lösung weist dabei den politisch nicht zu unterschätzenden Vorteil der Bewahrung der angestammten Strukturen im Bildungssystem sowie in den elektronischen Medien, insbesondere im Fernsehen, auf. Ein Medium, dem gegenüber eine Abkehr 8
Siehe hierzu ausführlich: Häussling/Mangold (2006).
Reflektierte und populäre Kritik der elektronischen Massenmedien
45
eingefordert wird, ist damit zugleich von Reflektionen, beispielsweise bezüglich des öffentlich-rechtlichen Auftrags, entpflichtet und vermag sich derart weiterhin einer Kritik zu entziehen. Näher betrachtet führt eine derartige Medienkritik jedoch nicht lediglich zu einem Strukturkonservatismus und lässt Potenziale zur Nutzung für die Bewältigung gesellschaftlicher Wandlungsprozesse in Richtung einer Wissensgesellschaft ungenützt. Vielmehr trägt jene Kritik dazu bei, dass die Realität der elektronischen Massenmedien sich in jener Weise verändert, die aus Sicht der populären Kritik deren Anlass war. Wenn an die Stelle einer differenzierten Analyse der elektronischen Massenmedien und ihrer Position im Prozess der gesellschaftlichen Reproduktion pauschal medienkritische bzw. populäre negative Sichtweisen treten,9 so werden gesellschaftliche Deutungsschemata im oben genannten Sinne generiert, die zu einem Übergang des Vermeintlichen zum Tatsächlichen führen.10
Anforderungen an eine Medienkritik mit dem Bezugspunkt der Wissensvermittlung Eine an den neuen Entwicklungen in der Medienlandschaft und in der Gesellschaft orientierte Reflektion der Massenmedien müsste unseres Erachtens an dem eingangs erwähnten, wohl zentralsten gesellschaftsgestaltenden Beitrag der Massenmedien ansetzen: Nämlich an der Vermittlung von Wissensinhalten. Sie wird in den kommenden Jahren und Jahrzehnten durch die gesellschaftlichen Veränderungsprozesse im Sinne einer "Wissensgesellschaft" noch weiter in den Fokus der Gesellschaftspolitik treten. Dabei ist zunächst vorbehaltlos zu konstatieren, dass das viel geschmähte Medium Fernsehen nach wie vor wohl das wichtigste Medium der Wissensvermittlung11 darstellt und folglich eine entsprechend große Rolle bei der Bewältigung der Herausforderungen im Gesellschaftswandel erfahren muss. Dies gilt um so mehr, sofern der Einbezug von so genannten "bildungsfernen" Personengruppen in das Bildungssystem bzw. in die 9 10
11
Manfred Spitzer vertritt die Ansicht, dass Fernseher und Computer "dumm, dick und gewalttätig" machen (Spitzer 2005: 245). Siehe hierzu u.a. die Ausführungen im Sammelband von Rössler/Krotz (2005) zu den "Mythen der Mediengesellschaft", die jene unreflektierten Vorstellungen und Mythen zu den Medien im Detail analysieren. Dabei sind insbesondere die in narrativen Fernsehformaten eingebundenen Wissensvermittlungsprozesse hervorzuheben. Sie werden vielfach gegenüber den auf explizite Wissensvermittlung konzentrierten Fernsehformaten vernachlässigt.
46
Roger Häussling, Michael Mangold
Wissensgesellschaft erkannt wird, deren Medienkonsum durch das Fernsehen besonders stark dominiert wird (siehe hierzu: Mangold et al. 2004; Mangold/Soultanian 2003; Mangold/Üstünsöz-Beurer 2006). Wird die computervermittelte bzw. internetbezogene Kommunikation ebenfalls in ihrer gesamten Breite in die Analyse einbezogen, so können auch hier vielfältige Anknüpfungspunkte zu einer Gestaltung der sozialen Wandlungsprozesse ermittelt und genützt werden. Hierzu zählen beispielsweise Computerspiele, Weblogs, Videologs, Podcasts und andere neuere Formen der Nutzung der Neuen Medien (Diemand et al. 2006). Bei vorbehaltloser Betrachtung zeigen sich hier durchaus bezüglich der Herausbildung der frühen bürgerlichen Öffentlichkeit ähnliche, auf originäre Kommunikationsbedürfnisse zurückgehende Formen des Räsonnements des Publikums, die wichtige Impulse für die demokratische Gesellschaft zu vermitteln vermögen. Es zeigen sich weiterhin, der Unterhaltung zugerechnete Formen der Mediennutzung, die, ebenfalls aus originären Bedürfnissen hervorgehend, komplexe Lernprozesse in Gang setzen und daher unter dem Aspekt der Befähigung zur Teilhabe an der modernen Gesellschaft nicht zu unterschätzen sind (Johnson 2005). Zu den Anforderungen an eine Medienkritik sind daher zunächst ein anderes Selbstverständnis sowie eine andere Beziehung zwischen wissenschaftlicher und praktischer Arbeit zu nennen. Resch/Steinert konstatieren in diesem Sinn, dass "die Theorie der Kulturindustrie (...) keine Publikums-, sondern eine Intellektuellenbeschimpfung [ist]" (2003: 315). Dem wäre hinzuzufügen, dass eine der Aufklärung verpflichtete Theorie, wie sie von Seiten der Sozialwissenschaften einzubringen und weiter zu entwickeln ist, auch den Graben zur praktischen Medienkultur überschreiten muss. Der sich letztlich gegen emanzipatorische Potenziale richtenden populären Medienkritik kann und darf das Feld nicht überlassen werden. Das Wissen der sich mit den Neuen Medien wissenschaftlich auseinandersetzenden Disziplinen wird benötigt, um bereits vorhandene, wünschenswerte Veränderungsprozesse in den Medien zu forcieren und durchaus auch um jene Veränderungen zu initiieren und zu begleiten.
Literatur Ackermann, Friedhelm (1994): Die Modellierung des Grauens. Exemplarische Interpretation eines Werbeplakats zum Film "Schlafwandler" unter Anwendung der "Objektiven Hermeneutik" und Begründung einer kultursoziologischen Bildhermeneutik. In: Garz/Kraimer (Hrsg.) (1994): 195-225. Adorno, Theodor W./Horkheimer, Max (1969): Dialektik der Aufklärung. Philosophische Fragmente. Frankfurt/M.: Fischer.
Reflektierte und populäre Kritik der elektronischen Massenmedien
47
Baumert, Jürgen/Artelt, Cordula/Klieme, Eckhard/Neubrand, Michael/Prenzel, Manfred/Schiefele, Ulrich/Schneider, Wolfgang/Tillmann, Klaus-Jürgen/Weiß, Manfred (Hrsg.) (2002): PISA 2000 – Die Länder der Bundesrepublik Deutschland im Vergleich. Opladen: Leske + Budrich. Baumert, Jürgen/Klieme, Eckhard/Neubrand, Michael/Prenzel, Manfred/Schiefele, Ulrich/Schneider, Wolfgang/Stanat, Petra/Tillmann, Klaus-Jürgen/Weiß, Manfred (Hrsg.) (2001): PISA 2000: Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske + Budrich. Cunningham, Paul/Cunningham, Miriam/Fatelnig, Peter (Hrsg.) (2003): Building the Knowledge Economy: Issues, Applications, Case Studies. Amsterdam: IOS Press. Demirovic, Alex (Hrsg.) (2003): Modelle kritischer Gesellschaftstheorie. Traditionen und Perspektiven der Kritischen Theorie. Stuttgart/Weimar: Metzler. Diemand, Vanessa/Mangold, Michael/Weibel, Peter (Hrsg.) (2006): Weblogs, Podcasting und Videojournalismus. Neue Medien zwischen demokratischen und ökonomischen Potenzialen. Hannover: Heise Verlag. Dux, Günter (1982): Die Logik der Weltbilder. Sinnstrukturen im Wandel der Geschichte. Frankfurt/M.: Suhrkamp. Garz, Detlef/Kraimer, Klaus (Hrsg.) (1994): Die Welt als Text. Theorie, Kritik und Praxis der objektiven Hermeneutik. Frankfurt/M.: Suhrkamp. Habermas, Jürgen (1990): Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, mit einem Vorwort zur Neuauflage. Frankfurt/M.: Suhrkamp. Häussling, Roger/Mangold, Michael (2006): Potenziale der Massenmedien für eine neue Öffentlichkeit. Zur Revision der traditionellen Medienkritik. In: Diemand et al. (Hrsg.) (2006): 21-41. Holly, Werner/Püschel, Ulrich (Hrsg.) (1993): Medienrezeption als Aneignung. Methoden und Perspektiven qualitativer Medienforschung. Opladen: Westdeutscher Verlag. Johnson, Steven (2005): Everything Bad is Good for You: How Today's Popular Culture Is Actually Making Us Smarter. London: Penguin Books. Luhmann, Niklas (2004): Die Realität der Massenmedien, 3. Auflage. Opladen: Westdeutscher Verlag. Mangold, Michael/Schneider, Christoph/Soultanian, Robert (2004): Werte- und Bildungsvermittlung durch die Daily Soap: Unterhaltungsfernsehen als neues Instrument zur gesellschaftlichen Integration türkischer Jugendlicher. Forschungsbericht des ZKM | Institut für Medien, Bildung und Wirtschaft, Pilotprojekt des Ministeriums für Arbeit und Soziales BadenWürttemberg gefördert aus Mitteln des Europäischen Sozialfonds. Karlsruhe: ZKM Institut für Medien und Wirtschaft. Mangold, Michael/Soultanian, Robert (2003): Entertainment Films for Education in the Age of Analogue and Digital Television. In: Cunningham et al. (Hrsg.) (2003). Mangold, Michael/Üstünsöz-Beurer, Dörthe (2006): TV-gestützte Lösungsansätze: Die Bedeutung des Fernsehens für die Berufsorientierung. In: Zeitschrift für Wirtschaft und Berufserziehung (W&B) 06.06. 17-20.
48
Roger Häussling, Michael Mangold
Mingot, Karl M. (1993): Die Struktur der Fernsehkommunikation – der objektive Gehalt des Gesendeten und seine Rezeption. In: Holly/Püschel (Hrsg.) (1993): 151-172. Oehmichen, Ekkehardt/Ridder, Christa-Maria (Hrsg.) (2003): Die MedienNutzerTypologie. Ein neuer Ansatz der Publikumsanalyse. Baden-Baden: Nomos. Oehmichen, Ekkehardt/Schröter, Christian (2003): Fernsehen, Hörfunk, Internet: Konkurrenz, Konvergenz oder Komplement? Zur Nutzung von Fernsehen, Hörfunk und Internet nach typologischen Publikumssegmenten. In: Oehmichen/Ridder (Hrsg.) (2003): 144-159. Oevermann, Ulrich (1983): Zur Sache. Die Bedeutung von Adornos methodologischem Selbstverständnis für die Begründung einer materialen soziologischen Strukturanalyse. In: von Friedeburg/Habermas (Hrsg.) (1983): 234-289. Pfeiffer, Christian (2003): Medienverwahrlosung als Ursache von Schulversagen und Jugenddelinquenz?. Online: http://kfn.de/profdrpfeiffer.shtml (abgerufen am: 02.03.2007). Resch, Christine/Steinert, Heinz (2003): Kulturindustrie: Konflikte um die Produktionsmittel der gebildeten Klasse. In: Demirovic (Hrsg.) (2003): 312-339. Rössler, Patrick/Krotz, Friedrich (2005): Mythen der Mediengesellschaft. Konstanz: UVK Verlags GmbH. Sennett, Richard (1990): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt/M.: S. Fischer Verlag GmbH. Spitzer, Manfred (2002): Lernen. Gehirnforschung und die Schule des Lebens. Heidelberg/Berlin: Spektrum Akademischer Verlag. Spitzer, Manfred (2005): Vorsicht Bildschirm! Elektronische Medien, Gehirnentwicklung, Gesundheit und Gesellschaft. Stuttgart: Ernst Klett Verlag. von Friedeburg, Ludwig/Habermas, Jürgen (Hrsg.) (1983): Adorno-Konferenz 1983. Frankfurt/M.: Suhrkamp. Wenzel, Harald (2001): Die Abenteuer der Kommunikation. Echtzeitmassenmedien und der Handlungsraum der Hochmoderne. Weilerswist: Velbrück Wissenschaft.
Kommunikatoren in der Onlinekommunikation
Stabilität und Wandel von Weblog-Praktiken: Erste empirische Befunde Jan Schmidt
Einleitung: Praktiken des Bloggens1 Die Diskussion um die gegenwärtige und zukünftige Bedeutung des Internet, die mit dem Stichwort "Web 2.0" verbunden ist, betont die wachsenden Möglichkeiten, seine eigenen Interessen, Meinungen und sozialen Beziehungen im Netz sichtbar zu machen. Die Entscheidung der TIME, den aktiven Internet-Nutzer zur Person des Jahres 2006 zu erklären, drückte dies prägnant aus (Grossman 2006). Eines der bekanntesten Formate, das für viele prototypisch für das Web 2.0 steht, ist das Weblog (auch: Blog), worunter eine vergleichsweise häufig aktualisierte Webseite verstanden wird, deren Beiträge rückwärts chronologisch dargestellt sind und in der Regel von anderen Nutzern kommentiert werden können. Die rasante Verbreitung dieser Form der computervermittelten Kommunikation – die spezialisierte Suchmaschine technorati.com zählte im Juni 2007 über 85 Millionen Weblogs – ging mit einer Differenzierung der Einsatzweisen einher. Neben den anteilsmäßig dominierenden persönlichen OnlineJournalen, die jedoch in sich schon große Unterschiede in Themen, Stil und Gestaltung aufweisen, werden Weblogs beispielsweise auch in der Organisationskommunikation, als Instrument des E-Learning oder als Ergänzung professioneller publizistischer Angebote eingesetzt. Um Gemeinsamkeiten und Unterschiede dieser Vielfalt von Nutzungsweisen kommunikationssoziologisch zu erfassen, hat der Verfasser an anderer Stelle einen praxistheoretischen Analyserahmen vorgeschlagen (vgl. Schmidt 2006b). Demnach existieren unterschiedliche Sets von Routinen und Erwartungen (Regeln) für den Einsatz der Weblog-Software und ihrer spezifischen Funktionen (Code) innerhalb bestehender oder neu aufzubauender hypertextueller und sozialer Netzwerke (Relationen). Diese drei strukturellen Dimensionen geben dem
1
Die hier vorgestellten Forschungsergebnisse wurden im Rahmen des DFG-geförderten Projekts "Praktiken des onlinegestützten Netzwerkens" erarbeitet. Für Hinweise zu früheren Fassungen dieses Textes danke ich Thomas Binder, Constanze Carstanjen und Martin Wilbers.
52
Jan Schmidt
individuellen Handeln einen Rahmen vor und werden durch es (re-) produziert; in Blogging-Praktiken äußert sich also die Dualität von Struktur und Handeln, wie sie bspw. Giddens (1988) als allgemeines Merkmal der sozialen Welt herausarbeitet. Als Form der "Social Software" (vgl. Schmidt 2006a) erfüllen Weblogs mehrere Funktionen: Sie dienen ihren Autoren (den "Bloggern") als Werkzeug des Identitätsmanagements, weil sie es erlauben, Aspekte der eigenen Person, Interessen, Meinungen und Erlebnisse im Internet für andere zu präsentieren. Durch Verlinkungen und Kommentare werden "persönliche Öffentlichkeiten" unterschiedlicher Reichweite geschaffen, sodass Blogging-Praktiken immer auch Elemente des Beziehungsmanagements beinhalten. Schließlich entwickeln Blogger als Rezipienten bestimmte Strategien des Informationsmanagements, indem sie nach individuellen Relevanzkriterien einzelne Angebote aus der Blogosphäre auswählen und verfolgen. Die Aneignung des Medienformats geht dabei auf Seiten des einzelnen Nutzers mit einer Stabilisierung von Verwendungsweisen, auf überindividueller Ebene mit dem Entstehen von Verwendungsgemeinschaften einher, also von Nutzergruppen, die Routinen im Umgang mit dem und Erwartungen an das Weblog-Format teilen. Inzwischen liegen zahlreiche empirische Befunde zur Nutzung von Weblogs vor (vgl. u.a. Herring et al. 2005; Herring/Paolillo 2006; Kunz 2006; Tremayne et al. 2006). Allerdings handelt es sich dabei meist um Querschnittanalysen, die nur zu einem Untersuchungszeitpunkt Daten erheben. Die seltenen Fälle von Längsschnittanalysen (im deutschsprachigen Raum wohl nur Abold 2006 für die Nutzung von Weblogs im deutschen Bundestagswahlkampf 2005) können zwar Veränderungen auf Aggregatebene identifizieren, geben aber keine Hinweise auf intra-individuelle Veränderungen, die auf die Stabilisierung und Dynamik von Praktiken schließen ließen. Der vorliegende Beitrag trägt dazu bei, diese Forschungslücke zu schließen: Er präsentiert Daten aus zwei Wellen einer Befragung unter deutschsprachigen Bloggern (Abschnitt 2) und diskutiert die Ergebnisse (und ihre Grenzen) vor dem Hintergrund des oben kurz skizzierten Analyserahmens (Abschnitt 3).
Ergebnisse Im Oktober 2005 führte die Forschungsstelle "Neue Kommunikationsmedien" die onlinebasierte Umfrage "Wie ich blogge?!" durch, die sich an aktive Autoren, ehemalige Nutzer und Leser von Weblogs im deutschsprachigen Raum richtete. Durch die Kooperation mit verschiedenen Weblog-Providern und die Möglichkeit für die Teilnehmer, durch das Einbinden eines Icons im eigenen
53
Stabilität und Wandel von Weblog-Praktiken
Weblog auf die Umfrage zu verweisen, wurde ein Rücklauf von 5.246 Personen erreicht. Im Juli und August 2006 fand eine zweite Befragung unter denjenigen Personen statt, die in der ersten Welle Interesse an einer Folgebefragung bekundet hatten.2 Von diesen 2701 Personen nahmen 1439 (56,4%) an der zweiten Umfrage teil; neben der großen Mehrheit von aktiven Bloggern (87%) waren auch Ex-Blogger (8%) und reine Leser (5,3%) unter den Teilnehmern. Die Antworten beider Wellen können über eine eindeutige, anonymisierte ID einander zugeordnet werden, sodass Aussagen über individuelle Veränderungen in den Nutzungspraktiken möglich sind. Allerdings können die Ergebnisse aufgrund der Art der Stichprobenkonstruktion keine Repräsentativität für die deutschsprachige Blogosphäre beanspruchen. Die aktiven Blogger entsprechen Pioniernutzern von Internettechnologien (vgl. Tab. 1): Sie sind eher jung (das Durchschnittalter in der Befragung betrug ca. 30 Jahre), und formal höher gebildet. Die Geschlechterverteilung in der Stichprobe ist vergleichsweise ausgeglichen, was Ergebnisse anderer Studien (vgl. Harders/Hesse 2006; Herring et al. 2004) bestätigt, nach denen Frauen einen großen Anteil der Weblog-Nutzer ausmachen. Die Mehrheit der Befragten (66,7%) führte ihr Weblog zum Befragungszeitpunkt seit sechs bis 24 Monaten. Tab. 1:
Soziodemographische Merkmale der aktiven Blogger (in %) N=1245/1240 Männlich Weiblich Jünger als 20 Jahre 20 bis 29 Jahre 30 bis 39 Jahre 40 bis 49 Jahre Über 50 Jahre
August 06 53,8 46,2 11,4 41,6 27,3 13,8 6,0
Die Motive für die Nutzung von Weblogs sind überwiegend stabil geblieben (vgl. Tab. 2). Deutliche Mehrheiten der Befragten gaben in beiden Wellen an, ihr Weblog aus Spaß am Schreiben zu führen und dadurch Ideen und Erlebnisse festzuhalten. Gegenüber diesen selbstbezogenen Gründen sind Motive des Austauschs mit anderen, des in Kontakt bleibens und des Wissen teilens weniger 2
Die ausführlichen Ergebnisse beider Wellen sind bei Schmidt/Wilbers (2006) sowie Schmidt/Paetzolt/Wilbers (2006) dokumentiert.
54
Jan Schmidt
häufig vertreten, werden aber dennoch von etwa vierzig bis fünfzig Prozent der Befragten (neu oder wiederum) genannt. Tab. 2:
Nutzungsmotive im Vergleich (in %; Mehrfachantworten möglich)
N=1192
Zum Spaß Weil ich gerne schreibe Ideen und Erlebnisse festhalten Austausch mit anderen Gefühle von der Seele schreiben In Kontakt bleiben Wissen teilen Im Internet darstellena) Neue Kontakte knüpfen Berufliche Gründe a)
Neu genannt
Weiterhin genannt 63,0 60,3
Weiterhin nicht genannt 14,0 22,1
Nicht mehr genannt 11,0 9,0
12,0 8,6 13,6
52,5
19,4
14,5
14,6
34,8
32,6
18,0
9,2
32,0
46,6
12,2
15,5 12,0 36,6 13,4 6,5
24,0 27,2 -17,3 9,8
48,5 51,1 63,4 57,0 78,8
12,0 9,7 -12,3 4,9
Antwortvorgabe in erster Welle nicht enthalten
Auch hinsichtlich der Art der veröffentlichten Beiträge finden sich Hinweise auf stabile Praktiken (wenngleich durch die Aufnahme einiger neuer Antwortvorgaben die Ergebnisse nur eingeschränkt vergleichbar sind; vgl. Tab. 3). In beiden Wellen dominieren Einträge zu Erlebnissen aus dem Privatleben sowie kommentierte Links zu anderen Onlinequellen. Eine Zunahme zeigt sich vor allem bei multimedialen Inhalten: Eine deutliche Mehrheit der Blogger veröffentlicht auch Bilder und Fotos, während Film-/Videodateien und Podcasts zwar relativ gesehen zulegen, dies aber auf vergleichsweise geringem Niveau. Deutlich zurückgegangen ist der Anteil der Befragten, die auch über politische Themen bloggen – der hohe Anteil bei der ersten Welle ist auf den Befragungszeitpunkt zurückzuführen, der kurz nach der Bundestagswahl 2005 lag.
55
Stabilität und Wandel von Weblog-Praktiken
Tab. 3:
Art der Beiträge im Vergleich (in %; Mehrfachantworten möglich)
N=1179 Berichte/Episoden aus Privatleben Bilder/Fotos Kommentierte Links Filme/Bücher/ Musik a) Hobbies a) Arbeitsleben a) Stadt/Region a) Berufliche/ Studienthemen Politik Gedichte/ Kurzgesch. Schule/Studium a) Andere Inhalte Film-/Videodateien Podcasts a)
Neu genannt 7,6
Weiterhin genannt 68,5
Weiterhin nicht genannt 13,9
Nicht mehr genannt 9,9
15,0 10,9
59,7 59,4
18,0 19,8
7,3 9,9
50,0
--
50,0
--
49,4 45,2 42,1 12,0
---29,9
50,6 54,8 57,9 41,5
---16,6
5,0 8,1
31,2 23,5
46,6 58,1
17,1 10,3
31,4 6,1 9,0 4,0
-5,5 2,4 2,6
68,6 71,5 86,2 92,2
-16,9 2,5 1,2
Antwortvorgabe in erster Welle nicht enthalten
Die Mehrheit der Blogger (57,9%) hat die Häufigkeit beibehalten, mit der neue Beiträge veröffentlicht werden (Vgl. Tab. 4). Bei den übrigen Personen ist tendenziell eher eine seltenere Aktualisierung (31,5%) als eine häufigere Aktualisierung (11,7%) zu beobachten. Dennoch publizieren etwa zwei Drittel der Befragten mindestens einen Beitrag pro Woche.
56 Tab. 4:
Jan Schmidt
Aktualisierungshäufigkeit (in %; N=1194)
2.Welle 1.Welle Täglich Wöchentlich Monatlich Gesamt
Täglich
Wöchentlich
Monatlich
Gesamt
19,8 5,6 0,7 26,1
14,2 20,9 4,4 39,4
3,6 13,7 17,2 34,4
37,7 40,1 22,2 100,0
Neben den Links in Beiträgen und in Kommentaren verweisen viele Weblogs in einer "Blogroll" auf andere Angebote (vgl. Tab. 5). Etwa die Hälfte der Befragten (44,8%) verlinkt weiterhin auf ähnlich viele andere Blogs in der Blogroll. Knapp zwei Fünftel (39,1%) haben ihre Blogroll erweitert, weniger als ein Fünftel (16,2%) haben diese verkleinert, also Weblogs gestrichen. Tab. 5:
Anzahl von Verweisen auf andere Weblogs in Blogroll (in %; N=607)
2.Welle 1.Welle 1 bis 5 6 bis 10 11 bis 15 16 bis 20 > 20 Gesamt
1 bis 5 10,0 2,5 0,5 0,2 0,0 13,2
6 bis 10 7,9 10,5 3,5 1,0 1,0 23,9
11 bis 15 2,3 6,6 3,6 2,5 1,2 16,1
16 bis 20 2,0 3,5 4,3 3,1 3,8 16,6
> 20 1,3 2,8 2,5 5,9 17,6 30,1
Gesamt 23,6 25,9 14,3 12,7 23,6 100,0
Auch bei der Anzahl der regelmäßig gelesenen Weblogs gibt die Mehrheit der Befragten (57,2%) bei der zweiten Welle vergleichbare Werte an (vgl. Tab. 6). Etwa jeder Vierte (23,3%) hat sein Lektürerepertoire erweitert, etwa jeder Fünfte (19,5%) dagegen reduziert. Es zeigt sich eine Polarisierung, denn jeweils etwa 30 Prozent lesen entweder sehr wenige (bis zu fünf) oder sehr viele (über 20) Weblogs regelmäßig.
57
Stabilität und Wandel von Weblog-Praktiken
Tab. 6:
Anzahl der regelmäßig verfolgten Weblogs (in %: N=1260)
2.Welle 1.Welle 1 bis 5 6 bis 10 11 bis 20 > 20 Gesamt
1 bis 5
6 bis 10
11 bis 20
> 20
Gesamt
22,5 6,1 2,3 0,7 31,6
5,7 7,9 5,0 1,7 20,3
2,6 5,1 7,5 3,7 18,9
0,6 2,5 6,8 19,3 29,2
31,4 21,6 21,7 25,3 100,0
Um über Aktualisierungen von Weblogs auf dem Laufenden zu bleiben, steht mit RSS3 eine komfortable Technologie zur Verfügung, die etwa die Hälfte der Befragten in der zweiten Welle nutzte (vgl. Tab. 7). Im Vergleich zur ersten Welle hat sich bei drei Viertel der Befragten (75,7%) keine Änderung bei der Nutzung/Kenntnis von RSS ergeben; etwa 15 Prozent kennen und/oder nutzen RSS inzwischen, während etwa jeder Zehnte RSS nicht mehr nutzt. Tab. 7:
Nutzung von RSS zum Verfolgen von Weblogs (in %; N=1333)
2.Welle 1.Welle Ja Nein (RSS bekannt) Nein (RSS unbekannt) Gesamt
Ja 38,7 8,4 1,1 48,2
Nein (RSS bekannt) 8,6 30,7 5,1 44,4
Nein (RSS unbekannt) 0,4 0,8 6,3 7,4
Gesamt 47,7 39,8 12,5 100,0
Diskussion und Ausblick Die vorgestellten Daten erlauben trotz ihrer eingeschränkten Repräsentativität einige Interpretationen zu Praktiken des Bloggens, ihrer Stabilisierung und ihren Veränderungen. Zusammenfassend lässt sich festhalten, dass sich Verwendungsweisen stabilisieren, die Ergebnisse der Blogging-Praktiken (insbesondere 3
RSS ist die Abkürzung für "Really Simple Syndication" und bezeichnet ein spezifisches Format zur Darstellung von Inhalten im Internet, das auf der Auszeichnungssprache XML beruht. Grundlegende Informationen und weiterführende Links finden sich im entsprechenden Wikipedia-Eintrag unter http://de.wikipedia.org/wiki/RSS.
58
Jan Schmidt
die Größe des Lektürerepertoires und der durch das Bloggen geknüpften sozialen Netzwerke) dagegen verändern. Für eine deutliche Mehrheit der Autoren ist ihr Weblog ein Mittel, Erlebnisse aus dem eigenen persönlichen Umfeld im Netz festzuhalten und mit anderen zu teilen. Der hohe Anteil, den Bilder und Fotos haben, weist darauf hin, dass das Identitätsmanagement (also die Art und Weise, sich selbst und seine Interessen anderen zu präsentieren) nicht allein schriftlich geschieht, sondern auch andere Darstellungsformen aufweisen kann. Diese Nutzung des Formats im Sinne eines persönlichen Online-Journals wird durch die Filterfunktion ergänzt: Viele Blogger verlinken zusätzlich auf andere interessante Online-Quellen, weisen also ihre Leser auf persönlich für relevant gehaltene Inhalte hin und bewerten diese. Zusätzlich werden über Kommentare und Verweise in der Blogroll Beziehungen zu anderen Bloggern aufrecht erhalten. Diese Nutzungsmuster sind im Vergleich der beiden Befragungswellen relativ stabil geblieben, wohingegen es einige Veränderungen bei einzelnen Aspekten der Praktiken gibt, die in entgegengesetzte Richtungen deuten: Ein vergleichsweise großer Anteil der Befragten gibt an, inzwischen seltener zu bloggen, was ein Anzeichen für eine gewisse Ermüdung im Verlauf der "Bloggerkarriere" sein könnte. Dem steht die Erweiterung sozialer Beziehungen entgegen, die sich in der relativ häufig vorkommenden Erweiterung der Blogroll (die in der Regel persönliche Bekanntschaft und/oder thematisches Interesse ausdrückt. Die Polarisierung im Lektürerepertoire, wo etwa gleich große Gruppen mehr bzw. weniger Weblogs regelmäßig lesen, deutet ebenfalls daraufhin, dass die Dynamik der Nutzungspraktiken nicht eindeutig als Intensivierung und Ausweitung oder als Verringerung und Reduktion der Aktivitäten vonstatten geht. Die vorgestellten Daten gehen über bisher vorliegende empirische Befunde zur Nutzung von Weblogs hinaus, weil sie erstmals intra-individuelle Veränderungen sichtbar machen. Allerdings bleiben noch verschiedene Fragen offen (und späteren Analyseschritten vorbehalten), die insbesondere diejenigen Faktoren betreffen, die den Wandel beziehungsweise die Stabilität der Nutzungsweisen bestimmen. Hier ist beispielsweise an das Alter des Weblogs zu denken, in dem sich auch die Erfahrung des Nutzers mit dem immer noch relativ neuen Kommunikationsformat ausdrückt. So erscheint es plausibel, dass zu Beginn der individuellen Aneignung eine Art "Experimentierphase" stattfindet, in der die Eignung von Weblogs für die individuellen kommunikativen Ziele geprüft wird. Demnach müsste sich bei relativ jungen Weblogs eine höhere "Volatilität" in den Praktiken nachweisen lassen, als bei denjenigen Angeboten, die zum Zeitpunkt der ersten Welle schon etabliert waren.
Stabilität und Wandel von Weblog-Praktiken
59
Denkbar sind aber auch weitere Einflussfaktoren; neben soziodemographischen Merkmalen (insbesondere dem Geschlecht) sind möglicherweise auch unterschiedliche Motive und inhaltliche Präferenzen der Autoren dafür verantwortlich, ob sich beispielsweise ihre sozialen Netzwerke vergrößern oder vergleichsweise stabil bleiben. Idealerweise lässt sich die Befragung, die diesem Beitrag zugrunde liegt, in regelmäßigen Abständen wiederholen. Dadurch könnten weitere wertvolle Erkenntnisse gewonnen werden, wie die Verbreitung und Institutionalisierung eines neuen Formats der computervermittelten Kommunikation vonstatten geht.
Literatur Abold, Roland (2006): The Audience is listening – Nutzung und Akzeptanz von Weblogs im Bundestagswahlkampf 2005. Online-Publikation: http://www.soz.uni-frankfurt.de/K.G/B1_ 2006_Abold.pdf. In: kommunikation@gesellschaft 7.1. Giddens, Anthony (1988): Die Konstitution der Gesellschaft. Frankfurt/New York: Campus. Grossman, Lev (2006): Time's Person of the Year: You (http://www.time.com/time/magazine/ article/0,9171,1569514,00.html). In: TIME (13.12.2006). Harders, Cilja/Hesse, Franka: Geschlechterverhältnisse in der Blogosphäre (2006): Die Bedeutung der Kategorie Geschlecht für die Verwirklichung von Teilhabechancen durch neue Medien. In: femina politica 10.2. 90-101. Herring, Susan C./Kouper, Inna/Scheidt, Lois A./Wright, Elijah (2004): Women and children last: The discursive construction of weblogs - Into the Blogosphere. Rhetoric, Community, and Culture of Weblogs. In: Gurak, Laura; Antonijevic, Smiljana; Johnson, Laurie; Ratliff, Clancy; Reyman, Jessica (Hrsg.): Into the Blogosphere. Rhetoric, Community, and Culture of Weblogs. Online: http://blog.lib.umn.edu/blogosphere/women_and_children.html. Herring, Susan C./Paolillo, John (2006): Gender and genre variation in weblogs. In: Journal of Sociolinguistics 10.4.439-459. Herring, Susan C./Scheidt, Lois A./Bonus, Sabrina/Wright, Elijah (2005): Weblogs as a bridging genre. In: Information, Technology & People 218.142. 171. Kunz, Frederik (2006): Weblogs als öffentliche Kommunikation. Eine Untersuchung der inhaltlichen und formalen Merkmale von Weblogs und eine Typologie ihrer Kommunikatoren. Diplomarbeit am Institut für Journalistik und Kommunikationsforschung der Hochschule für Musik und Theater Hannover. Online: http://blog.bloggerstudie.de/ fulltext/Weblogs_als_oeffentliche_Kommunikation.pdf. Schmidt, Jan (2006a): Social Software. Onlinegestütztes Informations-, Identitäts- und Beziehungsmanagement. In: Forschungsjournal Neue Soziale Bewegungen 19.2. 37-47. Schmidt, Jan (2006b): Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK.
60
Jan Schmidt
Schmidt, J./Paetzolt, M./Wilbers, M. (2006): Stabilität und Dynamik von Weblog-Praktiken. Ergebnisse der Nachbefragung zur "Wie ich blogge?!"-Umfrage, Berichte der Forschungsstelle "Neue Kommunikationsmedien", Nr. 06-03. Bamberg: Forschungsstelle "Neue Kommunikationsmedien" an der Universität Bamberg. Schmidt, J./Wilbers, M. (2006): Wie ich blogge?! Erste Ergebnisse der Weblogbefragung 2005, Berichte der Forschungsstelle "Neue Kommunikationsmedien", Nr. 06-01. Bamberg: Forschungsstelle "Neue Kommunikationsmedien" an der Universität Bamberg. Tremayne, Mark/Zheng, Nan/Lee, Jae K./Jeong, Jaekwan (2006): Issue publics on the web: Applying network theory to the war blogosphere. In: Journal of Computer-Mediated Communication 12.1.
Sechs Podcast-Sendetypen und ihre theoretische Verortung Dennis Mocigemba
Podcasting ist innerhalb kürzester Zeit aus einer Internet-Nische in die öffentliche Diskussion und das öffentliche Bewusstsein vorgedrungen. Doch was genau heißt Podcasting? Was bewegt Menschen, sich per Podcast im Internet zu exponieren? Im Folgenden werden die Funktionen diskutiert, die Podcasting auf individueller Ebene für den privaten Sender erfüllt. Dabei geht es vornehmlich um Sendepraktiken, Motive, Qualitätsansprüche und soziale Interaktionen von Podcastern. Auf eine explorativ-qualitativ ausgerichtete Studie unter privat produzierenden deutschen Podcastern rekurrierend, werden sechs PodcastSendetypen kurz skizziert und im Rahmen medien- und kommunikationswissenschaftlicher Ansätze theoretisch verortet.
Was ist Podcasting? Der Begriff Podcasting ist ein Neologismus, der 2005 vom New Oxford American Dictionary zum Wort des Jahres gekürt wurde. Der Begriff verweist einerseits auf den iPod, Apples beliebten MP3-Player, andererseits auf Broadcasting, also Rundfunk. Ein Podcast ist demzufolge eine Art Rundfunkbeitrag für den iPod, eine Definition, die in dreierlei Hinsicht irreführend ist: Erstens können Podcasts nicht nur mit mobilen Abspielgeräten rezipiert werden. Marktstudien deuten sogar darauf hin, dass Podcasts viel seltener als erwartet unterwegs angehört werden. Zweitens ist Podcasting heute kein vorwiegend von Apple oder Apple-Nutzern getragenes Phänomen mehr. Drittens sind Podcasts anders als klassische Rundfunkbeiträge nicht per se darauf ausgelegt, ein möglichst großes Publikum zu erreichen (Löser/Peters 2006: 143). Viele Podcasts sind vielmehr bewusst für die Nische oder den Long Tail (Shirky 2003) konzipiert und legen größeren Wert auf eine kleine, integrierte Community von Hörern als auf eine große Reichweite. Zwar sind sowohl der Begriff als auch das Phänomen des Podcasting erst drei Jahre jung, doch wird schon jetzt über die Entstehungsgeschichte von beiden kontrovers diskutiert: Mit Blick auf die technischen Grundlagen wird man die Geschichte des Podcasting mit Tristan Louis (Idee zur Erweiterung von RSS
62
Dennis Mocigemba
im Oktober 2000) und Dave Winer (technische Implementierung im Januar 2001) beginnen und es als Spielart des Weblogging wahrnehmen. Versteht man Podcasting eher als sozio-kulturelles Phänomen, dürfte die Geschichte bei Ben Hammersley (Begriffsprägung im Februar 2004) und Adam Curry (Podcastpionier) anfangen und Podcasting als eigenständiges Phänomen beschreiben. Bemerkenswert am Phänomen Podcasting ist in jedem Fall die Geschwindigkeit, mit der es aus einer Internet-Nische ins Bewusstsein einer breiten Öffentlichkeit vordrang: Brachte eine Google-Suche nach dem Begriff podcasts im September 2004 (einen Monat nach Adam Curry's erstem Daily Source Code) gerade einmal 24 Treffer, waren es knapp vier Monate später, im Januar 2005, bereits 115 Millionen (Vogele et al. 2006: 27). Der amerikanische HostingService Feedburner beheimatete zu jener Zeit nicht mehr als 1.090 Podcasts, im August 2005 waren es 13.000 (Crofts et al. 2005), Ende Januar 2007 bereits über 85.000. In Deutschland sind die Zahlen deutlich niedriger, folgen aber demselben Trend: Das deutsche Podcastportal Podster.de registrierte im Juni 2005 170 eingetragene Angebote. Im Dezember 2005 waren es über 1.000, Ende Januar 2007 3.500. Seine bemerkenswerte Verbreitungsgeschwindigkeit wird oft damit erklärt, dass Podcasting anders als Weblogging bereits sehr früh mit kommerziellen Chancen assoziiert (Chen 2005; Wunschel 2006: 165ff) und von etablierten Medienproduzenten als Zweitverwertungskanal entdeckt wurde. Es ist deshalb auch nicht verwunderlich, dass Podcastpublika vermehrt Gegenstand von Marktforschungsstudien werden. In regelmäßigen Abständen liefert etwa die Podcastumfrage Orientierungsdaten über die Zusammensetzung der deutschen Podcasthörer. Tenor der ersten beiden Erhebungswellen war, dass die Hörerschaft von gut gebildeten, vergleichsweise gut verdienenden Männern Ende 20, also den klassischen Early Adopters, dominiert wird (Wunschel 2006: 162), dass aber andere Gruppen zunehmend an Bedeutung gewinnen (Wunschel 2007).
Sechs Podcast-Sendetypen und ihre theoretische Verortung Auf unterschiedlichen Ebenen kann Podcasting verschiedene Funktionen erfüllen. Besonders rege werden üblicherweise die Funktionen eines Graswurzelmediums (Pleil 2006: 173) wie Podcasting für das System der Massenmedien (Mocigemba 2007) oder für Zivilgesellschaft und das politische System (Mocigemba 2007/submitted) diskutiert. Im Folgenden interessiert jedoch ausschließlich, welche Funktionen die Praxis des Podcasting für den individuellen, privaten Sender zu erfüllen vermag. Diese Funktionen explorativ zu untersuchen, war
Sechs Podcast-Sendetypen und ihre theoretische Verortung
63
das Ziel einer Studie unter privat produzierenden Podcastern (Mocigemba 2006). Im Rahmen dieser Studie wurden 19 Leitfadeninterviews mit privat produzierenden, deutschsprachigen Podcastern geführt. Auf Basis der drei in den Interviews angesprochenen Dimensionen Podcast-Motivation und -Ziel, Qualitätsanspruch und soziale Interaktion mit Hörern und anderen Podcastern wurden aus den Interviews sechs Sendemodi extrahiert und idealtypisch beschrieben. Diese Typen werden in den folgenden Abschnitten eingangs jeweils kurz skizziert, das Hauptaugenmerk gilt aber ihrer theoretischen Verortung und damit der Greifbarkeit des vielschichtigen Phänomens Podcasting für die Medien- und Kommunikationswissenschaft.
Explorer – Medienkompetenz und Empowerment Dem Explorer geht es darum, das neue Medium Podcasting kennenzulernen und auszuprobieren. Das Thema der Show ist zunächst zweitrangig oder muss im Prozess des Sendens oft erst mühsam erarbeitet werden. Es geht vornehmlich um die Praxis des Sendens selbst. Wichtigster Qualitätsanspruch ist eine technische Grundfunktionalität (abonnierbarer RSS-Feed, funktionierende Blogpage). Die Interaktion mit Hörern ist für den Explorer eher eine Überraschung als eine Erwartung, jene mit anderen Podcastern hingegen ist grundlegend, um bestimmtes technisches Know-how zu erlangen. Die meisten der interviewten Podcaster begannen im Explorer-Modus zu podcasten. Dementsprechend ist der Typ des Explorers eine Art Katalysator: Wer Podcasting und die Technik dahinter ausreichend exploriert hat, entwickelt entweder eine weiterführende Motivation zum Senden oder hört auf zu podcasten, auch Podfading genannt. Die Beschreibung des Explorers betont einen Aspekt des Podcasting, der vor allem für die Medienpädagogik von Interesse sein dürfte. Sie stellt den intrinsisch, von einem Wissensdurst angetriebenen Nutzer in den Mittelpunkt, der sich durch eine hands-on-imperative und learning by doing praktische Fähigkeiten aneignet. Podcasting bezeichnet aus dieser Perspektive ein Lernmedium oder einen Lernprozess zur Aneignung von Medienkompetenz. Medienkompetenz löst zunehmend Medienzugang als Dimension ab, entlang der sich digitale Spaltung manifestiert (Korupp et al. 2006). Es wäre eine lohnende Aufgabe, die durch den Explorer vollzogene Aneignung von Medienkompetenz oder Domestizierung neuer Technik empirisch ausführlicher zu untersuchen, um a) festzustellen, ob diese als Empowerment im Sinne von Rappaport (1987) verstanden werden kann und b) um Rückschlüsse auf die Gültigkeit etablierter Vermittlungsansätze der Medienpädagogik (z.B. konstruktivistische Lerntheorie) ziehen zu können. Verschiedene Jugend-Projekte (z.B. Jugend online) folgen diesem
64
Dennis Mocigemba
Ansatz. Sie nutzen die große Verbreitung und Akzeptanz neuer Informationsund Kommunikationstechnologie (iPod, Foto-Handy) unter Jugendlichen, um diese zu motivieren, sich z.B. via Podcasting grundlegende Medienkompetenzen (aggregieren, selektieren, validieren, publizieren von Information) anzueignen. Projekte dieser Art stehen in der Tradition der bereits in den 1980er Jahren betriebenen Video- und Radioarbeit mit Jugendlichen (z.B. Just Think). Forschung zu Volunteerism (Clary et al. 1998), zu Partizipation in Open Source-Projekten (Hertel et al. 2003) oder Wikipedia (Schroer/Hertel 2007) betonen ebenfalls die Bedeutung der persönlichen Weiterbildung und Fähigkeitsaneignung als Faktoren, die sowohl die Wahrscheinlichkeit der Teilnahme als auch der Zufriedenheit während der Beteiligung positiv beeinflussen. Es wäre ferner interessant zu untersuchen, ob via Podcasting neben einer explorativen Aneignung von Medienkompetenz auch eine inhaltliche Fokussierung stattfinden kann, ob bzw. unter welchen Voraussetzungen Podcasting im Sinne eines selbstgesteuerten Lernprozesses eine motiviertere, tiefgreifendere und nachhaltigere Auseinandersetzung mit weniger beliebten Themen eines Curriculums anzuregen vermag als herkömmliche Vermittlungstechniken.
ThemeCaster – Bürgerjournalismus und Qualitätssicherung Der Sendemodus des ThemeCasters, der dem klassischen Journalismus sehr verwandt ist, ist geprägt durch eine starke Themenorientierung. Der ThemeCaster verfügt über fachlichen Expertise, oft aus einem durch die Massenmedien nicht erschöpfend abgedeckten Themenfeld. Dieses Wissen will er seinen Hörern verfügbar machen. Sein Podcast soll in erster Linie einen Nutzwert für den Hörer haben. Inhaltliche Korrektheit, Aktualität und Verständlichkeit seines Podcasts sind die angestrebten Qualitäten. Die Aufmerksamkeit und das Interesse seiner Hörer nimmt der ThemeCaster als Verpflichtung wahr, ihnen regelmäßig neue Inhalte zu liefern. Die Beschreibung des ThemeCasters betont den Aspekt des Phänomens Podcasting, der in der öffentlichen Debatte wohl am meisten Aufmerksamkeit bekommt. Zwei Schlagworte in der vor allem für die Publizistik und Journalistik interessanten Diskussion sind Bürgerjournalismus und Qualitätssicherung. Auf Brechts Vision eines Kommunikationsapparats (Brecht 1932/1972) rekurrierend, wird die "Ich bin der Sender"- oder "We the media"-Idee (Gillmor 2004; van Aaken 2005) betont und Podcasting als Open Source Radio oder Offener Kanal reloaded (Pleil 2006: 177) dargestellt. Tatsächlich überwindet Podcasting als besseres Bürgermedium drei strukturelle Limitierungen Offener Kanäle: a) Begrenzung der verfügbaren Sendefrequenzen, b) Begrenzung durch bürokrati-
Sechs Podcast-Sendetypen und ihre theoretische Verortung
65
sche Kapazitäten der Landesmedienanstalten und c) Konzentration auf Ballungsgebiete (Pleil 2006: 177). Es gibt mittlerweile einige Podcaster, deren authentische Berichterstattung von den etablierten Massenmedien begierig aufgegriffen wurde, etwa Pater Rodericks Berichterstattung vom Petersplatz in Rom während der Papstwahl im April 2005, Roger Levys Berichterstattung aus dem überschwemmten Luzern im Sommer 2005 oder Markus Beckedahls Interviews vom Weltgipfel der Informationsgesellschaft in Tunis Ende 2005. Geschätzt werden derartige Berichte vor allem, weil sie unkonventionell und authentisch wirken. Geringe Professionalität in Sachen Gestaltung (Sprecher, Schnitt, Tonqualität) werden hier eher als Stärke denn als Schwäche verstanden. Vermehrt versuchen etablierte Medienproduzenten, solchen User Generated Content systematisch in ihr Programm einzubinden. Was einst mit lustigen Homevideos begann, findet in experimentell-künstlerischen Beiträgen (z.B. Blogspiel des Deutschlandradio Kultur) seine Fortsetzung. In den USA werden mittlerweile ganze Radio- (z.B. auf Sirius Satellite Radio) und Fernsehprogramme (z.B. Current.tv) von Podcastern und Hobbyisten gestaltet. Allerdings werden nur Technikdetermisten bereits hierin die Realisierung der Brecht'schen Vision von der Transformation des passiven Rezipienten zum aktiven Sender oder gar Bürger sehen. Zu rar sind die genannten Beispiele und zu schnell werden die erfolgreichen, neuen Bürgerjournalisten in das Mediensystem integriert und den dort geltenden Logiken unterworfen. Laut Niemann (2006) verfügen nur wenige Podcaster bereits zu Beginn ihrer Podcasting-Aktivität über professionelle Publikations- und Sendeerfahrung. Unter 1454 befragten deutsch- und englischsprachigen Podcastern gaben immerhin rund 80% an, weder Studium oder Ausbildung im Bereich Medien/PR absolviert zu haben noch jemals für Radio oder Fernsehen tätig gewesen zu sein (Niemann 2006: 85). Zu einem gewissen Grad transformiert Podcasting offenbar tatsächlich eine breite Masse vormals passiver Rezipienten zu aktiven Produzenten. Der Vergleich zu Brechts Vision eines Kommunikationsapparats ist folglich nicht gänzlich absurd, Podcasting ist offenbar tatsächlich mehr als nur eine Spielwiese im Hinterhof der etablierten Medienanbieter, auf der deren experimentierfreudige Angestellte die Restriktionen ihrer alltäglichen Arbeit überwinden und neue Ideen ausprobieren können. Journalisten kritisieren an privat produzierten Podcasts häufig die mangelnde Qualitätssicherung, da Podcasts nicht den Prozess redaktioneller Kontrolle durchlaufen. Podcaster relativieren diesen Einspruch und argumentieren, die Qualitätskontrolle fände post hoc durch die Hörer statt, ihr Beitrag sei demnach kein Endprodukt, sondern eher ein Diskussionsbeitrag, ein work in progress. Ein Blick in die Weblog-Foren selbst erfolgreicher deutschsprachiger Podcasts zeigt, dass inhaltliche Korrektur und Kommentierung durch Hörer und kritische,
66
Dennis Mocigemba
diskursive Auseinandersetzung unter diesen eher die Ausnahme als die Regel darstellt. Eine empirische Untersuchung und Quantifizierung kollektiver Qualitätssicherungsprozesse im Podcasting ist sicherlich eine lohnende Aufgabe. Doch sollte die Frage nach Qualitätssicherung im Podcasting nicht überbewertet werden. Wer die Beschreibung des ThemeCasters überbetont und Podcasting vornehmlich als Spielart des Journalismus begreift, reduziert das Phänomen auf einen Teilbereich. Den meisten Podcast-Angeboten wird man damit kaum gerecht werden, da sie, selbst wenn sie in einem quasi-öffentlichen Raum stattfinden, besser als interpersonale Kommunikation zu verstehen sind.
Rebel – Podcasting als politische Aktivität und Protest Der Rebel versteht Podcasting in erster Linie als politische Aktivität und als Protest. Wie in einer virtuellen Speaker's Corner bietet Podcasting ihm die Möglichkeit, auch randständige Themen oder nicht mehrheitsfähige Ansichten öffentlich zu äußern und zu diskutieren oder offen gegen etablierte Medien-, Musik- oder Werbeindustrie zu rebellieren. Qualitätsvorstellungen werden hier oft nicht positiv, sondern als Negation des Kontrahenten definiert: Es geht vor allem darum, es anders zu machen als die etablierten Medien. Der Rebel identifiziert sich stark mit der Podcastbewegung und der "Ich bin der Sender"Graswurzelidee des Podcasting. Soziale Beziehungen zu Hörern und anderen Podcastern sind für den Rebel essentiell, weil sie helfen, die gemeinsame Idee und Bewegung zu stärken. Podcasting erfüllt für den Rebel die Funktion, die eigenen Wertvorstellungen zu artikulieren und eine auf geteilten Werten basierende Gemeinschaft zu integrieren. Die Nutzung von Podcasts als Kanal der Zweitverwertung durch etablierte Medienanbieter ist dem Rebel ein Dorn im Auge, weil er hierin eine Verschmutzung der Idee des Piratenradios sieht. Der Wunsch nach Distinktion ist eine zentrale Motivation des Rebels. Diese schlägt sich sowohl in der Wahl des Mediums Podcasting als auch in der bewusst andersartigen, teilweise gewollt unprofessionellen Darbietung von Inhalten nieder. Die Betonung der Graswurzelidee und die Verwendung politisch konnotierter Begriffe bei der Beschreibung des Phänomens Podcasting deuten darauf hin, dass der Rebel das Medium nicht allein aufgrund seiner Eignung für den Kommunikationsanlass auswählt, sondern ihm eine symbolische Bedeutung zuschreibt, die als eine Art Meta-Botschaft (Misoch 2006: 108) mitkommuniziert werden soll. Mit Blick auf die Sendepraxis des Rebels ist Podcasting für die Kommunikationswissenschaft in erster Linie für Modelle der symbolischen Medienwahl (Trevino et al. 1987) interessant. Es wäre eine lohnende Aufgabe empirisch zu untersuchen, ob a) die symbolische Aufladung des Konstrukts
Sechs Podcast-Sendetypen und ihre theoretische Verortung
67
Podcasting durch den Rebel über dessen Sendung an den Rezipienten vermittelt und somit reproduziert werden kann und b) eine korrespondierende symbolische Aufladung auf Seiten des Hörers die Voraussetzung für das Gelingen der Kommunikation und die Akzeptanz des Angebots darstellt. Der Rebel rückt Podcasting in ein politisches Licht und begreift sein Senden als politische Aktivität. Beliebt ist etwa die Beschreibung von Podcasting als virtueller Speaker's Corner, in der der Podcaster politische, oft medienpolitische Ansichten artikuliert in der Hoffnung andere zu überzeugen, zu aktivieren oder einfach nur in Diskurs mit diesen zu treten. Auch wenn Podcasting mittlerweile von der Bundeskanzlerin, verschiedenen Spitzenpolitikern, Parteien, Jugendorganisationen der Parteien, NGOs und auch einigen durchaus randständigen politischen Organisationen genutzt wird, muss man die deutsche Podosphäre derzeit als eher unpolitisch bezeichnen, selbst wenn man mit dem Rebel bereits die Wahl des Mediums symbolisch als politische Stellungnahme begreift. Es mag dennoch lohnend sein, sich politische Kommunikation und politische Diskurse in der Podosphäre, wo sie denn stattfinden, genauer anzuschauen und mit der bereits gut analysierten, textbasierten politischen Kommunikation in der Blogosphäre (Abold 2006; Grunwald et al. 2006; Schmidt 2006) zu vergleichen. Dem Social Cues Filtered Out-Paradigma (Kiesler et al. 1984) folgend, wäre zu erwarten, dass politische Meinungsäußerung in der Podosphäre gemäßigter geübt wird und Diskurse weniger polemisch-konfrontativ ablaufen. Indem es auditive und teilweise gar audio-visuelle Informationen liefert, unterscheidet sich Podcasting von textbasierter Weblog-Kommunikation in erster Linie durch eine größere Bandbreite an sozialen Hinweisreizen (social cues), die der Sender, und u.U. der via Audio-Kommentar respondierende Rezipient ausstrahlen. Verschiedene Studien (Dubrovsky et al. 1991; Siegel et al. 1986) stützen die These, dass das Vorhandensein sozialer Hinweisreize antisoziales, ungehemmtes Verhalten, so genanntes Flaming, reduziert. Inwieweit dies auf politische Kommunikation in der Podosphäre im Vergleich zur Blogosphäre zutrifft, ist eine empirische Frage. Leggewie (2006) hat in Frage gestellt, dass in einem linearen Format wie einem Weblog-Forum überhaupt politischer Diskurs stattfinden kann. Da Kommunikation im Podcasting über Blogpages oder über Audio-Kommentare in einem ebenfalls linear zu rezipierenden Format (einem Audio-Beitrag) abläuft, lässt sich diese Kritik uneingeschränkt auf Podcasting übertragen. Leggewie schlägt als mögliche Lösung die Verwendung von Wikis vor. Es dürfte eine interessante Aufgabe sein, beide Feedback-Varianten an einem geeigneten Angebot experimentell auf ihre Diskurstauglichkeit zu untersuchen. Die Antwort auf die Diskurstauglichkeit der unterschiedlichen Kommunikationsformen dürf-
68
Dennis Mocigemba
te auch Aufschluss darüber geben, inwieweit das Podcasting des Rebel als bürgerschaftliches Engagement verstanden werden kann.
Personality Prototyper – Podcasting als Identity Workshop Für den Personality Prototyper erfüllt Podcasting vor allem die in Hinblick auf computervermittelte Kommunikation und Social Software häufig diskutierte Funktion des Identitätsmanagements (Schmidt 2006: 70). Der Personality Prototyper begreift Podcasting als Bühne, auf der er sich selbst in unterschiedlichen Rollen (z.B. als Nachrichtensprecher, DJ, Comedian) ausprobieren und seine Wirkung auf ein echtes Publikum testen kann. In einer Art iterativen Prototyping-Prozess werden auf diese Art neue Facetten des Selbst und neue Erkenntnisse über die eigene Persönlichkeit erworben. Die wichtigste Qualität seines Podcasts sieht der Personality Prototyper in einer regen Interaktion mit den Hörern, die ihm Feedback auf seine Darbietung und somit sein Rollenspiel liefern. Sherry Turkle (1995) hat mit Ihren MUD-Studien als erste auf das identitätsbildende Moment computervermittelter Kommunikation hingewiesen und den Begriff der Virtual Identity geprägt. Ihr Ansatz basiert auf dem Social Cues Filtered Out-Paradigma und der Feststellung, dass computervermittelte Kommunikation zumeist kanalreduziert, in ihrem Fall ausschließlich textbasiert stattfindet. Soziale Hinweisreize vor allem non-verbaler Art werden auf diese Weise herausgefiltert. Dem Sender beschert diese Kanalreduktion einen Kontrollgewinn. Er kann sichergehen, nur die Informationen über die eigene Person zu verbreiten, die er aussenden möchte, andere Informationen zu verheimlichen oder gar zu verfälschen und sich auf diese Weise einseitiger bzw. prägnanter und konsistenter darzustellen oder gar völlig neu zu erfinden. Goffman (1959/2001), der soziale Interaktion mit der Metapher des Bühnenspiels beschreibt, unterscheidet zwei Arten der Zeichengebung, die in Kommunikationssituationen relevant sind: a) den Ausdruck, den man sich gibt (expressions given) und b) den Ausdruck, den man (unbewusst/ in den Augen des Gegenübers) ausstrahlt (expressions given off). Vor allem die expressions given off, die dem Kommunikationspartner dazu dienen, die "Echtheit" der expressions given zu überprüfen, lassen sich in computervermittelten Kommunikationssituationen besser kontrollieren und mit ihnen das eigene Bühnenspiel und die Selbstdarstellung. Podcasting ist eine spezielle Form der computervermittelten Kommunikation, weil es mit flexiblen Filtern arbeitet. Da nicht nur textuelle, sondern auch auditive, oder gar audio-visuelle Informationen übermittelt werden, besteht für den Sender eine erhöhte Gefahr, unbewusst expressions given off (Verspre-
Sechs Podcast-Sendetypen und ihre theoretische Verortung
69
cher, Stottern, falsche Aussprache etc.) auszusenden und damit die eigene Darstellung zu diskreditieren. Dieser Gefahr begegnen Podcaster dadurch, dass sie ihre Darstellung oft sequentiell erbringen, dabei ihre Rolle einüben und die besten Sequenzen schließlich zusammenschneiden und veröffentlichen. Es ist nicht verwunderlich, dass unter den interviewten Podcastern dieses Typs der Wunsch vorherrschte, den eigenen Podcast am Stück zu produzieren, d.h. die angenommene Rolle für die Dauer der Sendung konsistent durchzuhalten. In der Debatte über Identitätsmanagement in computervermittelter Kommunikation genießen Phänomene wie Fake-identities oder Genderswitching (Misoch 2006: 117) besondere Aufmerksamkeit, also Phänomene, in denen die Kanalreduktion des Kommunikationsmediums gezielt zur vollständigen Neuerfindung oder Verfälschung der eigenen Identität genutzt wird. Unter den interviewten Podcastern dieses Typs dominierten jedoch weniger extreme Fälle. Verschiedene Podcaster nutzten ihre Sendung gezielt, um bestimmte Aspekte der eigenen Persönlichkeit kennenzulernen und somit eigene Fähigkeiten und Potenziale zu explorieren. Podcasting ist mit Fokus auf den Typen des Personality Prototypers weniger als Medium der eigenen, virtuellen Neuerschaffung denn vielmehr als Kanal der iterativen Erweiterung und Exploration eigener Potenziale und folglich als eine Art Identity Workshop (Bruckmann 1992) zu verstehen. Doch ist das Phänomen Podcasting mit Blick auf den Personality Prototyper nicht nur für die Debatte um Identität und Online-Kommunikation von Interesse, sondern auch für die klassische Rezeptionsforschung. Es sind vielfach Podcaster dieses Typs, die mit ihren Sendungen erstaunlich große Publika erreichen und sich diesen Erfolg mit der großen Nähe und persönlichen Ansprache ihrer Hörer erklären, denen sie "direkt im Ohr sitzen". Es ist sicherlich eine lohnende Aufgabe, das Konstrukt der Parasozialen Interaktion und Parasozialen Beziehung (Horton/Wohl 1956; Vorderer 1996) heranzuziehen, um a) die Beliebtheit bestimmter privater Podcastangebote zu erklären und b) den Übergang parasozialer Interaktion zu tatsächlicher Interaktion im Sinne von Feedback des Hörers an den Podcaster zu untersuchen.
Social Capitalist – Podcasting zur Kapitalakkumulation Der Social Capitalist betreibt Podcasting in erster Linie, um neue, interessante Menschen kennenzulernen oder alte Bekanntschaften wieder zu beleben, kurzum: um gezielt Sozialkapital zu akkumulieren. Es kann sich dabei um andere Podcaster, Hörer oder die Gäste und Interviewpartner seiner Sendung handeln. Die wichtigste Qualität des eigenen Podcasts wird darin gesehen, dass dieser
70
Dennis Mocigemba
interessante Kommunikationssituationen provoziert und die angestrebten Kontakte ermöglicht. Die Beschreibung des Social Capitalist betont einen Aspekt des Phänomens Podcasting, der vor allem für die soziologisch und ökonomisch motivierte Medienforschung von Interesse sein dürfte. Die Entstehung und Wirkung sozialer Netzwerke ist im Kontext computervermittelter Kommunikation und neuer Informations- und Kommunikationstechnologien ein beliebtes Forschungsgebiet (Rheingold 2002). Auch Podcasting stellt einen Kommunikationskanal dar, über den Hörer und Sender gezielt Beziehungsmanagement betreiben. Die verschiedenartigen sozialen Beziehungsgeflechte in der Podosphäre mit Methoden z.B. der Sozialen Netzwerkanalyse zu untersuchen, etwa auf strukturelle Äquivalenz zu Netzwerken in den klassischen Medien, dürfte eine lohnende Aufgabe darstellen. Unter Rückgriff auf Modelle wie etwa Two-Step-Flow of Communication dürfte die Diffusion von Informationen innerhalb der Podosphäre von erhöhtem Interesse sein. Da Podcasting, wie eingangs angedeutet, schon sehr früh mit kommerziellen Chancen und unterschiedlichen Geschäftsmodellen assoziiert wurde, dürfte eine Untersuchung der Transformierbarkeit des via Podcasting akkumulierten Sozialkapitals in ökonomische Chancen von gesteigertem Interesse sein. In diesem Zusammenhang und vor allem mit Blick auf die im Dunstkreis des Podcasting entstandene alternative Musikindustrie (z.B. Podsafe Music Network) dürfte auch die Frage interessant sein, inwieweit Podcasting als social production im Sinne Benklers (2006) verstanden werden kann und wann Podcasts als "diverse social actions can turn into an important modality of economic production" (Benkler 2006: 98).
Social Gambler – Podcasting als virtuelles Spiel Der Social Gambler ist zwischen Personality Prototyper und Social Capitalist angesiedelt. Für ihn ist der Podcast eine Art Stimulus in einem Feldexperiment mit anderen, in dem er eruiert, wie weit er mit den Hörern gehen kann. Auch für ihn ist die interessante Kommunikationssituation das zentrale Qualitätsmerkmal seines Podcasts. Anders als beim Social Capitalist sind die vornehmlich virtuellen sozialen Interaktionen des Social Gamblers zeitlich nicht stabil. Es geht ihm nicht darum, dauerhafte, tragfähige Beziehungen aufzubauen. Der Social Gambler dürfte der in der deutschen Podosphäre am wenigsten verbreitete Typ sein. Von den anderen Typen unterscheidet sich der Social Gambler in erster Linie dadurch, dass Podcasting für ihn vorwiegend ein virtuelles Phänomen ist, das er strikt von seinem Offline-Leben trennt. Er strebt weder nach praktischen
Sechs Podcast-Sendetypen und ihre theoretische Verortung
71
Fähigkeiten, persönlichen Einsichten oder sozialen Kontakten, die ihm außerhalb des Podcasting nützlich sein könnten, noch verfolgt er politische Ziele oder versucht seine Expertise oder Meinung weiterzugeben. Dennoch wird man dem Social Gambler nicht gerecht, wenn man sein Podcasting in erster Linie als zynisches, anti-soziales Verhalten einstuft. Ähnlich wie beim Personality Prototyper ist Podcasting für den Social Gambler eine Art Spiel oder Schauspiel, in dem es ihm jedoch nicht darum geht, die eigene Rolle zu perfektionieren. Vielmehr empfindet er es als unterhaltsam seine Mitspieler (Hörer, Kommentatoren) zu unerwarteten Handlungen zu animieren. Selbst wenn es sich bei diesen um echte Personen handelt, reduziert der Social Gambler sie zu fiktiven Charaktere eines Onlinerspiels. Überhaupt dürfte das Podcasten des Social Gambler am ehesten mit Ansätzen aus der Forschung zu Computerspielen beschreibbar sein.
Fazit Wie die sechs idealtypisch beschriebenen Sendemodi verdeutlichen, ist Podcasting ein vielschichtiges Phänomen, dessen Untersuchung eine Vielzahl von theoretischen Zugängen erlaubt. Es wurden mit der vorgestellten Typologie sechs Blickwinkel auf das Phänomen Podcasting vorgeschlagen, die a) unterschiedliche theoretische Klassifizierungen des Phänomens erlauben und b) die Untersuchung sehr verschiedener Fragestellungen nahe legen. Ziel der Ausführung war es, Podcasting als Kommunikationsphänomen vorzustellen und für die empirische Kommunikations- und Medienwissenschaft greifbar zu machen.
Literatur Abold, Roland (2006): The Audience is listening – Nutzung und Akzeptanz von Weblogs im Bundestagswahlkampf 2005. Online-Publikation: http://www.soz.uni-frankfurt.de/K.G/ B1_2006_Abold.pdf. In: kommunikation@gesellschaft 7.1. Benkler, Yochai (2006): The Wealth of Networks. How Social Production Transforms Markets and Freedom. New Haven: Yale University Press. Brecht, Bertolt (1932/1972): Der Rundfunk als Kommunikationsapparat. In: Hecht (Hrsg.) (1932/1972). Bruckmann, Amy (1992): Identity Workshop: Emergent Social and Psychological Phenomena in Text-Based Virtual Reality. Online: ftp://ftp.cc.gatech.edu/pub/people/asb/papers/identityworkshop.rtf (abgerufen am: 08.02.2007). Chen, Peter (2005): A Production-Side Analysis of Podcasting and Videoblogging. Online: http://www.peterjohnchen.com/files/chenPodcastingVodcastingSurvey2005.pdf (abgerufen am: 08.02.2007).
72
Dennis Mocigemba
Clary, E. G./Snyder, M./Ridger, D./Copeland, J./Stukas, A. A./Haugen, J./Miene, P. (1998): Understanding and Assessing the Motivations of Volunteers: A Functional Approach. In: Journal of Personality and Social Psychology 74.6. 1516-1530. Crofts, Sheri/Dilley, John/Fox, Mark A./Retsema, Andrew/Williams, Bob (2005): Podcasting. A New Technology in Search of Viable Business Models. First Monday 10/9. Online: http://www.firstmonday.org/issues/issue10_9/crofts/ (abgerufen am: 08.02.2007). Diemand, Vanessa/Mangold, Michael/Weibel, Peter (Hrsg.) (2006): Weblogs, Podcasting und Videojournalismus. Neue Medien zwischen demokratischen und ökonomischen Potenzialen. Hannover: Heise Verlag. Dubrovsky, Vitaly J./Kiesler, S./Sethna, B. N. (1991): The Equalization Phenomenon: Status Effects in Computer-Mediated and Face-to-Face Decision Making Groups. In: Human Computer Interaction 6. 119-146. Gillmor, Dan (2004): We the Media. Grassroots Journalism by the People for the People. Sebastopol: O'Reilly. Goffman, Erving (1959/2001): Wir alle spielen Theater. Die Selbstdarstellung im Alltag. München: Piper. Grunwald, Armin/Banse, Gerhard/Coenen, Christopher (2006): Netzöffentlichkeit und digitale Demokratie. Tendenzen politischer Kommunikation im Internet. Berlin: Edition Sigma. Hecht, Werner (Hrsg.) (1932/1972): Bertolt Brecht – Über Kunst und Kultur. Hertel, Guido/Niedner, Sven/Herrmann, Stefanie (2003): Motivation of Software Developers in Open Source Projects: An Internet-Based Survey of Contributors to the Linux Kernel. In: Research Policy 32.7. 1159-1177. Horton, Donald/Wohl, R. R. (1956): Mass Communication and Para-Social Interaction. Observations on Intimacy at a Distance. In: Psychiatry 19. 215-229. Kiesler, Sara/Siegel, Jane/McGuire, Timothy W. (1984): Social Psychological Aspects of ComputerMediated Communication. In: American Psychologist 39. 1123-1134. Korupp, Sylvia E./Künemund, Harald/Schupp, Jürgen (2006): Digitale Spaltung in Deutschland: geringere Bildung – seltener am PC. In: DIW Wochenbericht 73/19. 289-294. Leggewie, Claus (2006): Rampensäue, bitte zurücktreten! Vom Blogger-Narzissmus zum Paradigma Kollaboration. In: Diemand et al. (Hrsg.) (2006): 42-57. Löser, Peter/Peters, Daniel (2006): Podcasting – Aus der Nische an die Öffentlichkeit. In: Diemand et al. (Hrsg.) (2006): 139-154. Misoch, Sabina (2006): Online-Kommunikation. Konstanz: UVK. Mocigemba, Dennis (2006): Warum sie selber senden: Eine Typologie von Sendemodi im Podcasting. Online-Publikation: http://www.soz.unifrankfurt.de/K.G/B3_2006 _Mocigemba.pdf. In: kommunikation@gesellschaft 7.3. Mocigemba, Dennis (2007/submitted): P4P – Podcasting for Participation. How Can Digital Grassroots Media Support Sustainable Development? Mocigemba, Dennis (2007): Podcasting und seine Funktionen für den privaten Sender und das Mediensystem. In: Journalistik Journal 10.1.
Sechs Podcast-Sendetypen und ihre theoretische Verortung
73
Niemann, P. (2006): Podcasting: Eine Revolution? Das Phänomen Podcasting aus medienwissenschaftlicher Sicht. Unveröffentlichte Magisterarbeit im Fach Medienwissenschaft an der Universität Trier. Trier: Universität Trier. Pleil, Thomas (2006): Podcasting – Offener Kanal reloaded oder nur ein neuer Vertriebskanal? In: Diemand et al. (Hrsg.) (2006): 173-192. Rappaport, Julian (1987): Terms of Empowerment/Exemplars of Prevention: Toward a Theory for Community Psychology. In: American Journal of Community Psychology 15.2. 121-148. Rheingold, Howard (2002): Smart Mobs. The Next Social Revolution. Transforming Cultures and Communities in the Age of Instant Access. Cambridge: Basic Books. Schmidt, Jan (2006): Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK. Schroer, Joachim/Hertel, Guido (2007): Voluntary Engagement in an Open Web-Based Encyclopedia: Wikipedians, and Why They Do It. Online: http://www.abo.psychologie.uniwuerzburg.de/virtualcollaboration/publications.php?action=view&id=44 (abgerufen am: 08.02.2007). Shirky, Clay (2003): Power Laws, Weblogs and Inequality. Online: http://www.shirky.com/ writings/powerlaw_weblog.html (abgerufen am: 08.02.2007). Siegel, Jane/Dubrovsky, Vitaly J./Kiesler, Sara/McGuire, Timothy W. (1986): Group Processes in Computer-Mediated Communication. In: Organizational Behavior and Human Decision Processes 37.2. 157-187. Trevino, Linda K./Engel, Robert H./Daft, Richard L. (1987): Media Symbolism, Media Richness and Media Choice in Organizations: A Symbolic Interactionist Perspective. In: Communication Research 19. 539-573. Turkle, Sherry (1995): Life on the Screen. Identity in the Age of the Internet. New York: Simon & Schuster. van Aaken, Gerrit (2005): Ich bin der Sender. Diplomarbeit an der Fachhochschule Mainz. Online: http://praegnanz.de/file_download/5 (abgerufen am: 08.02.2007). Vogele, Colette/Garlick, Mia/The Berkman Center (2006): Podcasting Legal Guide. Rules for the Revolution. Online: http://wiki.creativecommons.org/Podcasting_Legal_Guide (abgerufen am: 08.02.2007). Vorderer, Peter (1996): Fernsehen als Beziehungskiste. Parasoziale Beziehungen und Interaktionen mit TV-Personen. Opladen: Westdeutscher Verlag. Wunschel, Alexander (2006): Podcasting – Bestandsaufnahme aktueller Ansätze von BusinessModellen. In: Diemand et al. (Hrsg.) (2006): 155-172. Wunschel, Alexander (2007): Die deutschen Podcast-Hörer. Zusammenfassung der Ergebnisse der zweiten Podcast-Umfrage. Online: http://www.wunschel.net/podcast/Podcastumfrage_2006 _Ergebnisse.pdf (abgerufen am: 08.02.2007).
Aneignung, Nutzung und Wirkung von Onlinemedien
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste Werner Wirth, Thilo von Pape, Veronika Karnowski
Weitgehend unbeachtet von Medien und Wissenschaft hat die Mobilkommunikation in Deutschland im Herbst 2006 einen Meilenstein ihrer Entwicklung erreicht: Wie die Bundesnetzagentur (Bundesnetzagentur 2006) meldete, hat der Markt im dritten Quartal eine hundertprozentige Penetration erreicht - auf ca. 82 Millionen Deutsche kommen mehr als 83 Millionen Mobilfunkanschlüsse. Spätestens mit diesen Zahlen drängt sich die Frage auf, wie sich die Mobilkommunikation nun weiter entwickeln wird. Rein quantitativ betrachtet ist jenseits der 100%-Marke nur noch wenig Raum für Wachstum, denn ein Zweit- oder Drittanschluss wird wohl auch in Zukunft eher die Ausnahme bleiben. Die Dynamik des Mobilfunkmarktes ist aber ohnehin schon seit längerem nicht mehr an Nutzerzahlen allein zu messen. Zwar lässt sich deren bisherige Entwicklung fast exemplarisch durch eine s-förmige Diffusionskurve modellieren, aber damit unterschlägt man die zunehmende Bedeutung der qualitativen Dimension dieser Entwicklung. Vergleicht man etwa die ersten GSM-fähigen Geräte von 1992 mit einem heutigen Handy mit integrierter Kamera, BreitbandInternetanschluss und DVB-H-Empfang, so drängt sich die Frage auf, ob es sich überhaupt noch um dieselbe Innovation handelt. Zu den neuen technischen Funktionen kamen auch ungeahnte Anwendungen im Alltag hinzu, die das Mobiltelefon zum begehrten Mode-Accessoire, zu einer mobilen Spiel- und Unterhaltungsbox und zu einem multimedialen Beziehungsmanager machten (vgl. Katz/Sugiyama 2006; Licoppe/Inada 2006; von Pape et al. 2006). Diese neuen Nutzungsweisen sind das Objekt der Hoffnungen und Sorgen nicht nur der Mobilfunkbetreiber, die ihre Milliardeninvestitionen in UMTSLizenzen wieder einspielen möchten, sondern auch sozialer Beobachter, die die gesellschaftlichen Folgen der Innovation hinterfragen (Ling 2004). Bevor die Nutzungsweisen des Handys aber bewertet werden, stellt sich zunächst die Frage, wie sie überhaupt erst zustande kommen. Zwei Forschungsparadigmen befassen sich mit dieser Frage. Im Folgenden sollen diese Paradigmen in ihrer Gegensätzlichkeit und ihrer Komplementarität vorgestellt werden, um
78
Werner Wirth, Thilo von Pape, Veronika Karnowski
dann ein integratives Modell der Aneignung neuer Kommunikationsdienste zu entwickeln.
Zwei Paradigmen der weiteren Entwicklung technischer Innovationen Die Frage, wie sich eine Innovation weiterentwickelt, wenn sie einmal die Entwicklungslabors verlassen hat und in die Hände der Nutzer gelangt ist, wird aus zwei theoretisch und methodisch so grundlegend unterschiedlichen Perspektiven untersucht, dass man von zwei Paradigmen sprechen kann. Die Ausrichtungen beider Paradigmen lassen sich anhand der Phasen von Rogers' (2003) "Innovation-Decision-Process" unterscheiden: Während die Adoptionsentscheidung im Fokus des Adoptionsparadigmas liegt, ist die weitere Implementierung einer Innovation zentrales Interesse des Aneignungsparadigmas. Beide Paradigmen unterscheiden sich auch methodologisch; sie erweisen sich aber bei genauer Betrachtung als inhaltlich wie methodologisch komplementär.
Adoptionsparadigma Konstitutives Merkmal des Adoptionsparadigmas ist seit den ersten Diffusionsstudien die Dichotomie zwischen Adoption und Ablehnung einer Innovation. Diese Dichotomie erlaubt es, die Verbreitung einer Innovation innerhalb eines sozialen Systems anhand einer Diffusionskurve zu verfolgen und auf quantitative Art die für die Adoptionsentscheidung ausschlaggebenden Faktoren zu identifizieren. Ein großer Teil der Studien in dieser Tradition bedient sich einer klassischen Methodologie, die seit den ersten Diffusionsstudien nahezu unverändert blieb: "1) quantitative data, 2) concerning a single innovation, 3) collected from adopters, 4) at a single point in time, 5) after widespread diffusion had taken place" (Meyer 2004). Theoretisch lässt sich das Adoptionsparadigma durch zwei weitere Forschungstraditionen ergänzen: • Modelle aus der sozialpsychologischen Handlungstheorie erklären Adoption aus der Perspektive der potenziellen Nutzer. Hier sind vor allem die Theory of Planned Behavior (Ajzen 1985) und das Technology Acceptance Model (Davis 1986) zu nennen. Auf dieser Grundlage wurde eine große Anzahl an Studien zur Adoption und Diffusion neuer Kommunikationsdienste durchgeführt (vgl. u.a. Hung et al. 2003; Pedersen et al. 2002; Schenk et al. 1996). • Während TPB und TAM aus der Perspektive einzelner Nutzer heraus argumentieren, betrachtet soziale Netzwerkanalyse das Phänomen aus einem me-
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
79
sosozialen Blickwinkel heraus (Valente 2005): Wie beeinflusst die Struktur eines sozialen Systems die Diffusionsverläufe? Dieser Ansatz greift Gedanken aus den ersten Diffusionsstudien auf, in denen die Bedeutung von Meinungsführern untersucht wurde. Soziale Netzwerkanalyse geht aber theoretisch und methodisch darüber hinaus, indem sie über ein ganzes Netzwerk hinweg etwa beobachtet, wie sich adoptionsentscheidende Normen verbreiten (Kincaid 2004). Indem diese Ansätze stets die Dichotomie zwischen Adoption und Ablehnung einer Innovation als zu erklärendes Verhalten betrachten, berücksichtigen sie nicht, dass sich eine Innovation auch im Laufe der Diffusion verändern kann. Einerseits entwickeln sich die technologischen Grundlagen mit jeder Gerätegeneration weiter und werden durch neue Funktionalitäten ergänzt; auf der anderen Seite ergeben sich auch aus der Implementierung einer Innovation in den Alltag der Nutzer neue Nutzungsweisen, die den Charakter einer Innovation vollkommen verändern können. Klassisches Beispiel für dieses Phänomen ist die SMS, deren soziale Nutzung – wie sie insbesondere durch Jugendliche gegen Ende der 1990er Jahre entdeckt wurde – von den technischen Entwicklern nicht vorausgesehen war1. Zwar nimmt Rogers das Phänomen einer solchen "Reinvention" in der dritten Ausgabe seines Standardwerkes auf (Rogers 1983), aufgrund seiner primären Fokussierung auf die Makroebene der sozialen Diffusion bleibt die binäre Adoptionsentscheidung jedoch weiterhin Kernpunkt seiner Theorie.
Aneignungsparadigma Das Aneignungsparadigma blickt über die Adoptionsentscheidung hinaus, indem es den folgenden Fragen nachgeht: Wie integrieren Nutzer eine Innovation in ihren Alltag? Welchen Sinn geben sie ihr und wie nutzen sie sie konkret? Welche Motive begründen diese Nutzung? Die Grundidee, die aktive, gestaltende Rolle des Nutzers stärker zu berücksichtigen findet sich in mehreren theoretischen Traditionen, wie etwa der Techniksoziologie (Bijker/Pinch 1984; Flichy 1995; Rammert 1993), Rahmenanalyse 1
So berichtet der Vorsitzende Firma CMG, die maßgeblich an der Erfindung der SMS beteiligt war, Cor Stutterheim: "When we created SMS (Short Messaging Service) it was not really meant to communicate from consumer to consumer and certainly not meant to become the main channel which the younger generation would use to communicate with each other" (Wray 2002).
80
Werner Wirth, Thilo von Pape, Veronika Karnowski
(Goffman 1977), Domestication (Silverstone/Haddon 1996) oder auf Seiten der Kommunikationswissenschaft im Uses-and-Gratifications-Approach (Katz et al. 1974) wieder. • Grundgedanke des Domestication-Ansatzes ist die Zähmung der "wilden" Technologie durch die Nutzer. Diese integrieren eine Technologie in ihre Alltagsroutinen (incorporation) und ihre räumliche Umgebung (objectification) und eignen sich die Technologie schließlich auch symbolisch an, indem sie sich damit vor anderen Menschen zeigen und darüber sprechen (conversion) (Berker et al. 2006; Silverstone/Haddon 1996). • Rahmenanalyse betrachtet das Aushandeln von Nutzungsweisen einer Technologie. So wurde die Nutzung des Mobiltelefons durch bestimmte Normen gerahmt, z.B. dass man in einem Restaurant nicht laut telefoniert (vgl. Goffman 1977; Ling 2004; Taylor/Harper 2003). • Auch der Uses-and-Gratifications-Approach (UGA) als klassischer kommunikationswissenschaftlicher Ansatz wurde in den letzten Jahren zunehmend auf neue Technologien angewandt. So wurden verschiedene neue Motive der Nutzung neuer Kommunikationsdienste identifiziert oder auch die Existenz von aus den Massenmedien bekannten Motiven bestätigt (vgl. Dimmick et al. 2000; Höflich/Rössler 2001; Leung/Wei 2000; Peters/ben Allouch 2005; Trepte et al. 2003; Wei 2007/im Druck). Insgesamt liegen die Stärken des Aneignungsparadigmas in seiner größeren Offenheit für das weite Spektrum an möglichen Nutzungsformen und –Motiven im Alltag im Gegensatz zur starren Dichotomie, auf die das Adoptionsparadigma immer wieder zurückfällt. Diese Offenheit wird ermöglicht durch eine – einmal abgesehen von UGA2 – sehr flexible, qualitative Methodologie, etwa in Form von Leitfadeninterviews oder Ethnographie. Diese qualitativen Methoden ziehen allerdings den Vorwurf an sich, schwer generalisierbar und empirisch überprüfbar zu sein.
2
Im Uses-and-Gratifications-Approach werden zwar in der Regel geschlossene, standardisierte Befragungen durchgeführt. Qualitative Methoden können aber auch zum Einsatz kommen, um in Vorstudien grundlegende Gratifikationsdimensionen zu ermitteln (vgl. McQuail et al. 1972).
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
81
Schlussfolgerungen für die Entwicklung eines integrativen Modells der Aneignung neuer Kommunikationsdienste Wie bereits gezeigt, hat jeder der angeführten Ansätze seine Stärken und Schwächen bei der Modellierung von Diffusion und Aneignung neuer Kommunikationsdienste. Eine Integration der Ansätze scheint somit sinnvoll. Die Kernpunkte einer derartigen Integration sind die folgenden (vgl. Karnowski et al. 2006): 1. Der Prozess der Diffusion und Aneignung ist nicht zwingend ein linearer. Darauf weisen sowohl Re-Invention-Forschung, als auch verschiede Ansätze von Seiten des Aneignungsparadigmas hin. Aneignung ist somit ein aktiver und kreativer Prozess der in individuelle Nutzungs- und Bedeutungsmuster mündet. 2. Diffusion und Aneignung sind nicht unabhängig von sozialen Faktoren wie Kultur oder Normen. Handlungstheoretische Ansätze können helfen Aneignung in ihrem sozialen Kontext zu begreifen. 3. Ein integratives Aneignungsmodell muss auch den Einfluss von Kommunikation auf den Aneignungsprozess beschreiben. Dieser Einfluss konnte bereits in vielen Studien nachgewiesen werden (vgl. u.a. Habib/Cornford 2002; Höflich 2003; Lehtonen 2003; Oksman/Turtiainen 2004; Silverstone/Haddon 1996; von Pape et al. 2006). 4. Insbesondere Studien von Seiten des Aneignungsparadigmas (Habib/Cornford 2002; Lehtonen 2003) und UGA-Studien (Oksman/Turtiainen 2004) betonen den symbolischen Wert neuer Kommunikationsdienste. Mobiltelefone und der Umgang mit ihnen können die soziale Position in der Gruppe unterstützen und sind Werkzeuge der Selbstdarstellung und Selbstergänzung. 5. Der Einfluss sozialer Netzwerke auf die Adoption neuer Kommunikationsdienste wurde bereits in diversen Studien belegt (Rogers 2004; Schenk et al. 1996; Valente 2005). Die Rolle sozialer Netzwerke im Prozess der Aneignung bleibt jedoch noch unklar. Studien mit Teeangern unterstreichen die Wichtigkeit von Meinungsführern und "weak ties" (Granovetter 1973; Taylor/Harper 2003; von Pape et al. 2006). Im Gegensatz zu den Ergebnissen von Schenk et al. (1996) könnte dieser Einfluss in späteren Lebensphasen zurückgehen. Möglicherweise wird dieser Diskurs dann nicht mehr direkt ausgetragen, sondern antizipiert. Hierbei stellen massenmediale Rollenmodelle und kultivierte Wertvorstellungen möglicherweise die Quelle für derartige Antizipationen dar (Bandura 1979; Shrum/O'Guinn 1993).
82
Werner Wirth, Thilo von Pape, Veronika Karnowski
Entwicklung des Mobile Phone Appropriation-Modells Ein integratives Aneignungsmodell sollte also sowohl individuelle wie auch soziale Faktoren beinhalten, ein breites Spektrum an Nutzungen und Bedeutungen umfassen und gleichzeitig empirisch überprüfbar bleiben (vgl. Karnowski et al. 2006). Im folgenden Abschnitt stellen wir schrittweise unser Vorgehen dar, um zu einem derartigen Modell zu gelangen. Dabei rechtfertigen wir jedes neue Element in seiner theoretischen Einbettung, um so eine eklektische Kombination theoretisch inkompatibler Fragmente zu vermeiden. Ausgangspunkt des "Mobile Phone Appropriation-Modells" (MPA-Modell) ist die Theory of Planned Behavior (Ajzen 1985; 1991) als ein etablierter Ansatz zur Erklärung individuellen Verhaltens (Abb. 1). Um den Prozess der Aneignung modellieren zu können, wird das Modell in fünf Schritten weiterentwickelt: 1) Ausdifferenzierung der abhängigen Variablen, 2) Ausdifferenzierung der das Verhalten beeinflussenden Variablen, 3) Einbeziehung von Metakommunikation, 4) zirkuläre Struktur des Modells 5) Ausblenden der Verhaltensabsicht (Abb. 2). Abb. 1: Theory of Planned Behavior (Ajzen 2005)
Ausdifferenzierung der abhängigen Variable Die abhängige Variable in TPB-Modellen ist zumeist binär oder aber zumindest eindimensional. Um das Phänomen der Aneignung in seiner Breite erfassen zu können, erweitern wir diesen "Endpunkt" der Aneignung in einen mehrdimensi-
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
83
onalen Nutzungsbegriff. Dabei unterscheiden wir grundsätzlich in funktionale und objektbezogene Nutzungsaspekte. Objektbezogene Nutzungsaspekte beziehen sich auf die konkreten technischen Optionen, die dem Nutzer zur Verfügung stehen, wie SMS, Telefonie, Mobile-TV usw.: Welche unter ihnen verwendet er überhaupt, und in welchem Ausmaß verwendet er sie? Wie häufig und dauerhaft verwendet er diese einzelnen Funktionalitäten? In wie weit verändert er das Objekt Mobiltelefon durch Klingeltöne oder andere modische Accessoires? Der funktionale Aspekt der Nutzung differenziert sich weiter in pragmatische wie symbolische Nutzen. Die pragmatische Nutzungsdimension orientiert sich dabei im Kern an den aus UGA-Studien bekannten Nutzungsmotiven (vgl. u.a. Leung/Wei 2000; Peters/ben Allouch 2005; Süss 2004; Trepte et al. 2003), im Einzelnen sind dies: "Ablenkung/Zeitvertreib", "Alltagsmanagement", "Kontaktpflege" und "Kontrolle". Der symbolische Aspekt der Nutzung umfasst einen Bereich, der in diversen UGA-Studien bereits im Rahmen von Nutzungsmotiven wie "Status" (Leung/Wei 2000; Peters/ben Allouch 2005; Trepte et al. 2003) anklingt, jedoch nicht weiter verfolgt wird. Auch diverse Studien zur Nutzung des Mobiltelefons aus anderen Forschungstraditionen als dem UGA bestätigen die Wichtigkeit des symbolischen Aspekts der Mobiltelefonnutzung (vgl. Katz/Sugiyama 2006; Ling 2003; Oksman/Rautiainen 2003; von Pape et al. 2006). In Anlehnung an Mead (1973) differenzieren wir die symbolische funktionale Nutzung in Hinblick auf die psychologische Identität ("Welchen Wert hat die Nutzung des Mobiltelefons für mein Selbst?") und soziale Identität ("Welchen Wert hat die Nutzung des Mobiltelefons für mich in meinem sozialen Umfeld?").
Ausdifferenzierung der das Verhalten beeinflussenden Variablen Gemäß der TPB wird das Verhalten durch folgende Faktoren beeinflusst: Einstellung gegenüber dem Verhalten, Normen und Verhaltenskontrolle. Um der Ausdifferenzierung auf Seiten der abhängigen Variablen gerecht zu werden, müssen auch diese unabhängigen Variablen weiter ausdifferenziert werden. In diesem Sinne wird die Einstellung gegenüber dem Verhalten entsprechend den beschriebenen Nutzungsaspekten und -dimensionen unterschieden. Im Gegensatz zur tatsächlichen Nutzung sind diese Einstellungen nicht mit konkreten Alltagsszenarien verbunden, sondern auf einer höheren Abstraktionsebene angesiedelt. Die normenbezogenen Einstellungen stellen das Produkt der wahrgenommenen Normen in Hinblick auf Handynutzung und der Bereitschaft, diesen Nor-
84
Werner Wirth, Thilo von Pape, Veronika Karnowski
men zu entsprechen, dar. Die Normen können sich sowohl auf die objektorientierte, als auch auf die funktionale Nutzung beziehen. Schließlich beziehen sich die Einstellungen zur Verhaltenskontrolle auf spezifische (zeitliche, kognitive, finanzielle, technische) Restriktionen in der Handy-Nutzung. Diese Restriktionen wirken sich in erster Linie auf die objektbezogene Nutzung aus und erst über diese auch auf die funktionale Nutzung.
Einbeziehung von Metakommunikation Eine Kritik an der TPB bezieht sich auf die Tatsache, dass ihre unabhängigen Variablen (Erwartungen und Bewertungen in Hinblick auf Verhalten, Normen und Restriktionen) als statisch betrachtet werden (Jonas/Doll 1996), während man erwarten kann, dass diese sich durchaus über die Zeit ändern. Gerade in Hinblick auf Mobilkommunikation zeigt eine große Zahl an Studien, dass sich im Laufe der Diffusion und Nutzung die Erwartungen und Bewertungen verändern. Dieser Prozess wird von den unterschiedlichen Ansätzen des Aneignungsparadigmas als "Rahmenverhandlungen" (Höflich 2003), "Conversion" (Silverstone/Haddon 1996), "Social Shaping" (Bijker/Pinch 1984) und "Aushandeln von soziotechnischen Rahmen" (Flichy 1995) bezeichnet. Diese Ansätze und Metaphern haben gemeinsam, dass sie einen Prozess der Kommunikation über die Nutzung einer Innovation beschreiben – den wir als "Metakommunikation" bezeichnen, weil es die Kommunikation über Kommunikationsmittel ist. Metakommunikation stellt den "Katalysator" der Aneignung dar, da sie den Aneignungsprozess vorantreibt und dann im Laufe des Aneignungsprozesses zurück geht (vgl. Hepp 1998: 97; Wirth et al. 2005/Mai) Metakommunikation findet sowohl durch interpersonale als auch durch massenmediale Kommunikation und Beobachtung statt.
Zirkuläre Struktur des Modells Schließlich ist Aneignung im Gegensatz zu Adoption kein einmaliger, linearer Prozess, der mit einer Übernahme oder Ablehnung abgeschlossen wäre, sondern vielmehr ein kontinuierlicher und zirkulärer: Wenn eine Innovation auf den Markt kommt und ein Nutzer sie auf eine bestimmte Weise zum ersten Mal einsetzt, dann wird er nicht für immer bei dieser Nutzung bleiben. Er wird vielmehr mit anderen darüber sprechen, über deren Reaktion und deren eigene Nutzung derselben Innovation, und er wird auch die medienvermittelte Metakommunikation zu dem Thema wahrnehmen, welche auf andere Nutzer wie ihn
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
85
Bezug nimmt. Auf dieser Basis wird er seine funktionale und normative Einstellung zur Nutzung sowie seine Kontrolleinschätzung vielleicht überdenken und dann auch andere Nutzungsformen entwickeln oder übernehmen, welche dann wiederum neue Metakommunikation nach sich ziehen. Um diesem zirkulären Verlauf der Aneignung gerecht zu werden, ist das Aneignungsmodell zirkulär angelegt (vgl. Abb. 2).
Ausblenden der Verhaltensabsicht In der TPB gilt "Intention" als zentrale Variable zwischen den Einflussfaktoren und dem tatsächlichen Verhalten. Obwohl wir die Bedeutung dieser Variable als hinreichend belegt betrachten, haben wir sie nicht in das Aneignungsmodell integriert, da die qualitative Ausdifferenzierung von Nutzungsverhalten in unserem Model eine entsprechende Ausdifferenzierung von Intentionen verlangen würde, die sich nicht unter einem solchen Konstrukt zusammenfassen ließe. Eine "Intention" für jede spezifische Form der Aneignung würde in das MPAModell eingebunden werden müssen, was zu einer Überkomplexität des Modells führen würde. Dabei scheinen die Entscheidungen für bestimmte Teilformen der Aneignung mit wesentlich weniger kognitivem Aufwand gefällt, als dies bei klassischen, binären Adoptionsentscheidungen der Fall ist. So lässt sich Aneignung als eine lange Serie geringer, oft wenig reflektierter Stufen denken. Ob diese Begründungen "Intention" nicht in das Modell aufzunehmen ausreichen, beleibt in unseren Augen schlussendlich eine empirische Frage.
86
Werner Wirth, Thilo von Pape, Veronika Karnowski
Abb. 2: Mobile Phone Appropriation-Modell (MPA-Modell)
Resümee und Ausblick Das dargestellte integrative Mobile Phone Appropriation-Modell ist der Kern eines Projektes zur Integration scheinbar unvereinbarer Ansätze zur Adoption und Aneignung von Innovationen im Bereich mobiler Kommunikation. Wenn auch die Grundstruktur einem quantitativen, standardisierten Vorgehen entspricht, wurden Befunde aus der qualitativen Forschung berücksichtigt und einbezogen. Das Modell wurde bereits in eine integrative Skala der Aneignung neuer Kommunikationsdienste operationalisiert und diese Skala in einer ersten Studie zur Differenzierung von Handy-Nutzertypen per Cluster-Analyse angewendet (von Pape et al. 2007/im Druck). Weiterführende Fragen wären: • Gibt es Phasen des Aneignungsprozesses? Hierzu wurden bereits erste Längsschnittstudien durchgeführt (von Pape et al. 2007/Mai).
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
87
• Wie gestaltet sich die Metakommunikation als "Katalysator" der Aneignung? Diese Frage wird derzeit sowohl in Hinblick auf massenmediale Metakommunikation, als auch auf interpersonale Metakommunikation innerhalb sozialer Netzwerke hin untersucht. Modell und Skala sind für die Mobilkommunikation optimiert, lassen sich aber auch auf andere Innovationen übertragen, insbesondere, wenn diese einer sozialen Dynamik unterworfen sind (kritische Masse), hohe symbolische Bedeutung tragen und schnellen technologischen Wandel erfahren. Die Komplexität des empirischen Phänomens der jeweiligen Aneignung verbieten aber, Modell und Skala unmittelbar auf andere Phänomene zu übertragen. Vielmehr sollte das Modell als Grundgerüst betrachtet werden, dessen jeweilige Konstrukte (etwa die Dimensionen der funktionalen Nutzung) bei jeder Innovation möglichst von Grund auf und mit Rückgriff auf quantitative und qualitative Methoden neu ermittelt werden.
Literatur Ajzen, Icek (1985): From intentions to actions: A theory of planned behavior. In: Kuhl/Beckman (Hrsg.) (1985): 11-39. Ajzen, Icek (1991): The theory of planned behavior. In: Organizational Behavior and Human Decision Processes 50. 179-211. Ajzen, Icek (2005): Attitudes, Personality and Behavior. New York: Open University Press. Bandura, Albert (1979): Sozial-kognitive Lerntheorie. Stuttgart: Klett-Cotta. Berker, Thomas/Hartmann, Maren/Punie, Yves/Ward, Kat (Hrsg.) (2006): Domestication of media and technology. Bijker, Wiebe E./Hughes, Thomas P./Pinch, Trevor J. (Hrsg.) (1984): The Social Construction of Technological Systems. Cambridge, Mass.: MIT Press. Bijker, Wiebe E./Pinch, Trevor J. (1984): The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology Might Benefit of Each Other. In: Bijker et al. (Hrsg.) (1984): 17-50. Blumler, Jay G./Katz, Elihu (Hrsg.) (1974): The Uses of Mass Communications. Current Perspectives in Gratifications Research. Beverly Hills: Sage Publications. Bundesnetzagentur (2006): Teilnehmerentwicklung und Penetration in deutschen Mobilfunknetzen. Online: http://www.bundesnetzagentur.de/media/archive/7939.pdf (abgerufen am: 27.02.2007). Carrington, Peter J./Scott, James/Wasserman, Stanly (Hrsg.) (2005): Models and Methods in Social Network Analysis. Cambridge UK: Cambridge University Press.
88
Werner Wirth, Thilo von Pape, Veronika Karnowski
Davis, Fred D. (1986): A technology acceptance model for empirically testing new end-user information systems: theory and results. Boston: Massachusetts Institute of Technology. Dimmick, John/Kline, Susan/Stafford, Laura (2000): The Gratification Niches of Personal E-Mail and the Telephone. Competition, Displacement, and Complementarity. In: Communication Research 27.2. 227-228. Flichy, Patrice (1995): L'innovation technique. Récents développements en sciences sociales vers une nouvelle théorie de l'innovation. Paris: La Découverte. Fortunati, Leopoldina/Katz, James E./Riccini, Raimonda (Hrsg.) (2003): Mediating the human body: Technology, communication and fashion. Mahwah, NJ: Lawrence Erlbaum & Associates. Goffman, Erving (1977): Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt: Suhrkamp. Granovetter, Marc S. (1973): The Strength of Weak Ties. In: American Journal of Sociology 78.6. 1361-1380. Habib, Laurence/Cornford, Tony (2002): Computers in the home: domestication and gender. In: Information Technology & People 15.2. 159-174. Hepp, Andreas (1998): Fernsehaneignung und Alltagsgespräche. Fernsehnutzung aus der Perspektive der Cultural Studies. Opladen: Westdeutscher Verlag. Höflich, Joachim R. (2003): Mensch, Computer und Kommunikation. Theoretische Verortungen und empirische Befunde. Frankfurt: Peter Lang. Höflich, Joachim R./Rössler, Patrick (2001): Mobile schriftliche Kommunikation oder: E-Mail für das Handy. In: Medien & Kommunikationswissenschaft 49.4. 437-461. Hung, Shin-Yuan/Ku, Chen-Yuan/Chan, Chia-Ming (2003): Critical factors of WAP services adoption: an empirical study. In: Electronic Commerce Research an Applications 2.1. 42-60. Jonas, Klaus/Doll, Jörg (1996): Eine kritische Bewertung der Theorie überlegten Handelns und der Theorie geplanten Verhaltens. In: Zeitschrift für Sozialpsychologie 27. 18-31. Karnowski, Veronika/von Pape, Thilo/Wirth, Werner (2006): Zur Diffusion neuer Medien: Kritische Bestandsaufnahme aktueller Ansätze und Überlegungen zu einer integrativen Diffusionsund Aneignungstheorie Neuer Medien. In: Medien & Kommunikationswissenschaft 54.1. 56-74. Katz, Elihu/Blumler, Jay G./Gurevitch, Michael (1974): Utilization of Mass Communication by the Individual. In: Blumler/Katz (Hrsg.) (1974): 19-34. Katz, James E. (Hrsg.) (2003): Machines that become us. The Social Context of Personal Communication Technology. New Brunswick, NJ: Transaction Publishers. Katz, James E./Sugiyama, Satomi (2006): Mobile phones as fashion statements: evidence from student surveys in the US and Japan. In: New Media & Society 8.2. 321-337. Kincaid, D. L. (2004): From Innovation to Social Norm: Bounded Normative Influence. In: Journal of Health Communication 9.1. 37-57. Kuhl, Julius/Beckman, Jurgen (Hrsg.) (1985): Action-control: From cognition to behavior. Heidelberg: Springer.
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
89
Lehtonen, Turo-Kimmo (2003): The Domestication of New Technologies as a Set of Trials. In: Journal of Consumer Culture 3.3. 363-385. Leung, Louis/Wei, Ran (2000): More than just talk on the move: uses and gratifications of the cellular phone. In: Journalism and Mass Media Quarterly 77.2. 308-320. Licoppe, Christian/Inada, Yoriko (2006): Emergent Uses of a Multiplayer Location-aware Mobile Game: the Interactional Consequences of Mediated Encounters. In: Mobilities 1.1. 39-61. Ling, Richard (2003): Fashion and Vulgarity in the Adoption of the Mobile Telephone Among Teens in Norway. In: Fortunati et al. (Hrsg.) (2003): 93-102. Ling, Richard (2004): The Mobile Connection. The Cell Phone's Impact on Society. San Francisco, Oxford: Elsevier/Morgan Kaufmann. Mathes, J./Wirth, W./Fahr, A./Daschmann, G. (Hrsg.) (2007/im Druck): Die Brücke zwischen Theorie und Empirie: Operationalisierung, Messung und Validierung in der Kommunikationswissenschaft. Köln: Halem. McQuail, Denis (Hrsg.) (1972): Sociology of Mass Communications. Harmondsworth: Penguin. McQuail, Denis/Blumler, J. G./Brown, J. R. (1972): The Television Audience: A Revised Perspective. In: McQuail (Hrsg.) (1972): 135-166. Mead, George H. (1973): Geist, Identität und Gesellschaft. Frankfurt a. M.: Suhrkamp. Meyer, Gary (2004): Diffusion Methodology: Time to Innovate? In: Journal of Health Communication 9.1. 59-69. Mikos, Lothar/Hoffmann, Dagmar/Winter, Rainer (Hrsg.) (2006): Mediennutzung, Identität und Identifikationen. Die Sozialisationsrelevanz der Medien im Selbstfindungsprozess von Jugendlichen. Weinheim, München: Juventa. Oksman, V./Turtiainen, J. (2004): Mobile Communication as a social stage. Meanings of Mobile Communication in Everyday Life among Teenagers in Finland. In: New Media & Society 6.3. 319-339. Oksman, Virpi/Rautiainen, Pirjo (2003): "Perhaps It Is A Body Part". How the Mobile Phone Became an Organic Part of Everyday Lives of Children and Adolescents. In: Katz (Hrsg.) (2003). Pedersen, Per E./Nysveen, Herbjorn/Thorbjørnsen, Helge (2002): The adoption of mobile services: A cross service study. Bergen, Norway: Foundation for Research in Economics and Business Administration. Peters, Oscar/ben Allouch, Somaya (2005): Always connected. A longitudinal field study of mobile communication. In: Telematics and Informatics 22. 239-256. Rammert, Werner (1993): Technik aus soziologischer Perspektive: Forschungsstand, Theorieansätze, Fallbeispiel. Ein Überblick. Opladen: Westdeutscher Verlag. Rogers, E. M. (2004): A Prospective and Retrospective Look at the Diffusion Model. In: Journal of Health Communication 9.1. 13-19. Rogers, Everett M. (1983): Diffusion of Innovations: A Cross-Cultural Approach (3 ed.). New York: Free Press.
90
Werner Wirth, Thilo von Pape, Veronika Karnowski
Rogers, Everett M. (2003): Diffusion of Innovations. Fifth Edition. New York: Free Press. Schenk, Michael/Dahm, Hermann/Sonje, Deziderio (1996): Innovationen im Kommunikationssystem. Eine empirische Studie zur Diffusion von Datenfernübertragung und Mobilfunk. Münster: Lit. Shrum, L. J./O'Guinn, Thomas C. (1993): Process and effects in the construction of social reality: Construct accessibility as an explanatory variable. In: Communication Research 20. 436471. Silverstone, Roger/Haddon, Leslie (1996): Design and the domestication of information and communication technologies: Technical change and everyday life. In: Silverstone/Mansell (Hrsg.) (1996): 44-74. Silverstone, Roger/Mansell, Robin (Hrsg.) (1996): Communication by Design. The Politics of Information and Communication Technologies. Oxford: Oxford University Press. Süss, Daniel (2004): Mediensozialisation von Heranwachsenden. Dimensionen - Konstanten Wandel. Wiesbaden: VS - Verlag für Sozialwissenschaften. Taylor, Alex S./Harper, Richard (2003): The gift of the gab: a design oriented sociology of young people's use of mobiles. In: Journal of Computer Supported Cooperative Work 12.3. 267296. Trepte, Sabine/Ranné, Nabil/Becker, Miriam (2003): "Personal Digital Assistants"-Patterns of user gratifications. Communications. In: European Journal of Communication Research 8.4. 457-473. Valente, Thomas W. (2005): Network models and methods for studying the diffusion of innovations. In: Carrington et al. (Hrsg.) (2005): 98-116. von Pape, T./Karnowski, V./Wirth, W. (2007/im Druck): Eine integrative Skala zur Messung des Konstruktes der Aneignung. In: Mathes et al. (Hrsg.) (2007/im Druck). von Pape, Thilo/Karnowski, Veronika/Wirth, Werner (2006): Identitätsbildung bei der Aneignung neuer Kommunikationsdienste. Ergebnisse einer qualitativen Studie mit jugendlichen Mobiltelefon-Nutzern. In: Mikos et al. (Hrsg.) (2006): 21-38. von Pape, Thilo/Karnowski, Veronika/Wirth, Werner/Klimmt, Christoph (2007/Mai): Living in Oblivon – A Diary-Study on the Appropriation of a Role-gaming Play. Vortrag auf der 57. Jahrestagung der International Communication Association (ICA), 24.-28.05.2005. San Francisco, USA. Wei, Ran (2007/im Druck): Motivations for using the mobile phone for mass communications and entertainment. Telematics and Informatics. Wirth, Werner/von Pape, Thilo/Karnowski, Veronika (2005/Mai): New technologies and how they are rooted in society. Vortrag auf der 55. Jahrestagung der International Communication Association (ICA), 26.-30.05.2005. New York, USA. Wray, Richard (2002): First with the message. Interview with Cor Stutterheim, executive Chairman CMG. The Guardian, 16.3.2002. Online: http://business.guardian.co.uk/story/ 0,3604,668379,00.html (abgerufen am: 27.02.2007).
Wirkungsmodelle: die digitale Herausforderung revisited. Forschungsstand zu Wirkungen von Online-Kommunikation – ein rückblickender Essay Patrick Rössler
Traditionell stellt die Frage nach den Wirkungen von Medienangeboten eines der, wenn nicht sogar das zentrale Gebiet der kommunikationswissenschaftlichen Forschung dar (z.B. Schenk 2002; Schulz 1992: 7). Historisch hat sich das Fach aus der Analyse der Funktionen von Massenkommunikation für die Gesellschaft entwickelt, und aktuell erwartet diese Gesellschaft fundierte Lösungsvorschläge für Probleme, die sich aus einer zunehmenden Mediatisierung des Alltags ergeben (Krotz 2001). Daher kann es nicht verwundern, dass mit dem weltweiten Siegeszug des Internet schon bald auch verstärkt die Auswirkungen dieses rapiden Diffusionsprozesses in den Blick gerieten. Vor bald einer Dekade, nämlich im Jahr 1998, organisierte die seinerzeit frisch gegründete "Deutsche Gesellschaft für Medienwirkungsforschung" ihre erste Tagung unter dem Titel "Die Medienwirkungsforschung vor der Jahrtausendwende – Stand und Perspektiven" (vgl. Schorr 2000). Die Veranstalter haben damals bei mir angefragt, ob ich ein Panel zum Thema "InternetWirkungen" zusammenstellen wollte. Aus dem modischen Schlagwort "Internet" wurde "Online-Kommunikation", und insgesamt 15 Kollegen beteiligten sich mit Vorträgen, deren schriftliche Fassung bereits zur Tagung vorlag – in Form einer der ersten systematischen Publikationen des Fachs zu dem seinerzeit noch besonderen medialen Phänomen (Rössler 1998a). Als Einleitung dieses Bandes durfte ich erste "Überlegungen zu einer Inventur bestehender Ansätze der Medienwirkungsforschung" vorlegen (Rössler 1998b). Die Grundannahme dieses Beitrags lautete, dass die neue Kommunikationstechnologie es per se noch nicht erforderlich mache, auch vollkommen neue Hypothesen über Medienwirkungen zu formulieren. Vielmehr stellte sich die Frage, welche der klassischen, bereits existierenden Wirkungsmodelle der Kommunikationsforschung noch für die neue, digitale Medienumgebung relevant sein könnten, und wie die Spezifika der Online-Kommunikation ggf. eine Modifikation dieser Modelle erforderlich machen könnten. Der vorliegende Essay untersucht im Rückblick, wie sich die Wissenschaft (und insbesondere natürlich die Kommunikationswissenschaft) in den vergan-
92
Patrick Rössler
genen zehn Jahren der Frage nach der Online-Kommunikation und ihren Wirkungen angenommen hat. In einem ersten Teil stelle ich zunächst kurz die Argumentation des ursprünglich unter dem Titel "Wirkungsmodelle – die digitale Herausforderung" erschienenen Aufsatzes vor, die gleichzeitig die Methodik meiner aktuellen Übersicht bestimmt. Diese liegt einer im Hauptteil präsentierten, systematischen Untersuchung sowohl der internationalen als auch der deutschsprachigen Forschung zum Thema zugrunde. Ein kurzes Fazit bewertet schließlich diesen Forschungsüberblick; der Kernbefund lautet hierbei, dass die Forschung viele der formulierten Erwartungen und Prognosen nicht aufgegriffen hat und sich die Analyse von Wirkungen der Online-Kommunikation meist nicht auf die klassischen Medienwirkungsansätze bezieht.
Wie wirkt Online-Kommunikation? Eine Forschungssystematik (1998) Ausgehend von einer augenfälligen Parallele – der zwischen den Reaktionen auf Orson Welles' legendäres Hörspiel "Krieg der Welten", einem der Klassiker der Medienwirkungsforschung, und denen auf die Internet-Berichte über die angebliche Mission des fiktiven amerikanischen Raumschiffs EON-4 im Weltraum – entwickelte ich zwei Kernfragen (vgl. hier und im Folgenden ausf. Rössler 1998b): Welche der klassischen, bereits existierenden Wirkungsmodelle der Kommunikationsforschung sind auch weiterhin in der neuen, digitalen Medienumgebung relevant? Und: Welche Modifikationen dieser Modelle sind aufgrund der Spezifika der Online-Kommunikation erforderlich? Eine dreidimensionalen Systematik sollte es ermöglichen, existierende theoretische Ansätze der Medienwirkungsforschung (1. Dimension) daraufhin zu überprüfen, welche Bedeutung die neuen, online-basierten Kommunikationsmodi (2. Dimension) mit ihren spezifischen Charakteristika (3. Dimension) für diese Ansätze besitzen. Hinsichtlich der Kommunikationsmodi war es mir damals sehr wichtig, nicht von "dem Internet" zu sprechen, sondern von den einzelnen medialen Anwendungen wie dem World Wide Web, Email, Chat, Diskussionsforen und Spieleumgebungen (Stichwort MUDs). Von den möglichen Beschreibungsdimensionen dieser Modi habe ich drei ausgewählt, die mit Blick auf die Wirkungsfrage relevant sein sollten, nämlich ihre Individualität, ihre Interaktivität und ihre Medialität. In der Zusammenfassung ergab sich ein offenes Klassifikationsschema in Form eines Würfels, der zur Integration von empirischen Forschungsergebnissen und zur Planung und Abstimmung von Forschungsvorhaben beitragen sollte (vgl. Abb. 1).
Wirkungsmodelle: die digitale Herausforderung revisited
93
Dementsprechend könnten Studien • sich auf einen einzelnen Teilwürfel beziehen, d.h. die Bedeutung einer Beschreibungsdimension eines Kommunikationsmodus' für einen Wirkungsansatz (also z.B. die Relevanz der Medialität beim Chat für den PrimingEffekt); • eine ganze Sequenz von Würfeln betrachten, d.h. die Bedeutung einer Beschreibungsdimension aller Kommunikationsmodi für einen Wirkungsansatz (also z.B. die Relevanz der Medialitäten in der computervermittelten Kommunikation generell für den Priming-Effekt); • oder genauso die Bedeutung aller Beschreibungsdimensionen eines Kommunikationsmodus' für einen Wirkungsansatz aufzeigen (also z.B. die Relevanz der Charakteristika des Chat für den Agenda-Setting-Ansatz); • und schließlich eine ganze Ebene der Systematik betrachten, d. h. der Bedeutung aller Beschreibungsdimensionen aller Kommunikationsmodi für einen Wirkungsansatz (z.B. die Relevanz der Charakteristika der cvK-Modi für den Priming-Effekt); • oder genauso sich der Bedeutung aller Beschreibungsdimensionen eines Kommunikationsmodus' für alle Wirkungsansätze zuwenden (z.B. der Relevanz der Charakteristika des Usenet für die Wirkungsforschung). Abb.1: Analyseraster für Online-Wirkungen (Rössler 1998a: 38)
94
Patrick Rössler
Wie für andere Systematiken kann auch hier konstatiert werden, dass die einzelnen Dimensionen vergleichsweise klar definiert sind (also die Dienste oder die einzelnen Ansätze), dass aber deren jeweilige Kategorien gegenüber einander nicht unbedingt trennscharf sind. Dies gilt für die verschiedenen Kommunikationsmodi (Stichwort: Konvergenz) genauso wie für die Beschreibungsdimensionen (etwa die Verknüpfung von Interaktivität und Individualität) oder für die behandelten theoretischen Ansätze (beispielsweise angesichts der Überschneidungen von Priming, Framing und Agenda-Setting Ansatz). Dennoch sollte die vorgestellte Systematik zumindest einen heuristischen Wert besitzen, um Forschungsarbeiten im Feld zu verorten.
Wie wurden die Wirkungen von Online-Kommunikation erforscht? Ein Überblick (2006) Zum Zeitpunkt der Veröffentlichung des hier nur in seinen Grundzügen vorgestellten Originalbeitrags lagen nur wenige an theoretischen Modellen orientierte, empirische Arbeiten zur Wirkung von Online-Kommunikation vor. Eine erste systematische Literaturübersicht wurde vier Jahre später publiziert und verarbeitete 561 Einträge in den Communication Abstracts, die bis 1999 erschienen waren (Kim/Weaver 2002). Die Verfasser gliederten ihre Beschreibung in vier nicht streng chronologisch aufeinander folgende Phasen, analog zu dem Modell von Wimmer und Dominick (2000: Ch. 18: 27). Ihren Analysen zufolge lag der Schwerpunkt der Forschung in diesem Zeitraum einerseits bei Studien zu Nutzung und Nutzern, also Fragen der Diffusion und Adaption der Technologie, Nutzungsmustern und auch den Wechselwirkungen mit der traditionellen Mediennutzung. Andererseits interessierten zunächst die deskriptiven Aspekte der Internet-Thematik, d.h. Technik und mögliche Anwendungen, Funktionen und Dienste; außerdem die Rahmenbedingungen in Wirtschaft, Politik und Recht sowie eher philosophische Auseinandersetzungen mit Chancen und Risiken der neuen, interaktiven Medienumgebung. Der an dieser Stelle relevante Aspekt, nämlich so genannte "Wirkungsfragen", machten seinerzeit lediglich zwölf Prozent der angetroffenen Artikel aus (vgl. Abb. 2). Gefasst waren hierunter aber nicht nur Studien, die auf theoretischen Modellen der Medienwirkungsforschung beruhen ("attitude and behavioral changes"), sondern alle Arbeiten, die Internet-Wirkungen im weiteren Sinne thematisieren – also auch generell die Einflüsse auf zwischenmenschliche Beziehungen, neue kulturelle und gemeinschaftliche Aktivitäten oder Auswirkungen auf Unternehmen, Organisationen und den Staat.
Wirkungsmodelle: die digitale Herausforderung revisited
95
Der vorliegende Beitrag schreibt diesen, vorerst letzten systematischen Überblick zur Online-Forschung fort, allerdings unter Berücksichtigung auch der deutschsprachigen Literatur zum Thema. Untersuchungsleitende Frage ist, ob sich die beschriebene Situation seit 1999, also etwa seit der Publikation der unter (1.) vorgestellten Systematik, substanziell geändert hat – und zwar insbesondere im Hinblick auf die klassischen Wirkungsansätze der Kommunikationswissenschaft. Hat die Medienwirkungsforschung, wie sie seit 1999 in nationalen und internationalen Publikationen dokumentiert ist, die Herausforderungen der neuen, netzbasierten Kommunikationstechnologien auch dahingehend aufgenommen, dass ihr klassischer Bestand an theoretischen Ansätzen und Modellen überprüft, adaptiert und zur Erklärung von Effekten der Online-Kommunikation herangezogen wurde? Abb. 2:
Kommunikationswissenschaftliche Publikationen zum Internet, Stand 1999 (Kim/Weaver 2002: 528)
Methodik der Vorgehensweise Die vorliegende Literaturdurchsicht schließt damit an den Beitrag von Kim und Weaver (2002) an und beruht ebenso auf einer systematischen Recherche einschlägiger Forschungsbeiträge seit Erscheinen der damaligen Publikationen. Analog kann ebenfalls nicht von einer Meta-Analyse im strengen Sinne gespro-
96
Patrick Rössler
chen werden (vgl. jüngst Preiss et al. 2007), sondern eher von einer inhaltsanalytischen Klassifikation von Forschungsbeiträgen. Als Kategorien für diese Zuordnung wurden u.a. die in dem Beitrag von 1998 genannten Dimensionen verwendet. Als Auswahleinheiten wurden für die englischsprachige Forschung, analog zu Kim und Weaver (2002), die Einträge in den Communication Abstracts zugrunde gelegt, die vergleichsweise lückenlos alle Beiträge in englischsprachigen Fachzeitschriften, aber auch in relevanten Sammelbänden vorstellen. Erfasst wurden in den Jahrgängen 1999 bis 2005 alle Einträge, die unter den Stichworten "Internet", "Online-Kommunikation" oder einem der Kommunikationsmodi von oben rubriziert waren.1 Außerdem wurden alle Ausgaben der Zeitschrift New Media & Society berücksichtigt, die sich, erst 1998 gegründet, zu einem wesentlichen englischsprachigen Publikationsorgan für Online-Forschung entwickelt hat. Für die deutschsprachige Forschung wurden im selben Zeitraum und mit denselben Aufgreifkriterien beide allgemein ausgerichteten Fachzeitschriften, Publizistik sowie Medien- und Kommunikationswissenschaft2 gesichtet, und darüber hinaus alle Sammelbände, die zu den Tagungen der DGPuK-Fachgruppe "Computervermittelte Kommunikation" erschienen sind (Beck et al. 2004; Beck/Schweiger 2001; Rössler/Wirth 1999). Wie über jede Auswahl lässt auch über diese im Einzelfall streiten, denn selbstverständlich ist Forschung zur Online-Kommunikation auch in anderen Foren anzutreffen; genannt seien etwa Zeitschriften wie Internet Research (eher marktorientiert), Convergence (eher technisch orientiert) oder die Vielzahl juristischer Veröffentlichungen, in denen Fragen des Internet-Rechts verhandelt werden (z.B. Multimedia und Recht). Allerdings geht es in dieser Studie ja primär um die kommunikationswissenschaftliche Wirkungsforschung zur Online-Kommunikation im engeren Sinne, wofür die dargestellte Auswahl durchaus geeignet erscheint. Festzuhalten bleibt, dass aufgrund dessen der Anteil der wirkungsbezogenen Studien eher über- als unterschätzt werden sollte. Diesen Kriterien folgend ergab sich eine Stichprobe von n=283 Artikeln, die sich im definierten Sinn als Beiträge zur kommunikationswissenschaftlichen Online-Forschung klassifizieren lassen. Dabei lag die Anzahl angetroffenen Artikel von 1998 bis 2001 konstant zwischen 30 und 40 pro Jahr, sank für 2002
1 2
Für eine Kontrollauswertung (s.u.) wurden exemplarisch für die Jahre 2004 und 2005 zusätzlich alle Einträge zu den oben genannten Wirkungsansätzen gesichtet. Titel zu Beginn des Untersuchungszeitraums: Rundfunk und Fernsehen.
Wirkungsmodelle: die digitale Herausforderung revisited
97
und 2003 (wohl aus methodischen Gründen3) auf unter 30, um dann in 2004 einen Höhepunkt mit deutlich über 50 Beiträgen zu erreichen.4 Knapp über die Hälfte dieser Artikel (148) stammte aus den Communication Abstracts und weitere 59 aus New Media & Society, so dass die englischsprachigen Publikationen mehr als zwei Drittel der vorliegenden Stichprobe ausmachen. Aus deutschen Quellen konnten 28 (Fachzeitschriften) bzw. 48 (Sammelbände) Beiträge mit Online-Bezug ermittelt werden. Für die weiteren Untersuchungen ergab die Unterscheidung zwischen deutsch- und englischsprachigen Beiträgen – wohl auch wegen der zumeist geringen Fallzahlen – keine signifikanten Unterschiede, weshalb in den Auswertungen diesbezüglich keine Aufgliederung mehr vorgenommen wird.
Ergebnisse der systematischen Recherche Ein erstes Augenmerk der Untersuchung galt den in den Artikeln berücksichtigten Kommunikationsmodi. In fast der Hälfte aller Beiträge (129) erfolgte hier keine Differenzierung, sondern es war pauschal von "dem Internet" oder philosophischen Allegorien wie "dem Cyberspace" die Rede. Zwar kann diese Verallgemeinerung im Einzelfall durchaus sinnvoll sein, etwa wenn ein Beitrag eher grundsätzlich auf die Chancen und Risiken der neuen Kommunikationstechnologie eingeht und "das Internet" tatsächlich als Chiffre für die Netzkommunikation im Allgemeinen verwendet. In der Mehrzahl der Fälle handelte es sich jedoch schlicht um eine unspezifische Vermischung von Kommunikationsmodi, die dann empirisch auch so abgefragt wurde. In einigen Fällen wurde "das Internet" synonym für das World Wide Web gebraucht, das als Kommunikationsmodus ebenfalls häufig im Mittelpunkt der Studien stand (101 Beiträge). Gemeinsam mit jenen 28 Artikeln, die mehrere Modi (darunter meistens auch das WWW) thematisierten, ergibt sich als ein klar WWW-lastiges Bild der kommunikationswissenschaftlichen Online-Forschung, was leicht aus den Wurzeln des Fachs in der Publizistik und Massenkommunikation zu erklären ist. Andere Modi wie Gesprächsforen und das Usenet (7), E-Mail (4), Chats (4) und Blogs (3) liegen seltener im Erkenntnisinteresse der Forscher. Zentrale Fragestellung dieser Erhebung war die nach dem Anteil wirkungsbezogener Beiträge. Betrachtet man alle 283 Analyseeinheiten der Stichprobe, 3 4
In diesen Jahren wurde kein Tagungsband der Fachgruppe veröffentlicht. Der Wert für 2005 ist geringer, da die Einträge in den Communication Abstracts immer mit Verzug erfolgen, so dass der Jahrgang 2005 nicht alle in 2005 erschienenen Beiträge enthält.
98
Patrick Rössler
so ist für 31% ein Wirkungsaspekt zentral – davon 11 % mit unmittelbarem Bezug zu kommunikationswissenschaftlichen Ansätzen und Modellen, und weitere 20 % mit einem weiter gefassten Verständnis von Wirkung. Fast ein Drittel der Beiträge wendet sich also Effekten der Online-Kommunikation zu, was eine deutliche Steigerung im Vergleich zu den Werten bis 1999 bedeutet (vgl. Kim/Weaver 2002). Betrachtet man allerdings genauer, welche theoretischen Ansätze es sind, die hier aufgegriffen werden, so ergibt sich eine deutliche Präferenz für die Wissenskluft-Hypothese in ihrer aktualisierten Variante "Digital Divide" (18). Diese Perspektive wird häufiger eingenommen als alle anderen Theorien zusammen – mit weitem Abstand folgen erst Uses & Gratifications (5) und Agenda-Setting (4). Nur vereinzelt ist vom Elaboration-Likelihood-Modell, Framing (je 2) sowie dem Third-Person Effect und der Theory of Reasonned Behaviour (1) die Rede. Damit lässt sich festhalten, dass klassische Medienwirkungstheorien (mit Ausnahme der modifizierten Wissenskluft-Hypothese) in der Online-Forschung seit 1998 nur eine marginale Rolle besitzen. Zwei Beispiele sollen exemplarisch verdeutlichen, wie in diesen Fällen vorgegangen wurde: • In einer Agenda-Setting-Studie (vgl. Marr 2002) wurden die "Folgen der Internet-Nutzung für den medialen Thematisierungsprozess" untersucht. Bezeichnenderweise wurden in der Medienanalyse Tageszeitungen, Wochenzeitungen, Zeitschriften, Radio und Fernsehen berücksichtigt, nicht aber Online-Medien. Anschließend wurden die Themenpräferenzen in der Gruppe der Internet-Nutzer mit denen der Nicht-Nutzer verglichen. • Obwohl es sich im strengen Wortsinne nicht um einen Wirkungsansatz handelt, wurden auch Uses-and Gratifications-Studien erhoben, weil sie in der Online-Forschung zumindest eine gewisse Beliebtheit erlangt haben. Typisch wäre eine Studie von Scherer und Schlütz (2004) zum Thema "Fernsehen und WWW als funktionale Alternativen?" zu nennen, in der Gratifikationserwartungen, situativ gesuchte und situativ erhaltene Gratifikationen von Fernsehen und World Wide Web gegenübergestellt werden. Angesichts des geringen Stellenwerts, den klassische Wirkungsmodelle in der Online-Forschung offensichtlich besitzen, ist zu bedenken, ob nicht vielleicht die Ausgangsfrage falsch gestellt ist: Könnte es nicht sein, dass Online-Medien inzwischen schon so selbstverständlich sind, dass sie längst Teil der 'normalen' Medienwirkungsforschung sind – also entsprechende Studien gar nicht mehr speziell unter dem Aspekt 'Online' verbucht werden, sondern allgemeiner unter den entsprechenden Wirkungsansätzen? Für diese Gegenprobe wurden ergänzend alle Einträge der Communication Abstracts aus den Jahren 2004 und 2005 codiert, für die nicht 'Internet' usw. als Stichworte angegeben waren, sondern
99
Wirkungsmodelle: die digitale Herausforderung revisited
einer der Wirkungsansätze. Die Analyse ist allerdings ernüchternd: Von 52 angetroffenen Studien bezogen sich 32 auf Agenda-Setting (18), Kultivierung (5), Framing (4), Priming (3) oder die Schweigespirale (2), und in keiner einzigen dieser Studien wurde auf Online-Medien eingegangen. Ausnahme ist erneut die Wissenskluft-Hypothese, der sich 20 Beiträge widmeten, davon zwei der klassischen Variante und 18 dem "Digital Divide"-Konzept, das dem Internet selbstverständlich eine essentielle Rolle zuschreibt. Beiträge wenden sich hier sowohl Nutzungs- als auch Wirkungsfragen zu ('access gap' vs. 'usage gap'). Abb. 3:
Thematische Bezüge von online-bezogenen Beiträgen (1999-2005, n=283, Mehrfachcodierungen möglich)
allg. E ntw icklung G lobalisierung Regulierung polit. K ommunikation Ö ffentlichkeit elektron. D emokratie N utzung allgemein N utzung spezifisch Rezeption/S elektion B eziehungen / ipK C ommunities Journalismus K ontrast klass. M edien Ö konomie / S hopping Werbung PR Jugend / S ex E -Learning H ealth S onstige Wirkungsansätze
0
10
20
30
40
50
60
Abschließend stellt sich in Anlehnung an Kim und Weaver (2002) die Frage, welche thematischen Bezüge die Beiträge aufweisen, wenn sie sich denn nur zu einem geringen Teil mit klassischen Wirkungsmodellen befassen. Abb. 3 verdeutlicht diese Themen, beruhend auf einer Mehrfachcodierung aller angetroffenen Beiträge. Neben den 33 Fällen, die Wirkungsansätze zugrunde legen, dominieren auch in der vorliegenden Studie die Nutzungsaspekte in verschiedenen Ausrichtungen. Konjunktur hatten auch Studien zur Verortung von OnlineNutzung in Relation zu anderen Medien, Untersuchungen zur Zukunft des Journalismus und unterschiedliche Facetten der politischen Kommunikation im Internet-Zeitalter (wie etwa das Schlagwort 'elektronische Demokratie'). Nach wie vor beliebt sind allgemeine Erörterungen über die "Zukunft des Internet" und seine Funktion in Globalisierungsprozessen, sowie der gesamte Themen-
100
Patrick Rössler
komplex zum Wandel interpersonaler Kommunikationsmuster, zu zwischenmenschlichen Beziehungen oder zum Aufbau von Nutzergemeinschaften und Netz-Communities.
'Revisited' oder 'revised'? Ein Fazit (und keine weitere Prognose) Der vorliegende Essay, empirisch gestützt auf eine systematische Recherche zur Online-Forschung seit 1999, hatte sich zum Ziel gesetzt, durchaus selbstkritisch die eigenen Prognosen aus dem Jahr 1998 zu reflektieren. Die Bilanz fällt allerdings so ernüchternd aus, dass als Titel vielleicht der Begriff "revised" angemessener wäre als "revisited". Am tragfähigsten erweist sich in der Rückschau wohl die Auswahl der drei Aspekte Individualität, Interaktivität und Medialität als zentrale Beschreibungsdimensionen von Online-Angeboten. Jenseits der oben vorgestellten Daten erschließt sich dies leicht aus der Betrachtung der aktuellen Trends in der Kommunikationsbranche, vom Web 2.0 mit seinen Video- und Audioblogs bis hin zur Mobilkommunikation dem mobilen Internet und den viel beschworenen Konvergenzprozessen dieser Technologien. Vor diesem Hintergrund könnte sich vielleicht auch die angetroffene, oft undifferenzierte Verwendung der Kommunikationsmodi – ursprünglich als mangelnde Präzision beklagt – in Zeiten zunehmender Konvergenz sogar als sinnvoll erweisen. Wellman (2004) identifizierte drei "Zeitalter" von Internet-Studien: nach dem Staunen über das "technische Wunder" und der "systematischen Dokumentation von Nutzern und Nutzung" sollte nun eine analytische Phase einsetzen. Zumindest hinsichtlich der Wirkungsfrage scheint die Literaturdurchsicht bislang eher enttäuschend, denn es wurden nur vereinzelt explizite Bezüge zu bestehenden theoretischen Modellen hergestellt. Statt dessen waren viele Beiträge immer noch phänomen-orientiert am Internet und seinen Funktionalitäten ausgerichtet. Doch wenn es hinsichtlich der dritten Phase heißt: "From documentation to analysis" (Wellman 2004: 127), dann lässt sich dieser Prozess durch eine Betrachtung im Zeitverlauf erhellen. Diese verdeutlicht, dass Wirkungsaspekte zu Beginn des Untersuchungszeitraums wenig präsent waren,5 aber dies veränderte sich im Jahr 2002 erheblich, und seither diskutieren regelmäßig fast die Hälfte aller Forschungsbeiträge irgendeine Wirkungsfrage im weiteren Sinn.6
5 6
1999: 14 % der Artikel; 2000: 17 %; 2001: 7 %. 2002: 36 % der Artikel; 2003: 43 %; 2004: 42 %.
Wirkungsmodelle: die digitale Herausforderung revisited
101
Dass dabei die klassischen Wirkungsansätze – mit Ausnahme der Wissenskluft in ihrer zeitgemäßen Variante des Digital Divide – mangels Passgenauigkeit ihrer Konzepte kaum auftauchen (und deswegen das Analyseraster kaum sinnvoll eingesetzt werden konnte), mag aus Sicht der klassischen Medienwirkungsforscher enttäuschen. Umgekehrt gilt dies aber auch, wie die Tatsache belegt, dass "das Internet" von dieser klassischen Forschung genauso wenig beachtet wird. Und schließlich bedeutet dieser Befund keineswegs, dass man der Internet-Wirkungsforschung pauschal eine mangelnde theoretische Fundierung zuschreiben kann. Denn zum einen trägt die Forschung zum Thema Werbewirkungen substanziell zu dem erhöhten Anteil der vergangenen Jahre bei;7 zum anderen scheint bemerkenswert, dass in Studien oft die Erklärung der Nutzung im Vordergrund steht, d.h. die Nutzung des Internet und einzelner Dienste bereits als Wirkung verstanden wird. Die Analysemodelle begreifen also die Online-Nutzung, in klassischen Ansätzen meist eine unabhängige Variable zur Erklärung weitergehender Effekte, eben als eine abhängige Variable. Die Nutzung des Internet (im Gegensatz zu der der klassischen Medien) wird dann bereits als eine wesentliche Wirkung aufgefasst. Verallgemeinernd ließe sich hieraus möglicherweise folgern, die klassischen Ansätze der Medienwirkungsforschung seien in der neuen Kommunikationsumgebung nicht mehr so bedeutend, weil sich die von ihnen modellierten Prozesse inzwischen neu konfiguriert haben. Zwei Indizien zum Thema Realitätskonstruktion, in der Kommunikationswissenschaft klassisch mit Ansätzen wie beispielsweise der Kultivierungsthese untersucht, mögen dies belegen – beide zitiert nach Beiträgen in einer deutschen Sonntagszeitung aus dem Oktober 2006: Zunächst wird über so genannte "Goldfarmen" berichtet, in denen chinesische Jugendliche ihren Lebensunterhalt damit verdienen, "World of Warcraft" zu spielen, um dann die von ihm eingesammelten Trophäen gegen echtes Geld an westliche Spieler zu verkaufen. Recherchen weisen alleine auf rd. 2.000 organisierte Goldfarmen mit 200.000 Mitarbeitern hin, die unter frühkapitalistischen Bedingungen virtuellen Mehrwert schaffen. "Die unwirkliche Welt geht über in etwas Wirkliches, mit dem man sein Leben verdienen kann: ein Leben, das seinerseits nur aus Computerspielen besteht und insofern ganz schön unwirklich ist." (Frankfurter Allgemeine Sonntagszeitung, Nr. 42, 20.10.2006: 29). Ein zweiter Artikel vermeldet, die Nachrichtenagentur Reuters habe jüngst einen Korrespondenten in ein neues Büro geschickt – und das steht in der virtuel7
Hier ist zu beachten, dass es sich bei dem vorgestellten Trend teilweise auch um einen methodischen Artefakt handeln könnte, da die Communication Abstracts seit 2003 u.a. auch das Journal of Advertising Research und das Journal of Current Issues and Research in Advertising erfassen, die beide dem Online-Bereich große Bedeutung zumessen.
102
Patrick Rössler
len Welt des internet-basierten Multi-User-Spiels 'Second Life'. Er berichtet Neuigkeiten aus dieser virtuellen Welt, und zwar für den klassischen Dienst und für einen eigenen Dienst im 'Real Life' (S. 33). Nicht zuletzt solche Herausforderungen verlangen nach neuen Konzepten und Modellen (ganz zu schweigen von zahlreichen ungelösten methodischen Problemen), und es ist keineswegs damit getan, "das Internet" schlicht als weiteres Medienangebot in Medienwirkungsstudien nach dem klassischen Muster aufzunehmen. Es sind tatsächlich, entgegen meiner früheren Annahme, inzwischen neue Hypothesen über Medienwirkungen erforderlich, die die netzbasierte Kommunikation und ihre Spezifika angemessen berücksichtigen und in der Folge vielleicht ein neues Verständnis des Begriffspaars 'Nutzung' und 'Wirkung' erforderlich machen.
Literatur Beck, Klaus/Schweiger, Wolfgang (Hrsg.) (2001): Attention please! Online-Kommunikation und Aufmerksamkeit. Beck, Klaus/Schweiger, Wolfgang/Wirth, Werner (Hrsg.) (2004): Gute Seiten - schlechte Seiten. Qualität in der computervermittelten Kommunikation. Kim, Sung T./Weaver, David (2002): Communication research about the internet: a thematic metaanalysis. In: New Media & Society 4.4. 518-538. Krotz, Friedrich (2001): Die Mediatisierung kommunikativen Handelns. Der Wandel von Alltag und sozialen Beziehungen, Kultur und Gesellschaft durch die Medien. Wiesbaden: Westdeutscher Verlag. Marr, Mirko (2002): Das Ende der Gemeinsamkeiten? Folgen der Internetnutzung für den medialen Thematisierungsprozess. In: Medien & Kommunikationswissenschaft 50.4. 510-532. Preiss, Raymond W./Gayle, Barbara M./Burrell, Nancy/Allen, Mike/Bryant, Jennings (Hrsg.) (2007): Mass Media Effects Research. Advances Through Meta-Analysis. Rössler, Patrick (Hrsg.) (1998a): Online-Kommunikation. Beiträge zu Nutzung und Wirkung. Rössler, Patrick (1998b): Wirkungsmodelle: die digitale Herausforderung. Überlegungen zu einer Inventur bestehender Erklärungsansätze der Medienwirkungsforschung. In: Rössler (Hrsg.) (1998a): 113-139. Rössler, Patrick/Wirth, Werner (Hrsg.) (1999): Glaubwürdigkeit im Internet: Fragestellungen, Modelle, empirische Befunde. Schenk, Michael (2002): Medienwirkungsforschung. 2. vollständig überarbeitete Auflage. Tübingen: Mohr Siebeck. Scherer, Helmut/Schlütz, Daniela (2004): Das neue Medien-Menü: Fernsehen und WWW als funktionale Alternativen? In: Publizistik 49.1. 6-24. Schorr, Angela (Hrsg.) (2000): Publikums- und Wirkungsforschung. Ein Reader.
Wirkungsmodelle: die digitale Herausforderung revisited
103
Schulz, Winfried (Hrsg.) (1992): Medienwirkungen. Einflüsse von Presse, Radio und Fernsehen auf Individuum und Gesellschaft. Weinheim: VCH. Wellman, Barry (2004): The three ages of internet studies: ten, five and zero years ago. In: New Media & Society 6.1. 123-129. Wimmer, Roger D./Dominick, Joseph R. (2000): Mass Media Research: An Introduction. 8. Aufl. Belmont CA: Thomson Wadsworth.
Markt- und Akzeptanzstudien
Mit gebremster Kraft voraus? Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer Oliver Quiring
Einleitung und Problemstellung Interaktives Fernsehen hat in Deutschland einen schweren Stand. Obwohl bereits in den 1960er Jahren Versuche einer aktiven Einbeziehung der Zuschauer unternommen wurden (für eine historische Übersicht, vgl. Woldt 2004), zeugen eine Reihe von fehlgeschlagenen Pilotprojekten (vgl. z.B. Beckert 2004; Kubicek et al. 1998; Ruhrmann/Nieland 1997) von den Schwierigkeiten, potenziellen Nutzern interaktive Fernsehdienste nahe zu bringen. Schon in den 1990er Jahren wurde deshalb vermutet, dass im Kontext des Fernsehens Interaktivität eher nicht erwünscht sei (Brosius 1997; Schönbach 1997). Zwar konnte die kommunikationswissenschaftliche Forschung in Deutschland bisher zeigen, dass neue interaktive Angebote nicht dazu führen, dass die traditionell passive Fernsehnutzung abnimmt (Schönbach 2005). Nach direkten Nachweisen für die Nicht-Nutzung interaktiver Fernsehangebote sucht man jedoch vergeblich. Aus einer Reihe von Akzeptanzstudien (Schenk et al. 2001; Schenk et al. 2002) ergeben sich zwar Hinweise auf eine reservierte Haltung der Nutzer. Bisher liegen jedoch keine repräsentativen Bevölkerungsstudien zu iTV in Deutschland vor. Die meisten Argumente, die gegen eine schnelle Verbreitung interaktiver Elemente auf dem Fernsehsektor vorgebracht werden, sind auf der Angebotsseite zu verorten. Trotz bekannter Hindernisse bauen aber die Anbieter interaktiver Fernsehanwendungen ihr Angebot weiter aus. So erweiterte z.B. die ARD sukzessive ihr Angebot an Diensten auf MHP-Basis1 (vgl. www.ard-digital.de). Der folgende Beitrag nimmt sich dieser Forschungslücke aus Nutzerperspektive an. Auf Basis einer regionalen CATI-Befragung wird ein Überblick über die Bekanntheit ausgewählter interaktiver Anwendungen, die Einstellungen zu
1
MHP bedeutet "Multimedia Home Platform” und ist ein technischer Standard, der Feedback zum Sender ermöglicht, sofern die entsprechenden Endgeräte mit dem Internet verbunden werden (für eine genaue technische Beschreibung vgl. Schäfer 2004).
108
Oliver Quiring
diesen Anwendungen sowie ihre Nutzung, potenzielle Nutzung und Gründe für die Nicht-Nutzung gegeben. Als Untersuchungsgebiet wurde der Raum München (Vorwahlbezirk 089) ausgewählt, weil hier die Umstellung von analogterrestrischem auf digital-terrestrisches Fernsehen bereits im Zeitraum von 31.05.2005 bis 31.08.2005 vollzogen wurde und sich somit für die Befragten prinzipiell die gleichen Zugangsvoraussetzungen ergeben.
Interaktives Fernsehen – drei Arten von Diensten Zwar liegen eine Reihe von Beiträgen zum Konzept der Interaktivität vor (für Überblicke vgl. Kiousis 2002; McMillan 2002; Quiring/Schweiger 2006). Allerdings ist bis heute fraglich, ob der Begriff im Kontext des Fernsehens sinnvoll Anwendung finden kann (vgl. z.B. Beckert 2002; Garling 1997; Jensen 1998; Schrape 1995; Stark 2006). Sieht man von hochgesteckten Ansprüchen, wie denen nach einem "echten" Rückkanal (Kleinsteuber 1994; 1995) aber ab, so lassen sich verschiedene Arten von Diensten identifizieren, die aktuell auf dem deutschen Fernsehmarkt angeboten werden und den Nutzern zumindest einen gewissen Grad an Eigeninitiative ermöglichen. In der gebotenen Kürze ist es unmöglich, einen umfassenden Überblick über alle aktuellen Dienste zu geben, zumal entsprechende Übersichten zum Zeitpunkt der Publikation nicht selten schon veraltet sind (vgl. z.B. Beckert 2004; Hachmeister/Zabel 2004). Deshalb wurden für die Untersuchung Dienste ausgewählt, die verschiedene Entwicklungsstufen interaktiven Fernsehens widerspiegeln. Dienste, wie z.B. das Anrufen in einer Sendung, Mails und SMS an eine Sendung können als Vorstufen interaktiven Fernsehens begriffen werden, da zwar verschiedene Endgeräte (Fernseher, Internet, Telefon, Mobiltelefon) zum Einsatz kommen, aber zumindest Interaktionen im soziologischen Sinne (d.h. wechselseitige Bezugnahme der Interaktionspartner, vgl. Jäckel 1995) möglich sind. Hingegen können Dienste wie Electronic Program Guides, Multiperspektivprogramme (die den Wechsel von Kameraperspektiven anbieten) sowie Personal Video Rekorder (die das Sehen von Sendungen bereits während der Aufnahme ermöglichen) als Weiterentwicklung angesehen werden, weil sie zwar Zusatzgeräte erfordern, aber am Fernsehbildschirm bedient werden können. Sie eröffnen für die Zuschauer zusätzliche Selektionsmöglichkeiten und erfüllen damit zumindest ein Kriterium des Interaktivitätskonzeptes (zum Kriterium der Selektionsoptionen vgl. Goertz 1995). Als weitere Entwicklungsstufe können MHP-basierte Dienste angesehen werden, die per Fernbedienung auf dem Bildschirm zugänglich sind und neben Selektionsoptionen auch (minimale) Modifi-
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
109
kationsoptionen eröffnen (zum Kriterium der Modifikationsoptionen vgl. Goertz 1995). So werden z.B. Mitratenden bei "Das Quiz mit Jörg Pilawa" individuelle Punktestände auf den Bildschirm zurückgespielt und bei MHP-Votings im Presseclub der ARD werden die Abstimmungsergebnisse am Ende der Sendung bekannt gegeben. Insgesamt bietet Fernsehen im Vergleich zu anderen medialen Plattformen − wie z.B. dem Internet − aber nur ein sehr geringes Interaktivitätspotenzial.
Forschungsstand Die meisten gegen eine rasche Verbreitung interaktiver Fernsehangebote vorgebrachten Argumente beziehen sich auf die Angebotsseite. Demnach erschweren technische Probleme, wie z.B. die unterschiedliche Digitalisierbarkeit der verschiedenen Übertragungswege (terrestrisch, Satellit, Kabel2) und fehlende technische Standards3 eine schnelle Verbreitung interaktiven Fernsehens. Nach Angaben des aktuellen Digitalisierungsberichtes konnten Mitte 2005 nur 25,7% der deutschen Haushalte digitales Fernsehen empfangen, wobei durch die sukzessive Umstellung der terrestrischen Übertragung auf DVB-T (Digital Video Broadcasting) in den nächsten Jahren eine Besserung zu erwarten ist (vgl. z.B. Hans-Bredow-Institut 2006). Über die Verbreitung MHP-fähiger Endgeräte liegen keinerlei Daten vor. Aktuelle Schätzungen gehen davon aus, dass nur jeder tausendste verkaufte Digitalreceiver MHP-fähig sei (Digitalfernsehen 2006). Ferner sprechen auch ökonomische Gründe dafür, interaktives Fernsehen nur mit gebremster Kraft auszubauen. So lange nicht klar ist, ob sich neue Dienste rechnen, wird von den Anbietern nur zögerlich investiert (Beckert 2004). Dies gilt umso mehr, als bereits etablierte Transaktionsdienste (wie z.B. Homeshopping) und Anrufdienste (wie z.B. bei NeunLive) gute Umsätze erwirtschaften (vgl. Goldhammer/Wiegand 2004; Hachmeister/Zabel 2004). Schließlich lassen sich auch angebotsstrukturelle Diffusionshindernisse finden. Viele Dienste sind an den Besitz teuerer Set-Top-Boxen (Clement et al. 2005) bzw. Abonnements gebunden, deren Anschaffung nur wenig lohnenswert er2
Wobei speziell die Digitalisierung des Kabelnetzes Probleme aufwirft, da hier die Interessen der verschiedenen Betreiber der vier verschiedenen Kabelnetzebenen auf einen Nenner gebracht werden müssen (Clement et al. 2005)
3
So konnte sich MHP trotz der "Mainzer Erklärung" aus dem Jahr 2001, in der sich die öffentlich-rechtlichen und privaten Sender sowie die Landesmedienanstalten auf diesen Standard festlegten, noch immer nicht komplett bei den Anbietern durchsetzen (Thaenert/Hege 2006: 27).
110
Oliver Quiring
scheint, da in Deutschland vergleichsweise viele Programme frei erhältlich sind (Beckert 2004). Forschung aus der Nutzerperspektive fand bisher vorrangig unter dem Aspekt der Akzeptanz bzw. Diffusion neuer Dienste statt. Dabei wurden Akzeptanzfaktoren wie z.B. das Wissen um interaktives Fernsehen (Berghaus 1995; Schenk et al. 2002), Primärerfahrungen, die Zufriedenheit mit bestehenden Alternativen, die Einstellung zu interaktivem Fernsehen, das Zeitbudget (Dahm et al. 1998), das Preis-/Leistungsverhältnis (Schenk et al. 2001) und die Nutzungsdauer (Schenk et al. 2002) als entscheidende Determinanten ermittelt. Allerdings umfassten alle genannten Studien nur enge Personenkreise und orientierten sich vorrangig (mit Ausnahme von Berghaus 1995) an digitalem Fernsehen, wobei interaktive Elemente eine untergeordnete Rolle spielen. Dabei wurden entweder relativ kleine Samples qualitativ (Berghaus 1995) oder tatsächliche Nutzer digitalen Fernsehens (Stark 2006), an digitalem Fernsehen Interessierte (Dahm et al. 1998) oder nach dem Screening-Verfahren ermittelte Samples aus Nutzern, Interessierten und Nicht-Nutzern (Schenk et al. 2001; Schenk et al. 2002) standardisiert befragt. Über die tatsächliche Nutzung interaktiver Fernsehdienste in der Bevölkerung lassen sich aufgrund der Untersuchungsdesigns nur recht eingeschränkte Erkenntnisse gewinnen.
Forschungsfragen und Hintergrund Die folgende Studie kann diese Forschungslücke nur teilweise schließen. Da der digitale Switch-over von analog-terrestrischem auf digital-terrestrisches Fernsehen aktuell im Gange ist, bieten nicht alle Regionen in Deutschland die gleichen Zugangsvoraussetzungen zu digitalem Fernsehen, das eine wesentliche Voraussetzung für die Nutzung vieler interaktiver Fernsehdienste darstellt. Erstens sind einige Sender, die dem Zuschauer ein Angebot zur Interaktion machen (z.B. NeunLive, HSE und QVC) analog-terrestrisch nicht zu empfangen. Zweitens setzen auch Electronic Program Guides, Multiperspektivprogramme und MHPDienste digitales Fernsehen voraus. Um die Zugangsvoraussetzungen bei den Befragten möglichst gleich zu halten, wurde deshalb die Region München ausgewählt, in der der digitale Switch-over bereits von 31.05.2005 bis 31.08.2005 stattgefunden hat. Die Ergebnisse haben somit nur eine regional begrenzte, zeitlich gebundene Gültigkeit und können nur grobe Anhaltspunkte dafür liefern, wie sich interaktives Fernsehen in Deutschland entwickelt, da sich trefflich darüber streiten ließe, ob der Ballungsraum München als typisches Beispiel für andere Regionen dienen kann.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
111
Trotz der regionalen und zeitlichen Beschränkung lassen sich aber erste Erkenntnisse über die Annahme interaktiver Dienste und mögliche Annahmeverweigerungsgründe gewinnen. Die einzelnen Dienste können dabei jeweils als technische Innovation betrachtet werden. Da es sich um eine Querschnittstudie handelt, können keine stichhaltigen Aussagen zur Diffusion (d.h. zur zeitlichen Entwicklung der Verbreitung) einzelner Dienste, sondern nur zum Stand der Adoption (Rogers 2003: 168ff.) im Untersuchungsgebiet getroffen werden. Der individuelle Adoptionsprozess vollzieht sich nach der Diffusionstheorie idealtypisch über die fünf Stufen "knowledge", "persuasion", "decision", "implementation" und "confirmation (Rogers 2003: 170). In der knowledge-Phase erfahren die potenziellen Nutzer von der Innovation und erwerben Wissen, in der persuasions-Phase findet die Einstellungsbildung statt. Schließlich arbeitet das Individuum aktiv auf eine Entscheidung (decision) hin, beginnt die Innovation zu nutzen (implementation) und sucht schließlich nach Informationen, die die Entscheidung bestätigen oder zu einer Zurückweisung führen (confirmation). Da mithilfe von Querschnittdesigns dieser Prozess nicht abgebildet werden kann, wird teilweise auf eine verkürzte Operationalisierung zurückgegriffen und nur zu einem Zeitpunkt nach Bekanntheit (knowledge), Einstellung (attitude) und Nutzung (practice) gefragt (Rogers 2003: 68). Die folgende Ergebnisdarstellung orientiert sich an dieser relativ simplen Vorgehensweise. Da bisher nur wenig Datenmaterial zur Adoption von interaktiven Fernsehdiensten vorliegt, erscheint aber auch schon ein kurzer Überblick gewinnbringend. Die entsprechenden Forschungsfragen lauten: Wie bekannt sind verschiedene interaktive Fernsehdienste, welche Einstellungen zu diesen Diensten herrschen vor und wie häufig werden sie genutzt? Da nach aktuellem Erkenntnisstand mit einer recht eingeschränkten Nutzung zu rechnen ist, wurde a) zusätzlich danach gefragt, wie häufig Personen, die die jeweiligen Dienste nicht kennen (aber in der Befragung kurz beschrieben bekamen; für den Wortlaut der Fragen vgl. die Legende von Tab. 1), diese nutzen würden und b) welche Gründe für die Nicht-Nutzung bei Personen vorliegen, die angeben, die jeweiligen Dienste zu kennen, aber nicht zu nutzen. Als Untersuchungsgegenstände wurden die bereits unter Abschnitt 2 beschriebenen Dienste ausgewählt und um einen Dienst ergänzt, der aktuell in Deutschland nicht angeboten wird: Shopping per Fernbedienung. Dieser Dienst wurde bewusst in die Untersuchung aufgenommen, um einen Indikator für die Validität der Ergebnisse zu schaffen.
112
Oliver Quiring
Untersuchungsanlage Zur Beantwortung der genannten Fragen wurde im Zeitraum von 28.06.2006 bis 28.07.2006 im Vorwahlbezirk 089 (Gebiet München) eine CATI-Befragung mit Personen zwischen 14 und 65 Jahren durchgeführt. Dafür kamen 5.250 Ausgangs-Telefonnummern zum Einsatz, die von ZUMA (Zentrum für Umfragen, Methoden und Analysen) bereitgestellt wurden4. Die Auswahl der Zielpersonen in den jeweiligen Haushalten wurde per Last-Birthday-Methode (vgl. Brosius/Koschel 2005: 120) vorgenommen. 3.166 Nummern waren nicht freigeschaltet, Faxnummern oder Geschäftsanschlüsse. Bei 246 Anschlüssen passte keine der im Haushalt lebenden Personen in die Zielpopulation. Die Nettostichprobe umfasst folglich 1.838 Nummern. Von diesen Nummern konnten trotz 20 Anwählversuchen 379 nicht erreicht werden (209: dauerhaft Freizeichen; 16: dauerhaft besetzt; 154: dauerhaft Anrufbeantworter). 1.056 Personen verweigerten und 403 Befragte beantworteten alle Fragen vollständig. Ein Befragter wurde aus dem Datensatz entfernt, da Konsistenzprüfungen ergaben, dass offensichtlich falsche Angaben gemacht wurden. Damit ergibt sich ein Nettosample von 402 Befragten und eine sehr konservativ geschätzte Ausschöpfungsquote der Nettostichprobe von 22 Prozent5. Diese Quote kann nun keineswegs als befriedigend angesehen werden. Es ist davon auszugehen, dass sie unter anderem auf die relativ hohe Befragungsfrequenz innerhalb Münchens zurückzuführen ist. Ein Vergleich zwischen den Soziodemographika der Stichprobe und statistischen Daten der Stadt München bzw. Mikrozensusdaten zeigt ferner, dass sowohl Frauen als auch kleinere Haushalte, Befragte mittleren Alters und höher Gebildete überrepräsentiert sind. Alle im Ergebnisteil präsentierten Daten sind nach Alter, Geschlecht, Haushaltsgröße (Bevölkerungsstatistik München; Stand 31.12.2005) und Bildung (Mikrozensus; Stand 31.12.2005) gewichtet. Aufgrund der genannten Probleme sind die Ergebnisse vorsichtig zu interpretieren und können lediglich eine grobe Richtung vorgeben.
4
ZUMA trägt keinerlei Verantwortung für die Erhebung, Analyse oder Interpretation der Daten, sondern stellte lediglich die Telefonnummern bereit.
5
Hinter einer Reihe freigeschalteter Nummern und Anrufbeantworter verbergen sich keine Teilnehmer. Einige Telefonanbieter schalten Nummern und digitale Anrufbeantworter frei, bevor Teilnehmer bereitstehen bzw. schließen Nummern nach der Abmeldung nicht. Gabler und Häder ermittelten in einem Experiment einen Anteil von 14% der gewählten Nummern mit Freizeichen, bei denen sich nicht ermitteln ließ, ob tatsächlich Teilnehmer erreichbar gewesen wären (Gabler/Häder 2002). Zusätzlich lässt sich nicht definitiv klären, wie viele Anrufbeantworter ohne entsprechende Teilnehmer freigeschalten waren, was insgesamt zu einer deutlichen Unterschätzung der Ausschöpfungsquote führt.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
113
Ergebnisse Die Bekanntheit einzelner Dienste stellt eine unabdingbare Voraussetzung für die Nutzung dieser Dienste dar. Um hierüber Auskunft zu bekommen, wurde nicht nur nach einschlägigen Begriffen gefragt, sondern die jeweiligen Optionen in der Frage kurz angesprochen (vgl. Legende von Tab. 1). Wie Tab. 1 zeigt, sind die verschiedenen Dienste zwar in unterschiedlichem Maße bekannt. Völlig unbekannte Dienste lassen sich jedoch nicht finden. Klassische Interaktionsoptionen, wie in einer Sendung anzurufen bzw. eine SMS oder Mail zu schicken, sind dem Großteil der Münchner bewusst. Auch Personal Video Rekorder erfreuen sich relativ hoher Bekanntheit, haben doch immerhin deutlich mehr als zwei Drittel schon von dieser Option gehört. Weniger, aber fast der Hälfte der Münchner bekannt sind Electronic Program Guides und Multiperspektivprogramme (Wechsel der Kameraperspektiven). Völlig überraschend erscheint die durchwegs hohe Bekanntheit von MHP-Diensten, die per Fernbedienung gesteuert werden, was auf den ersten Blick skeptisch gegenüber den Daten stimmt. Prinzipiell bestehen hier folgende Möglichkeiten: a) die Daten geben den tatsächlichen Stand der Bekanntheit wieder; b) je neuartiger die Dienste, desto höher ist die Tendenz, sozial erwünscht zu antworten, um informiert zu erscheinen; c) die erfragten Dienste sind zwar nicht aus unmittelbarer Anschauung bekannt, aber gut vorstellbar; d) die Dienste wurden mit anderen, bereits bestehenden verwechselt (was besonders bei der Frage nach Shopping per Fernbedienung nahe liegt, die leicht Assoziationen zu bestehenden HomeshoppingSendungen wecken könnte). Allerdings ergeben sich aus den restlichen Ergebnissen Hinweise darauf, dass die Befragten in einem gewissen Maße konsistent antworteten. Zwar gaben viele Befragte an, den bewusst in die Studie aufgenommenen und in Deutschland nicht existierenden Dienst "Shopping per Fernbedienung" zu kennen, aber keiner, ihn zu nutzen. Ferner liegen die Nutzungszahlen für alle MHP-Dienste selbst dann, wenn man nur errechnet, wer den entsprechenden Dienst überhaupt schon genutzt hat (FB-Shopping: 0%, Quiz: 6,2% und Voting: 6,7%) deutlich unter dem Anteil derer, die über ein MHP-fähiges Endgerät verfügen (8,6%)6. Insgesamt lässt sich jedoch nicht ausschließen, dass mit zunehmender Neuartigkeit der Dienste sozial erwünscht geantwortet wurde und die Bekanntheit der Dienste durch die Befragung insgesamt überschätzt wird.
6
Frage: "Haben Sie ein MHP-fähiges Fernsehgerät? MHP heißt Multimedia Home Platform und ist ein neuer technischer Standard"; (Antwortmöglichkeiten: 0=nein, 1= ja, 9=weiss nicht, 99=KA).
114 Tab. 1:
Oliver Quiring
Bekanntheit, Nutzung, potenzielle Nutzung und Einstellung zu verschiedenen interaktiven Anwendungen (nach Gewichtung)
iTVAnwendung Anrufen SMS schicken Mailen PVR Kameraperspektiven EPG FB-Shopping FB-Quiz FB-Voting
Bekannt in %1
Nutzung bei Kenntnis in %2
88,5 80,1 71,0 70,8 48,0 46,6 58,2 42,9 40,2
0,5 2,2 1,9 14,8 15,5 15,0 1,8 1,9
"Potenzielle" Nutzung bei Nichtkenntnis in %3 14,8 9,1 11,4 20,0 38,0 23,7 6,4 15,6 26,6
Einstellung MW4 3,0 (SD = 1,1) 2,9 (SD = 1,1) 3,5 (SD = 1,0) 4,2 (SD = 0,8) 3,9 (SD = 1,0) 3,6 (SD = 1,1) 2,7 (SD = 1,2) 3,2 (SD = 1,1) 3,5 (SD = 1,1)
1 Frage: "Das Fernsehen eröffnet ja zur Zeit eine Reihe neuer Möglichkeiten, die man nicht unbedingt alle kennen kann. Ich werde Ihnen nun eine Reihe dieser Möglichkeiten nennen. Man kann beispielweise......während einer Live-Sendung beim Sender anrufen (Wie das z.B. bei 9live oder der Wahl des Wettkönigs bei "Wetten dass" der Fall ist). ...eine SMS an eine Fernsehsendung schicken (z.B. um Grüße oder Kommentare zu schicken); ...eine Email an eine Fernsehsendung schicken (z.B. um an einem Gewinnspiel teilzunehmen oder Ihre Meinung zur Sendung zu äußern); ...eine Fernsehsendung aufnehmen und bereits zu sehen beginnen, während die Sendung noch läuft. Der Rekorder nimmt dann weiter auf. Dazu braucht man einen Festplattenrecorder, auch Personal Video Rekorder genannt; ...die Kameraperspektiven bei einem Fußballspiel oder einem Formel1 Rennen mit der Fernbedienung selbst auswählen (wie das z.B. bei Premiere möglich ist); ...mit der Fernbedienung sein eigenes Programm am Bildschirm zusammenstellen und einprogrammieren. Das geht schon Wochen im voraus mit einem sog. "Elektronischen Programmführer"; ...per Tastendruck auf der Fernbedienung bei Shoppingsendungen einkaufen.; ...per Tastendruck auf der Fernbedienung bei Quizshows oder Gewinnspielen live mitspielen (z.B. bei der Sendung "Das Quiz" mit Jörg Pilawa mitraten); ...per Tastendruck auf der Fernbedienung in Live-Sendungen abstimmen. Die Ergebnisse werden eingeblendet (z.B. in der Sendung Presseclub abstimmen)"; Basis (n): alle Befragten. 2 Frage: "Wie häufig nutzen Sie diese Möglichkeit?" (Antwortmöglichkeiten: fast täglich, mehrmals pro Woche, mehrmals pro Monat, seltener, nie); Basis (n): alle Befragten, die angaben, den Dienst zu kennen und zumindest mehrmals pro Monat zu nutzen (kumulierte Häufigkeiten aus fast täglich, mehrmals pro Woche, mehrmals pro Monat). 3 Frage: Wie häufig würden sie diese Möglichkeit nutzen, wenn sie die Chance dazu hätten? (Antwortmöglichkeiten: fast täglich, mehrmals pro Woche, mehrmals pro Monat, seltener, nie); Basis (n): alle Befragten, die angaben, den Dienst nicht zu kennen, aber mindestens mehrmals pro Monat nutzen zu wollen (kumulierte Häufigkeiten aus fast täglich, mehrmals pro Woche, mehrmals pro Monat). 4 Frage: Wie gut finden Sie diese Möglichkeit prinzipiell? (Antwortmöglichkeiten: 1=sehr schlecht, 2=eher schlecht, 3=teils/teils, 4=eher gut, 5=sehr gut); Basis (n): alle Befragten, die sich waren, ihre Einstellung zu dem entsprechenden Dienst zu äußern; MW = Mittelwert; SD = Standardabweichung). Basis: alle Befragten. Alle Prozentangaben gewichtet nach Alter, Haushaltsgröße, Geschlecht (Sozialstatistik der Stadt München) und Bildung (Mikrozensus).
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
115
Betrachtet man hingegen nur den Anteil derer, die interaktive Fernsehdienste kennen und regelmäßig nutzen (d.h. mehrmals pro Monat7, vgl. Tab. 1, Spalte 2), so zeigt sich eine offensichtliche Diskrepanz zwischen Bekanntheit und Nutzung. Obwohl Interaktionsdienste wie Anrufen, SMS schicken und Mailen weithin bekannt sind, werden sie kaum genutzt. Auch hier besteht natürlich die Gefahr, dass die Befragung aufgrund sozialer Erwünschtheit das wahre Ausmaß der Nutzung dieser Dienste tendenziell unterschätzt, während das der Nutzung neuerer Dienste überschätzt wird. Prinzipiell haben bei einer Telefonbefragung die Befragten aber nur wenig Grund dazu, gegenüber ihnen unbekannten Interviewern soziale erwünschte Antworten zu geben. Der größten Beliebtheit erfreuen sich Dienste, die ihren Nutzern zusätzliche Selektionsoptionen eröffnen (PVR, EPG, Multiperspektivprogramme). An dieser Stelle lässt sich nur über die weitere Entwicklung spekulieren. Jedoch liegt die regelmäßige Nutzung aller drei untersuchten Dienste in einem Bereich, der sich zumindest dem theoretischen "Take-off"-Bereich von Innovationen (Schenk 2002: 387ff.) nähert. Hier wird sich in den nächsten Jahren zeigen müssen, ob diese Hürde genommen wird. Ebenso lässt sich wenig über die zukünftige Nutzung von MHPbasierten Diensten aussagen. Zum Zeitpunkt der Erhebung überschritt die regelmäßige Nutzung dieser Dienste gerade die Messbarkeitsschwelle. Ein durchaus übliches Verfahren, das Potenzial neuer Dienste bestimmen zu wollen, besteht darin, hypothetische Fragen zur Nutzungsintention zu stellen. Auch in der vorliegenden Studie wurden alle Befragten, die einzelne Dienste nicht kannten (aber beschrieben bekamen), danach gefragt, wie häufig sie diese nutzen würden, wenn sie die Möglichkeit dazu hätten. Die Ergebnisse zeigen durchwegs eine hohe Diskrepanz zwischen tatsächlicher Nutzung (Spalte 2) und "potenzieller" Nutzung (Nutzungsintention, vgl. Spalte 3). Die so ermittelten Anteile dürfen aber keinesfalls als "echtes" Potenzial missverstanden werden. Vergleicht man nämlich die tatsächliche Nutzung bereits seit langem eingeführter Dienste (Zeile 1 bis 3) mit den angegebenen Nutzungsintentionen, so gibt es keinen plausiblen Grund dafür, warum Personen, die hinsichtlich ihres Kenntnisstandes deutlich hinter dem anderer Personen zurückliegen, "alte" Dienste in Zukunft überproportional nutzen sollten. Die Ergebnisse zeigen vielmehr, dass die Frageform dazu führt, das tatsächliche Potenzial bei weitem zu überschätzen, was bei Potenzialanalysen, die auf Fragen zur Nutzungsintention beruhen, grundsätzlich skeptisch stimmen sollte. 7
Unter "regelmäßigen Nutzern" werden alle Personen verstanden, die die einzelnen Dienste mindestens "mehrmals pro Monat" nutzen. Eine seltenere Nutzung kann keine Hinweise auf die Adoption von Diensten geben, weil nicht klar ist, ob die angesprochenen Dienste unter Umständen nur einmalig genutzt und dann abgelehnt wurden.
116
Oliver Quiring
Schließlich spiegeln auch die auf einer fünfstufigen Skala erhobenen Einstellungen (von 1= sehr gut bis 5 = sehr schlecht) eine gewisse Indifferenz der Münchner gegenüber interaktiven Fernsehdiensten wieder. Die meisten Dienste bewegen sich hier um die Skalenmitte, wobei Personal Video Rekorder und Multiperspektivprogramme deutlich positiv auffallen. Noch deutlichere Hinweise auf eine breite Indifferenz gegenüber interaktiven Fernsehdiensten lassen sich gewinnen, wenn man Personen, die zwar Kenntnis über einzelne Dienste haben, aber diese nicht nutzen, nach den Gründen für die Nicht-Nutzung fragt (vgl. Tab. 2). Tab. 2:
Ablehnungsgründe1 (Mehrfachantworten, gewichtet)
Anwendung Anruf SMS Mail PVR Kamera EPG Shopp. Quiz Voting weil… es für mich unnö84,6 85,2 84,5 35,9 42,9 60,9 78,2 73,5 78,4 tig ist es mir zu teuer ist 52,3 43,6 10,3 13,3 15,9 11,4 15,9 22,7 14,1 ich das Gerät dazu 6,6 7,6 74,9 55,1 40,0 23,2 22,1 21,6 nicht besitze es für mich zu 8,9 10,9 9,6 4,8 10,4 15,6 6,2 7,4 7,2 kompliziert ist ich nicht weiß, 3,0 4,4 3,8 3,5 1,8 15,0 11,3 13,3 7,1 wie es funktioniert ich nichts falsch 4,7 4,9 4,8 0,3 2,3 2,8 3,2 1,0 8,4 machen möchte ich niemanden 3,0 3,3 2,9 0,5 2,4 6,5 1,2 2,8 4,6 kenne, der mir dabei helfen kann ich der neuen 6,5 4,9 4,1 0,3 1,1 4,7 10,1 3,3 7,0 Technik nicht vertraue 1 Frage: "Sie haben uns gesagt, dass sie diese Möglichkeit kennen aber nicht nutzen. Ich lese Ihnen nun eine Reihe von Gründen vor, warum dies der Fall sein könnte. Bitte sagen sie mir, ob die jeweiligen Gründe auf Sie zutreffen". Basis: alle Befragten, die angaben, die entsprechende Anwendung zu kennen, aber nicht zu nutzen. Alle Prozentangaben gewichtet nach Alter, Haushaltsgröße, Geschlecht (Sozialstatistik der Stadt München) und Bildung (Mikrozensus).
Die angegebenen Items stammen aus einem Pretest mit 30 Personen, in der Ablehnungsgründe offen erfasst und anschließend verdichtet wurden. Der durchschnittlich am häufigsten angegebene Grund "weil es für mich unnötig ist", stellt zwar keine besonders qualifizierte Aussage dar, spiegelt aber anschaulich die Grundhaltung vieler Befragter wieder. Ihnen scheint das vorhandene Angebot zu reichen und der Anreiz, sich mit neuen Diensten eingehender zu
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
117
beschäftigen, ist nicht besonders groß. Eine Ausnahme bilden Multiperspektivprogramme und Personal Video Rekorder. Hier ist der meistgenannte Grund "weil ich das Gerät dazu nicht besitze". Auch aus dieser Antwort lässt sich eine gewisse Saturiertheit der potenziellen Nutzer ablesen. Zwar sind für die Nutzung beider Dienste Zusatzgeräte zu beschaffen, zu teuer sind diese Geräte aber nur einem vergleichsweise kleinem Anteil der Münchner (vgl. Zeilen darüber). Eher bedeutet die Beschaffung dieser Geräte einen zusätzlichen Aufwand, der nicht ohne guten Grund betrieben wird. Hohe Kosten werden eher mit klassischen Interaktionsdiensten wie Anruf und SMS verbunden. Betrachtet man die weiteren Gründe für eine Zurückweisung der untersuchten Dienste, so stützen diese die bisherige Argumentation. Nur wenige Befragte äußern Bedenken, sie könnten mit der neuen Technik nicht zurecht kommen ("weil es für mich zu kompliziert ist, ...ich nicht weiß, wie es funktioniert, ... ich nichts falsch machen möchte) bzw. keine Hilfe von anderen bei der Inbetriebnahme erwarten. Ebenso spielt grundsätzliche Skepsis gegenüber neuen Diensten ("weil ich der neuen Technik nicht vertraue") nur für einen kleinen Teil der Münchner eine nennenswerte Rolle. Der interessanteste Aspekt der Zahlen in Tab. 2 erschließt sich nur indirekt. So halten z.B. 22,7 respektive 14,1 Prozent der Münchner das Mitraten bei Quizshows bzw. das Abstimmen per Fernbedienung für zu teuer. Die einzigen zum Zeitpunkt der Befragung auf dem deutschen Markt frei zugänglichen Dienste (d.h. ohne Abonnement eines Digitalanbieters), die diese Möglichkeiten eröffneten, nämlich die von ARD-Digital, werden kostenfrei angeboten. Ferner scheint nur einem kleinen Teil der Münchner bewusst zu sein, dass sie gar nicht über die adäquate Geräteausstattung verfügen, um MHP-Dienste nutzen zu können (knapp über 20 Prozent gaben bei Quizshows und Voting per Fernbedienung an, nicht über das entsprechende Gerät zu verfügen; verglichen mit dem Anteil von 8,6 Prozent, der nach den oben angesprochenen Ergebnissen MHPfähige Endgeräte besitzt, fällt dieser Anteil deutlich zu klein aus). Hier zeigt sich deutlich, dass "Bekanntheit" nicht mit "Wissen" gleichgesetzt werden kann. Es zeigt sich aber auch, dass nur wenige bereit waren, sich das nötige Wissen aktiv anzueignen.
Schluss Die präsentierte Studie hat sicherlich deutliche Limitationen. So musste eine regionale und zeitliche Beschränkung in Kauf genommen werden. Nur durch Vergleichsstudien an anderen Standorten und entsprechende Wiederholungsstu-
118
Oliver Quiring
dien ließe sich ein deutlich aussagekräftiger Einblick in die Dynamik interaktiver Fernsehnutzung in Deutschland gewinnen. In der Gesamtschau geben die Ergebnisse jedoch Hinweise darauf, dass interaktives Fernsehen neben zahlreichen bekannten angebotsseitigen Hindernissen auch mit der Ungerührtheit der potenziellen Nutzer zu kämpfen hat. Viele Dienste sind zwar leidlich bekannt, werden aber kaum genutzt. Will man die Gründe dafür zusammenfassen, so gewinnt man den Eindruck, dass ein Großteil der Befragten diesen Diensten indifferent bis uninteressiert gegenübersteht. Ob dies an der Qualität der Dienste oder anderen Gründen liegt, kann an dieser Stelle nicht abschließend bewertet werden. Sollte eine Forcierung der Entwicklung interaktiven Fernsehens erwünscht sein, bieten die Ergebnisse dennoch einen Anhaltspunkt: Wie sich indirekt erschließen lässt, kennen zwar viele Personen interaktive Fernsehdienste, sie kennen sich aber nicht wirklich aus. Von den potenziellen Nutzern kann nun kaum erwartet werden, dass sie sich bei jedem neuen Dienst, der auf dem Markt erscheint und für sich genommen jedes Mal neues Wissen erfordert, aktiv informieren. Hier wäre es ratsam, Informationen stärker mithilfe klassischer Informationskanäle (Massenmedien) zu verbreiten, um in einem ersten Schritt eine ausreichende Wissensbasis zu schaffen. So konnten z.B. Weber und Evans (2002) zeigen, dass die Berichterstattung in klassischen Print- und elektronischen Medien interaktivem Fernsehen in Großbritannien eine gute Ausgangsbasis verschaffen konnte. Fraglich ist nur, ob die stetig wachsende Fülle an Kommunikationsdiensten auch kommunizierbar ist.
Literatur Beckert, Bernd (2002): Medienpolitische Strategien für das interaktive Fernsehen - eine vergleichende Implementationsanalyse. Wiesbaden: Westdeutscher Verlag. Beckert, Bernd (2004): Interaktives Fernsehen in Deutschland - Stand und Perspektiven neuer Medienangebote im Schnittfeld von TV und Online. In: Friedrichsen (Hrsg.) (2004): 109141. Berghaus, Margot (1995): Zuschauer für interaktives Fernsehen. Ergebnisse einer qualitativen Befragung. In: Rundfunk und Fernsehen 43.4. 506-517. Brosius, Hans-Bernd (1997): Multimedia und digitales Fernsehen: Ist eine Neuausrichtung kommunikationswissenschaftlicher Forschung notwendig? In: Publizistik 42.1. 37-45. Brosius, Hans-Bernd/Koschel, Friederieke (2005): Methoden der empirischen Kommunikationsforschung. Eine Einführung. Wiesbaden: Verlag für Sozialwissenschaften. Clement, Michel/Schneider, Holger/Albers, Sönke (2005): Status Quo des Digitalen Fernsehens in Deutschland. In: MedienWirtschaft 2.1. 1-12.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
119
Dahm, Hermann/Rössler, Patrick/Schenk, Michael (1998): Vom Zuschauer zum Anwender. Akzeptanz und Folgen digitaler Fernsehdienste. München: Fischer. Digitalfernsehen (2006): Interaktives TV mit Startschwierigkeiten. Online: http://www.digitalfernsehen.de/news/news_110153.html (abgerufen am: 10.10.2006). Friedrichsen, Mike (Hrsg.) (2004): Kommerz - Kommunikation - Konsum. Zur Zukunft des Fernsehens. Baden-Baden: Nomos Verlagsgesellschaft. Gabler, Siegfried/Häder, Sabine (2002): Idiosyncrasies in Telephone Sampling – The Case of Germany. In: International Journal of Public Opinion Research 14.3. 339-345. Garling, Jens (1997): Interaktives Fernsehen in Deutschland. Frankfurt am Main u.a.: Europäische Hochschulschriften. Goertz, Lutz (1995): Wie interaktiv sind Medien? Auf dem Weg zu einer Definition von Interaktivität. In: Rundfunk und Fernsehen 43.4. 477-493. Goldhammer, Klaus/Wiegand, André (2004): Transaktionsfernsehen in Deutschland. In: Friedrichsen (Hrsg.) (2004): 225-240. Hachmeister, Lutz/Zabel, Christian (2004): Das interaktive Fernsehen und seine Zuschauer. In: zu Salm (Hrsg.) (2004): 145-169. Hans-Bredow-Institut (2006): EU- Strategien für den Analogue-Switch-Off in Europa. In: DocuWatch Digitales Fernsehen 2. 11-12. Jäckel, Michael (1995): Interaktion. Soziologische Anmerkungen zu einem Begriff. In: Rundfunk und Fernsehen 43.4. 463-476. Jensen, Jens F. (1998): 'Interactivity'. Tracking a New Concept in Media and Communication Studies. In: Nordicom Review 19.1. 185-204. Kiousis, Spiro (2002): Interactivity: a Concept Explication. In: New Media & Society 4.3. 355-383. Kleinsteuber, Hans J. (1994): Der Mythos vom Rückkanal. Technische Phantasien und politische Funktionalisierungen in der Kabelfernsehdebatte der 70er Jahre. In: Medium 24.4. 59-62. Kleinsteuber, Hans J. (1995): Der Mythos vom Rückkanal. Technische Phantasien und politische Funktionalisierungen in der Kabelfernsehdebatte der 70er Jahre. In: Medium 25.1. 59-62. Kubicek, Herbert/Beckert, Bernd/Sarkar, Ranjana (1998): Synopse nationaler und internationaler Mulitmediaprojekte. Düsseldorf: Landesanstalt für Rundfunk Nordrhein-Westfalen. Lievrouw, Leah A./Livingstone, Sonia (Hrsg.) (2002): Handbook of New Media. Social Shaping and Consequences of ICTs. McMillan, Sally J. (2002): Exploring Models of Interactivity from Multiple Research Traditions: User, Documents and Systems. In: Lievrouw/Livingstone (Hrsg.) (2002): 163-182. Quiring, Oliver/Schweiger, Wolfgang (2006): Interaktivität - Ten Years After. Bestandsaufnahme und Analyserahmen. In: Medien & Kommunikationswissenschaft 54.1. 5-24. Rogers, Everett M. (2003): Diffusion of Innovations. Fifth Edition. New York: Free Press. Rössler, Patrick/Krotz, Friedrich (Hrsg.) (2005): Mythen der Mediengesellschaft. Konstanz: UVK Verlags GmbH.
120
Oliver Quiring
Ruhrmann, Georg/Nieland, Jörg-Uwe (1997): Interaktives Fernsehen: Entwicklung, Dimension, Fragen, Thesen. Opladen: Westdeutscher Verlag. Schäfer, Rainer (2004): Technische Grundlagen und Trends des interaktiven Fernsehens. In: zu Salm (Hrsg.) (2004): 65-90. Schenk, Michael (2002): Medienwirkungsforschung. 2. vollständig überarbeitete Auflage. Tübingen: Mohr Siebeck. Schenk, Michael/Döbler, Thomas/Stark, Birgit (2002): Marktchancen des digitalen Fernsehens. Akzeptanz und Nutzung von Pay-TV und neuen Diensten. Opladen: Westdeutscher Verlag. Schenk, Michael/Stark, Michael/Döbler, Thomas/Mühlenfeld, Hans-Ulrich (2001): Nutzung und Akzeptanz des digitalen Pay-TV in Deutschland. In: Media Perspektiven 4. 220-234. Schönbach, Klaus (1997): Das hyperaktive Publikum - Essay über eine Illusion. In: Publizistik 42.3. 279-286. Schönbach, Klaus (2005): The Hyperactive Audience - Still an Illusion. An Essay, "Revisited". In: Rössler/Krotz (Hrsg.) (2005): 267-277. Schrape, Klaus (1995): Digitales Fernsehen. Marktchancen und ordnungspolitischer Regelungsbedarf. München: Verlag Reinhard Fischer. Stark, Birgit (2006): Fernsehen in digitalen Medienumgebungen. Eine empirische Analyse des Zuschauerverhaltens. München: Verlag Reinhard Fischer. Thaenert, Wolfgang/Hege, Hans (2006): Digitalisierungsbericht 2005. Berlin: Vistas. Weber, Ian/Evans, Vanessa (2002): Constructing the Meaning of Digital Television in Britain, the United States and Australia. In: New Media & Society 4.4. 435-456. Woldt, Runar (2004): Interaktives Fernsehen - große Potenzial, unklare Perspektiven. In: Media Perspektiven 7. 301-309. zu Salm, Christiane (Hrsg.) (2004): Zaubermaschine interaktives Fernsehen? TV-Zukunft zwischen Blütenträumen und Businessmodellen. Wiesbaden: Gabler.
Online-Rubriken als Innovationen in der Marktkommunikation – Strukturwandel im Anzeigengeschäft Castulus Kolo
Rubrikenanzeigen tragen wesentlich zu den Erlösen von Zeitungsverlagen bei und stellen ein wichtiges Instrument der Marktkommunikation dar. Neue Online-Angebote versprechen eine Effizienzsteigerung des gesamten Marktprozesses durch die Vermeidung von Medienbrüchen und treten zunehmend in den Wettbewerb zu Print. Die vorliegende Analyse am Beispiel der Märkte für Stellen, Immobilien und Kfz trennt Gesamtmarkteffekte und Substitution in der Entwicklung der Anzeigenvolumina und zeigt damit auf, dass in wenigen Jahren etwa die Hälfte des Volumens aus Print abgewandert ist. Die Resistenz gegenüber weiteren Einbussen wird abschließend vor dem Hintergrund des Rieplschen "Gesetzes" diskutiert, das auf der Trägheit von Handlungsmustern beruht, die jeweils mit den aus der Sicht der neuen Angebote traditionellen Medien gewachsen sind.
Einleitung Rubrikenanzeigen, u.a. zu Stellen, Immobilien und Kfz, tragen entscheidend zu den Erlösen insbesondere von Zeitungsverlagen bei. Als Informations-Broker beeinflussen derartige Anzeigenmedien gleichzeitig durch das Zusammenführen einer jeweils stark fragmentierten Angebots- und Nachfrageseite erheblich die Markttransparenz und damit auch die Dynamik der zu Grunde liegenden Güterund Dienstleistungsmärkte wie etwa des Arbeits- und des Immobilienmarkts. Heute stehen spezifische Onlinedienste in allen Kategorien von Rubrikenanzeigen (z.B. Jobbörsen) im Wettbewerb zu den traditionellen Akteuren. Sie versprechen einen besseren Abgleich von Angebot und Nachfrage zu niedrigeren Preisen und eine Effizienzsteigerung des gesamten Marktprozesses durch die Vermeidung von Medienbrüchen. Der Beitrag systematisiert nach einer aktuellen quantitativen Analyse der Substitutionsdynamik Online-versus-Print über den Zeitraum von 12 Jahren, wie die jeweilige Substitutionsdynamik mit den Charakteristika der entsprechenden Märkte zusammenhängen könnte sowie in welcher Weise diese von Eigenschaf-
122
Castulus Kolo
ten der Anzeigenkunden und der Nutzer digitaler Medien potenziell beeinflusst wird. Schließlich sollen Umfang und Verlauf der Substitution von Print- durch Onlineanzeigen als generelles Thema von Medienentwicklung und Innovation aufgegriffen werden.
Entwicklungen in den Rubrikenmärkten Der Markt für Rubrikenanzeigen ist mit den wenigen Ausnahmen reiner Informationsmärkte (z.B. Familienanzeigen) gekoppelt an Märkte für Güter und Dienstleistungen. Insofern ist es nicht überraschend, dass die entsprechenden Anzeigenvolumina insbesondere in den Zeitungen schon vor der Verbreitung des Internet als Medium der Marktkommunikation Schwankungen unterworfen waren. Mit zunehmender Verfügbarkeit von spezialisierten Onlinediensten kam ein weiteres Phänomen zu den Markteffekten hinzu: Struktureffekte durch Substitution von Print- durch Onlineanzeigen. Die Anzeigenvolumina in deutschen Zeitungen sind im Zeitverlauf gut dokumentiert (ZMG 2006) und weisen in den hinsichtlich Anzeigenumsatz größten drei Rubriken Kfz, Immobilien und Stellen (BDZV 2006) über die letzten 10 Jahre bis 2006 Einbrüche von insgesamt 35, 38 bzw. 30 Prozent auf. Eine ähnliche Entwicklung zeigt sich in anderen europäischen Ländern und den USA (NAA 2004; WAN 2004b). Welcher Anteil der Einbußen auf Struktur- und welcher auf Markteffekte zurückzuführen ist, wurde in der praxisorientierten (z.B. Ernst&Young 2003; Forrester Research 1998) sowie wissenschaftlichen Literatur (Breyer-Mayländer 2004; Kolo 2004) diskutiert, allerdings nur in Ansätzen quantifiziert (Kolo 2006). Darüber hinaus gibt es mehrere Vorschläge für die Gründe des Strukturwandels (z.B. Choi/Whinston 2000; Wigand/Benjamin 1995) und Abhandlungen über die generelle Bedeutung der Digitalisierung für die traditionellen Akteure aus dem Printgeschäft, insbesondere den Zeitungshäusern (z.B. Geyskens et al. 2002; Ihlström/Palmer 2002; Neuberger/Tonnemacher 1999; O'Reilly 1996; Outing 2000; Picard 2000; Sennewald 1998; WAN 2004a). Was die Auswirkungen des Strukturwandels in den Anzeigenmärkten auf die daran gekoppelten Güter- und Dienstleistungsmärkte betrifft, so gibt es mit Ausnahme des Stellenmarkts (z.B. Gareis/Mentrup 2001; Kuhn 2000) überwiegend allgemeine Veröffentlichungen zu elektronischen Märkten (z.B. Kauffman/Walden 2001), die hier weiterführen. Die Quantifizierung der Effekte in den Anzeigenmärkten erfordert ein Modell, das jeweils gleichzeitig Markt- und Substitutionseffekte abbildet. Formal bedeutet dies, dass das tatsächlich resultierende Anzeigenvolumen zum Zeit-
Online-Rubriken als Innovationen in der Marktkommunikation
123
punkt t (Vres(t)) aus dem marktbedingten Anzeigenvolumen (VM(t)) durch Multiplikation mit einem Korrekturfaktor (s(t)) hervorgeht, der den Anteil beschreibt, der durch Substitution zum Zeitpunkt t verloren geht: (1)
Vres (t ) = VM (t ) ⋅ s (t )
Für das marktbedingte Volumen bietet sich die Modellierung durch geeignete Marktindikatoren an (lineares Marktmodell mit Marktindex I(t)): (2)
VM (t ) = β ⋅ I (t ) + α
Indikatoren für die hier untersuchten Märkte sind die jährliche Zahl verkaufter gebrauchter PKW, die Immobilientransaktionsvolumina (aus dem diesbezüglichen Steueraufkommen) und die Anzahl gemeldeter freier Stellen bei der Bundesagentur für Arbeit (Bundesagentur für Arbeit 2006; RDM 2006; ZDK 2006). Die Substitution zeigt einen Verlauf, der das Negativ der S-förmigen Diffusion von Innovationen darstellt (Rogers 2003/1962). Für die Parametrisierung typischer Diffusions- bzw. Substitutionsverläufe gibt es dabei mehrere Vorschläge (Bass 1969; Henrich 2001; Mahajan et al. 2000; Norton/Bass 1987; Porter et al. 1991), die in unterschiedlicher Weise die Rolle von Kommunikationsprozessen bei der Verbreitung der Innovation beschreiben. Die wichtigsten Prozesse sind hierbei die Verbreitung über Netzwerkeffekte oder "innovation by imitation" (Bass 1969) sowie die Verbreitung über Massenmedien (Bass 1969; Rogers 2003/1962). Das einfachste Modell beschreibt generell Wachstumsprozesse mit begrenzten Ressourcen und ist daher auch unter dem Namen "Pumpkin"-Modell bekannt (für englisch Pumpkin = Kürbis). Im Zusammenhang mit der Diffusion von Innovationen wurde es von Fisher und Pry eingeführt (Porter et al. 1991). Das Gegenstück dazu, die Substitution (s(t)), wird wie folgt parametrisiert: (3)
1 § · s (t ) = 1 − δ ⋅ ¨ ¸ ( −σ ⋅(t −τ )) ©1+ e ¹
Wenn t gegen unendlich geht, geht der Term in Klammern gegen 1, d.h. die Diffusion erreicht ihr Maximum bzw. der Faktor, der hier die Substitution beschreiben soll, hat den niedrigsten Wert. δ steht also für das Ausmaß der Substitution. Wäre δ = 1, dann wäre die Substitution vollständig. Mit dem Parameter ı variiert die Geschwindigkeit der Substitution, und der Parameter IJ bezeichnet den Zeitpunkt des steilsten Anstiegs (bzw. Abfalls).
124
Castulus Kolo
Ein komplexeres Modell, das auch gleichzeitig einen weiteren freien Parameter mehr beinhaltet ist das Modell von Bass (1969): (4)
§ 1 − e − (φ +ϕ )⋅(t −τ ) s (t ) = 1 − δ ⋅ ¨ ¨ 1 + (φ / ϕ ) ⋅ e − (φ +ϕ )⋅(t −τ ) ©
· ¸ für t > τ, sonst 1 ¸ ¹
δ steht hier genauso wie im Fisher-Pry-Modell für das Ausmaß der Substitution und wird in diesem Zusammenhang auch als "Index des Marktpotenzials" bezeichnet (Rogers 2003/1962: 210), denn der Wert des Diffusionsterms kann maximal δ erreichen. τ ist hier anders als im Fisher-Pry-Modell der Zeitpunkt, zu dem die Substitution beginnt. φ und ϕ sind Parameter, die die Form der Kurve prägen. Sie werden als "innovation factor" (ϕ), der sich auf die Wahrscheinlichkeit einer Annahme der Innovation unabhängig von der Zahl der bereits bestehenden Adopter bezieht, bzw. als "imitation factor" (φ) bezeichnet, der die Rolle vorangehender Adoptionen bemisst, d.h. den sozialen Druck zur Annahme oder - positiv formuliert - die Netzwerkeffekte (Bass 1969). Im Bass-Modell sind damit die beiden wesentlichen Kommunikationsformen berücksichtigt, die die Verbreitung von Innovationen beeinflussen: Massenmedien und die interindividuelle Weitergabe, das "word of mouth" (Bass 1969). Das Verhältnis der beiden Parameter φ und ϕ zeigt dabei auch die relative Bedeutung der beiden Kanäle an. Das Bass-Modell erfuhr mehrere Erweiterungen, die allerdings noch nie im Zusammenhang mit Substitutionseffekten, sondern stets mit der Einführung und Diffusion neuer Produkte diskutiert wurden (siehe z.B. Stahl/Maas 2006 für ein aktuelles Beispiel oder Mahajan et al. 2000 sowie Rogers 2003/1962 für aktuellere Übersichten zum Einsatz des Bass-Modells und seiner Erweiterungen). Zur Separation von Markt- und Struktureffekten ist es notwendig, die Parameter des Marktterms α und β sowie die Parameter des Substitutionsterms δ, σ und τ bzw. δ, φ, ϕ und τ gleichzeitig anzupassen. Es handelt sich dabei um eine nichtlineare Anpassung (Regression) (siehe dazu z.B. Bates/Watts 1988 oder Gallant 1987) mit fünf bzw. sechs freien Parametern. Angesichts der wenigen vorhandenen Mess- d.h. Zeitpunkte (dreizehn für Stellen bzw. zwölf für Kfz und Immobilien) werden schnell die Grenzen dessen erreicht, was sich noch signifikant aussagen lässt. Es soll daher geprüft werden, ob eine Anpassung, die Markt und Substitution berücksichtigt, signifikant besser ist als eine Anpassung, die nur Markteffekte bzw. nur Substitutionseffekte einbezieht. Dieser Vergleich lässt sich mit Hilfe eines T-Tests anstellen, der nicht nur die Güte der Anpassung auf der Basis der
Online-Rubriken als Innovationen in der Marktkommunikation
125
Summe der Abstandsquadrate, sondern auch jeweils die Anzahl der Anpassungsparameter bzw. Freiheitsgrade der Anpassung berücksichtigt. Es zeigt sich, dass die gleichzeitige Anpassung eines Substitutions- und eines Marktterms signifikant besser abschneidet als die nur eines der beiden Terme (auf einem Niveau <5%). Die geringe Statistik erlaubt allerdings keine Aussage zu Gunsten des Bass-Modells, das ja einen Parameter mehr hat als das Fisher-Pry-Modell. Abb. 1 zeigt das Anpassungsergebnis für letzteres Modell.
Mio. mm
Abb. 1:
Vergleich von Modell (gestrichelte Linie) und tatsächlichem Verlauf (Punkte) für die Anzeigenvolumina der drei untersuchten Märkte. Überlagert (gepunktete Linie) ist jeweils das erwartete Anzeigenvolumen, wenn es keine Substitution gäbe (Berechnung nur mit dem Marktterm aus der gemeinsamen Anpassung von Markt und Substitution)
160 120 80 40
Kfz
0
Mio. mm
1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006
250 200 150 100 50
Im m obilien
0 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006
Mio. mm
126
Castulus Kolo
400 300 200 100
Stellen
0 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006
Insgesamt gibt das Anpassungsergebnis sehr gut den tatsächlichen Verlauf wieder. Es lässt sich nun auch die Frage stellen, welchen Wert das Anzeigenvolumen heute ohne Substitution hätte. Dazu wird einfach nur der Marktterm berechnet. Aus dem Vergleich dieses hypothetischen Verlaufs und des tatsächlichen kann dann berechnet werden, welcher Prozentsatz des Anzeigenvolumens durch Substitution verloren wurde. Es sind dies 32, 39 bzw. 60% für den Kfz-, den Immobilien bzw. den Stellenmarkt (siehe auch Tab. 1). Umgekehrt lässt sich aus dem beobachteten Verlauf auch die Substitution herausrechnen, etwa um zu überprüfen, ob das Residuum tatsächlich mit dem gewählten Marktindex korreliert. Wie Abb. 2 zeigt, ist dies der Fall (Signifikanz der Korrelationen auf Niveau <5%). Interessant ist hier die Beobachtung, dass das Anzeigenvolumen im Immobilienmarkt anders als für die anderen beiden Märkte mit Zunahme der Transaktionen abnimmt: Laufen wenig Transaktionen, dann muss entsprechend mehr geschalten werden, um Käufer zu finden.
127
Online-Rubriken als Innovationen in der Marktkommunikation
Abb. 2:
150
Um Substitutionseffekte korrigiertes Anzeigenvolumen als Funktion des jeweils gewählten Indikators. Mio. m m
225
Mio. m m
220
145
350
Mio. m m
300
215
140
250
210 205
135
200
200
130 R2 = 0,50 125 4,0 4,5 5,0 Anzahl verkaufter PKW in Mio.
195
150 R2 = 0,93
190 125 175 Transaktionsvolum en in Mrd. Euro
R2 = 0,66 100 200 400 600 Gem eldete freie Stellen (BA) in Tsd.
Die Diffusions- bzw. Substitutionsverläufe unterscheiden sich in den drei untersuchten Märkten sowohl hinsichtlich der Parameter der Höhe der Substitution, des Zeitpunktes des Einsetzens der Substitution als auch der Geschwindigkeit der Substitution. Dies gilt unabhängig von der gewählten Parametrisierung, die jeweils im Rahmen der Fehler der Anpassung zu analogen Ergebnissen führen. In Abb. 3 ist der Verlauf der Diffusion (1-Substitution) für die Anpassung des einfachen S-Kurven-Modells nach Fisher-Pry dargestellt.
128
Castulus Kolo
Abb. 3:
Verlauf der Substitutionsterme nach Fisher-Pry
1 – Substitutionsterm
0,6
Stellenanzeigen
0,5
Immobilienanzeigen 0,4
Kfz-Anzeigen
0,3 0,2 0,1 0 1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Die Darstellungen in Abb. 3 kombiniert mit den Darstellungen in Abb. 2 ergeben dabei insgesamt das zeitliche Verhalten aus Abb. 1.
Diffusionsverlauf und Einflussfaktoren der Diffusion Die konkreten Ergebnisse der Anpassung mit dem Fisher-Pry-Modell sind in Tab. 1 zusammengefasst. Neben den Unterschieden im substituierten Volumen (siehe oben) zeigt sich hier, dass die Substitution im Kfz- und Immobilienmarkt etwa ein Jahr vor dem Stellenmarkt einsetzt. Dafür vollzieht sich die Substitution im Stellenmarkt etwa dreimal so schnell wie in den anderen beiden Märkten. In diesen Aspekten liefert die Anpassung mit dem Bass-Modell vergleichbare Ergebnisse doch mit letzterem Modell lässt sich überdies nach der Rolle der beiden unterschiedlichen Kommunikationskanäle im Verlauf der Diffusion der Print substituierenden Online-Angebote fahnden. Für alle drei Märkte ist der Parameter φ, der die Stärke von Netzwerkeffekten bemisst, signifikant von 0 verschieden. D.h. in allen drei Märkten spielt die Annahme der neuen OnlineAngebote durch Empfehlung eine nennenswerte Rolle und nicht nur deren Einführung durch Marketing-Maßnahmen über Massenmedien. Allerdings ist die relative Bedeutung des "word of mouth" gegenüber den Massenmedien bei der Verbreitung von Online-Kfz- und Online-Stellenanzeigen etwa viermal so hoch wie bei Immobilienanzeigen.
129
Online-Rubriken als Innovationen in der Marktkommunikation
Tab. 1:
Nichtlineare Anpassung mit einer S-Kurve nach Fisher-Pry
Zeitpunkt der stärksten Substitution Substitutionsgeschwindigkeit (steilster Anstieg) Substituiertes Volumen (2005)
Kfz 2000,6±0,4
Immobilien 2000,8±0,1
Stellen 2001,8±0,3
(12±5) % p.a.
(12±1) % p.a.
(32±2) %
(39±2) %
(35±24) % p.a. (60±6) %
Maßgeblich für die Annahme einer Innovation ist zum einen deren wahrgenommener Nutzwert (Franklin 2003; Rogers 2003/1962). Dieser stellt sich für die Anbieter von Gütern und Dienstleistungen (Anzeigenkunden) anders dar als für den Suchenden solcher Angebote (Nutzer). Gleichwohl ist für einen funktionierenden Online-Rubrikenmarkt die Zahl der Angebote sowie die Zahl der Suchenden gleichermaßen wichtig. Die gekoppelten Netzwerkeffekte aus der Dynamik "je mehr Anzeigen, desto mehr Nutzer, desto attraktiver für Anzeigenkunden usw.", sind letztlich auch die Ursache für den beobachteten Sförmigen Verlauf der Diffusion. Der wahrgenommene Nutzwert reicht allerdings für die erfolgreiche Diffusion noch nicht aus, sondern erfordert z.B. ein ausreichend großes Reservoir an potenziellen Nutzern sowie die Bekanntheit der Innovation und das nachhaltige Vertrauen in das Nutzenversprechen (zu Einflussfaktoren siehe auch Rogers 2003/1962 und Franklin 2003). Tab. 2 stellt potenzielle Einflussfaktoren qualitativ für die drei untersuchten Märkte gegenüber. Deutlich verschieden ist z.B. die Online-Affinität der jeweiligen Nutzerschaft. Sie liegt für Stellensuchende deutlich über der von Gebrauchtwagenoder Immobilienkäufern. Letztere weichen auch altersmäßig deutlich nach oben ab. Dies vermag die unterschiedlichen Niveaus der Substitution erklären. Mit Immobilien- und Kfz-Anzeigen in Print wird eben noch ein substantieller Anteil der Zielgruppe erreicht, was sich nun, d.h. nach dem ersten "Schwung" der Substitution für alle, die schon ausgeprägte Onliner sind, erst weiter über die demografische Entwicklung verändert. Die Tatsache, dass sich in allen drei Märkten die Substitution nach ihrem Einsetzen über einen relativen kurzen Zeitraum stabilisiert hat (vgl. Abb. 3) ist außerdem dadurch erklärbar, dass eines der wichtigen Nutzenversprechen, nämlich die Digitalisierung von Markttransaktionen ohne Medienbrüche zumindest noch nicht im möglichen Umfang realisiert ist sowie die soziale Praxis der mediatisierten Kommunikation und damit natürlich auch der mediatisierten Marktkommunikation ein gewisses Beharrungsvermögen hat.
130
Castulus Kolo
Riepl (1913) hat letzteres in einem nach ihm benannten Gesetz bereits 1913 formuliert, dass eingebürgerte Medien "niemals wieder gänzlich und dauernd verdrängt und außer Gebrauch gesetzt werden (...), sondern sich neben diesen erhalten, nur dass sie genötigt werden, andere Aufgaben und Verwertungsgebiete aufzusuchen." Tab. 2:
Potenzielle Einflussfaktoren auf den Verlauf der Diffusion
Kfz In etwa wie DurchOnlineAffinität der schnittsbevölkerung Nutzer Überwiegend PriArt der Anzeigenkunden vatinserenten und kleine Händler
Immobilien Niedriger als Durchschnittsbevölkerung Überwiegend kleine Makler
Relativ hoher Schaltzyklus bei Händlern, relativ niedriger bei Privatinserenten Zeitskala der Transaktion zeitnah zur Schaltung Trans(Tage/Wochen) aktionen
Relativ hoher Schaltzyklus bei Maklern, relativ niedriger bei Privatinserenten Bis zu einem Jahr Dauer bis Abschluss der Transaktion Relativ niedrig
Typischer Schaltzyklus
Preisverhältnis zu Print
Mittel
Stellen Höher als Durchschnittsbevölkerung Überwiegend Organisationen (Unternehmen, Behörden) Relativ hoher Schaltzyklus
Ca. 1-3 Monate bis zur Stellenbesetzung Relativ hoch
Ein weiterer Unterschied in den potenziellen Einflussfaktoren sind die schaltenden Kunden. Im Falle von Stellen sind dies überwiegend Organisationen, bei Immobilien kleine Maklerbetriebe und bei Kfz Privatinserenten und kleine Händler. Der Schaltzyklus ist abgesehen von Privatinserenten, die lediglich bei Kfz-Anzeigen einen nennenswerten Anteil ausmachen, hoch. D.h. Inserenten mit unternehmerischem Hintergrund konnten in der Regel innerhalb von Wochen mehrfach Erfahrungen mit dem Schalten der neuen Anzeigenform sammeln. Erfolg oder Misserfolg freilich ist bei Immobilien im Gegensatz zu den anderen Märkten oft erst mit dem Verkauf nach einem Jahr zu beurteilen. Aus einem Zusammenspiel dieser Faktoren könnte die unterschiedliche Substitutionsgeschwindigkeit bei Stellen im Vergleich zu beiden anderen Märkten resul-
Online-Rubriken als Innovationen in der Marktkommunikation
131
tieren. Durch den hohen Schaltzyklus und die schnelle Überprüfbarkeit des versprochenen Nutzens werden Vorteile hier rasch offenkundig. Diese werden über entsprechende Publikationen aber auch über den interpersonalen Austausch in Fachzirkeln (hier die Personaler von Unternehmen) rasch verbreitet. Der Nutzenvergleich von Print- und Online-Anzeigen wird schließlich auch noch mit den Kosten gespiegelt. Beim Vergleich der Preise der jeweiligen Marktführer zeigt sich, dass sich in allen drei Märkten ganz unterschiedliche Verhältnisse eingependelt haben – mit einem relativ hohen Preisverhältnis im Stellenmarkt, das über Kfz zu Immobilien deutlich abnimmt. Dies scheint jedoch zumindest keinen entscheidenden Einfluss auf Umfang und Geschwindigkeit der Substitution zu haben, was daran liegen könnte, dass selbst bei einem hohem Verhältnis der Kosten für Online- zu Printanzeigen erstere immer noch um fast einen Faktor 10 niedriger sind (vgl. dazu auch Kolo 2004).
Schlussfolgerungen und Ausblick Die Substitutionsdynamik ist also in den drei großen Rubrikenmärkten jeweils unterschiedlich, wofür Unterschiede in der Art der innovierenden Einheiten (Unternehmen versus Privatleute) sowie in der Nachvollziehbarkeit bzw. dem tatsächlichen Vorliegen von Unterschieden zwischen dem jeweils neu angenommenen Produkt (Online-Anzeige) bzw. dem substituierten Produkt (Printanzeige) maßgeblich scheinen. Eine abschließende Aussage, welche der potenziellen Einflussfaktoren im welchem Verhältnis zu den einzelnen Parametern des Substitutionsverlaufs (insbesondere Umfang, Geschwindigkeit und Zeitpunkt) beitragen, ist auf der Basis von drei Messpunkten (den drei untersuchten Märkten) nur qualitativ möglich. Dass das Produkt Anzeige solche Unterschiede im Substitutionsverlauf aufweist, ist nicht überraschend, da die Anzeige ja nur in ihrer Kopplung an den jeweils zu Grunde liegenden Güter- oder Dienstleistungsmarkt ihre Rechtfertigung hat und letztere natürlich sehr verschiedene Dynamiken aufweisen. Umgekehrt gilt auch, dass Veränderungen in den Anzeigenmärkten ihren Niederschlag in Veränderungen auf dem Kfz-, dem Immobilien- und dem Stellenmarkt finden sollten. Das Effizienzversprechen der Online-Anbieter müsste mittelfristig durch besseres und schnelleres Matching zu kürzeren Liege- bzw. Besetzungszeiten und damit zu Produktivitätssteigerungen führen. Gleichwohl haben Printmedien in der Marktkommunikation offensichtlich noch immer einen hohen Stellenwert. Denn der Aussage, dass etwa die Hälfte der Printanzeigen an Online verloren ist, lässt sich entgegnen, dass immer noch die andere Hälfte im Print verblieb, was das eigentlich Überraschende ist. Zum
132
Castulus Kolo
Teil ist dies sicherlich aus den Zielgruppen erklärbar, die je nach Markt immer noch gut oder bei Immobilien womöglich sogar noch besser über Print erreichbar sind. Zum Teil ist es eben auch auf eine erlernte soziale Praxis zurückzuführen, die sich nur langsam anpasst, auch wenn quantifizierbare Nutzenaspekte in eine andere Richtung zeigen. Beispiel ist der Personaler, der bei Top-Positionen automatisch an die großen überregionalen Tageszeitungen denkt, in denen sein Vorstand am Wochenende die ausgeschriebene Stelle in einer prominent platzieren Anzeige entdecken möchte. Wie die Entwicklung weiter geht, bleibt nicht zuletzt deswegen spannend, weil das Online-Geschäft noch weiteren Entwicklungen unterworfen ist. Kostenlose Wiki-basierte Anwendungen à la Craigslist oder etwa der Einsatz von Online Social Networks à la Xing bei der Personalbeschaffung treten heute in den Wettbewerb zur ersten Garde der Online-Anbieter, die gegenüber letzteren nunmehr auch schon fast als traditionell gelten können.
Literatur Bass, Frank M. (1969): A New Product Growth Model for Consumer Durables. In: Management Science 13.5. 215-227. Bates, Douglas M./Watts, Donald G. (1988): Nonlinear Regression Analysis and its Applications. New York: Wiley. BDZV (2006): Zeitungen 2006. Berlin: ZV Zeitungs-Verlag. Breyer-Mayländer, Thomas (2004): Der Stellenmarkt als erfolgskritisches Marktsegment für Zeitungsverlage. In: Zeitschrift für Medienmanagement und Kommunikationsökonomie 1. 3843. Bundesagentur für Arbeit (2006): Arbeitsmarktstatistiken, Bundesagentur für Arbeit. Online: http://www.pub.arbeitsamt.de/hst/services/statistik/000000/html/start/index.shtml (abgerufen am: 15.01.2007). Choi, Soon-Yong/Whinston, Andrew B. (2000): The Future of the Digital Economy. In: Shaw et al. (Hrsg.) (2000): 25-52. Ernst&Young (2003): Zeitungsverlage im Umbruch. Stimmungen und Perspektiven. Eschborn: Ernst&Young. Forrester Research (1998): Goodbye to Classifieds. Forrester Research Report 1998 by Charron, C.. Online: http://www.forrester.com/findresearch (abgerufen am: 20.07.2006). Franklin, Carl (2003): Why Innovation Fails. London: Spiro Press. Gallant, A. R. (1978): Nonlinear Statistical Models. New York: Wiley. Gareis, Karsten/Mentrup, Alexander (2001): Virtualisation of Labour Market Transactions: Technological Potential and Status Quo. STAR Issue Report No. 7. Online: www.databank.it/star (abgerufen am: 20.07.2006).
Online-Rubriken als Innovationen in der Marktkommunikation
133
Geyskens, Inge/Gielens, Katrijn/Dekimpe, Marnik G. (2002): The Market Valuation of Internet Channel Additions. In: Journal of Marketing 66.2. 102-119. Glotz, Peter/Meyer-Lucht, Robin (Hrsg.) (2004): Online gegen Print - Zeitung und Zeitschrift im Wandel. Henrich, Joseph (2001): Cultural Transmission and the Diffusion of Innovations. In: American Anthropologist 103.4. 992-1013. Ihlström, Carina/Palmer, Jonathan W. (2002): Revenues for Online Newspapers: Owner and User Perceptions. In: Electronic Markets 12.4. 228-236. Kauffman, Robert J./Walden, Eric A. (2001): Economics and Electronic Commerce: Survey and Directions for Research. In: International Journal of Electronic Commerce 5.4. 5-116. Kolo, Castulus (2004): Der Wettbewerb von Zeitung und Internet in den Rubrikenmärkten. In: Glotz/Meyer-Lucht (Hrsg.) (2004): 75-86. Kolo, Castulus (2006): The Hidden Dynamics of Print-online Competition in Classified Advertising markets. In: Electronic Markets 16.1. 16-27. Kuhn, Peter (2000): Policies for an Internet Labour Market. In: Options Politiques 10.2000. 42-47. Mahajan, Vijai/Muller, Eitan/Wind, Yoram (Hrsg.) (2000): New-Product Diffusion Models. NAA
(2004): U.S. Daily Newspaper Classified Advertising Expenditures. Online: http://www.naa.org/info/facts04/expenditures-classified.html (abgerufen am: 17.07.2005).
Neuberger, Christoph/Tonnemacher, Jan (Hrsg.) (1999): Online - Die Zukunft der Zeitung? Das Engagement Deutscher Tageszeitungen im Internet. Norton, John A./Bass, Frank M. (1987): Diffusion Theory Model of Adoption and Substitution for Successive Generations of High-Technology Products. In: Management Science 33.9. 1069-1086. O'Reilly, Tim (1996): Publishing Models for Internet Commerce. In: Communications of the ACM 39.6. 79-86. Outing, Steve (2000): Newspapers and New Media – The Digital Awakening of the Newspaper Industry. Washington DC: GAFT Press. Picard, Robert G. (2000): Changing Business Models of Online Content Services – Their Implications for Multimedia and Other Content Producers. In: The International Journal on Media Management 2.2. 60-68. Porter, Alan L./Roper, A. T./Mason, Thomas W./Rossini, Frederick A./Banks, Jerry (1991): Forecasting and management of technology. New York: Wiley. RDM (2006): Transaktionsvolumina. Online: http://www.rdm-bundesverband.de (abgerufen am: 10.06.2006). Riepl, Wolfgang (1913): Das Nachrichtenwesen des Altertums mit besonderer Rücksicht auf die Römer. Leipzig: Teubner. Rogers, Everett M. (2003/1962): Diffusion of innovations. (1.. Auflage 1962). New York: The Free Press.
134
Castulus Kolo
Sennewald, Nicola (1998): Massenmedien und Internet. Zur Marktentwicklung in der Pressebranche. Wiesbaden: Deutscher Universitäts-Verlag. Shaw, Michael/Blanning, Robert/Strader, Troy/Whinston, Andrew (Hrsg.) (2000): Handbook on Electronic Commerce. New York: Springer. Stahl, Florian/Maass, Wolfgang (2006): Adoption and Diffusion in Electronic Markets: An Empirical Analysis of Attributes influencing the adoption of digital paid content. In: Electronic Markets 16.3. 233-244. WAN (2004a): New classified models. Strategy Report 3(2). June 2004. Paris: World Association of Newspapers. WAN (2004b): World Press Trends. 2004 Edition. Paris: World Association of Newspapers. Wigand, Rolf T./Benjamin, Robert I. (1995): Electronic Commerce: Effects on Electronic Markets. In: Journal of Computer Mediated Communication 1.3. ZDK (2006): Gebrauchtwagenstatistik. Mitteilung des Zentralverband des Deutschen KfzGewerbes, Bonn. Online: http://www.kfzgewerbe.de/verband/zahlen/index.html (abgerufen am: 17.07.2006). ZMG (2006): Anzeigenstatistik der Zeitungs Marketing Gesellschaft. Online: http://www.zeitungenonline.de/index.asp (abgerufen am: 28.07.2006).
Zielgruppenorientiertes eLearning – ein Angebot auch für ältere Menschen? Peter Georgieff
Problemstellung Der Einsatz von eLearning, also mediengestütztes Lehren und Lernen, in Schulen, in Hochschulen und bei der beruflichen Aus- und Weiterbildung ist mittlerweile weit fortgeschritten und entwickelt sich stetig weiter. Die ursprünglich stark technologisch geprägte Definition wird aktuell mit der Einbindung umfassender didaktischer Konzepte neu diskutiert und modifiziert. Dieser stetige Veränderungsprozess erfordert, dass verschiedene Formen von eLearning berücksichtigt werden, das eLearning schlechthin gibt es nicht. Zur Charakterisierung verschiedener Ausprägungen des eLearning kann auf die Unterscheidung zwischen Produkt- und Prozessorientierung zurückgegriffen werden (vgl. Georgieff et al. 2005). Während unter den inhaltsorientierten eLearning-Varianten die Distribution von meist multimedial aufbereiteten Lernmaterialien im Vordergrund steht, zielen die prozessorientierten Varianten des eLearning auf die Nutzung neuer Medien zur Gestaltung und Lenkung von Lernprozessen ab (z.B. in Lerngemeinschaften). Dabei gewinnen informelle Lernmöglichkeiten an Bedeutung, bei denen der Lernende seine Lernprozesse selbstbestimmt steuert. In diesem Zusammenhang wächst auch die Bedeutung an neuen Kommunikations- und Kooperationstools (z.B. Podcasts, Weblogs) (Robes 2006). Durch die Integration von eLearning in das Bildungsangebot rücken neue institutionelle und nicht-institutionelle Lernsituationen und Lernorte, vielfältige Lerninhalte, Lehr- und Lernmethoden in das Blickfeld. Daran gekoppelt sind auch Potenziale einer stärkeren Zielgruppenorientierung von Lern-Angeboten. Zielgruppenorientierung meint dabei, dass man das Angebot an den Zielen und Bedürfnisse bestimmter Zielgruppen orientiert und diese in die Lage versetzt, ihre Vorstellungen und Ziele aus eigener Kraft zu verwirklichen. Die Besonderheit des eLearning als ein breit einsetzbares und stark individualisierbares Lerninstrument impliziert, dass neben dem jeweiligen Lernkontext auch die besondere Voraussetzung der jeweiligen Nutzer bei der Konzipierung der Inhalte bzw. Anpassung des Instruments berücksichtigt werden können.
136
Peter Georgieff
Die Frage nach der Umsetzbarkeit einer Zielgruppenorientierung im eLearning soll in diesem Beitrag exemplarisch für den Personenkreis 'ältere Menschen' diskutiert werden.1 Im Mittelpunkt des Beitrags steht folgende Leitfrage: Wenn eLearning ein besonderes Potenzial als stark individualisierbares Lehrund Lerninstrument aufweist, werden entsprechende Angebote tatsächlich – im Zeitalter des 'Lebenslangen Lernens' – auch für ältere Menschen als Zielgruppe konzipiert und umgesetzt? Wenn ja, wie sehen die entsprechenden Angebote aus? Im Beitrag werden dazu zunächst die soziodemografischen Besonderheiten des Alter(n)s, die Bildungspräferenzen und das Medienverhalten älterer Menschen erläutert. In einem zweiten Schritt wird dann die tatsächliche Verbreitung entsprechender eLearning-Anwendung in Institutionen der Altenbildung beschrieben.
Sozio-ökonomische Merkmale des Alter(n)s Nach Backes/Clemens (1998: 106f.) kann die Frage, ob es sich bei Alter um eine eigenständige Lebensphase handelt, nur bedingt mit 'ja' beantwortet werden. Das hängt damit zusammen, dass sich eine Abgrenzung zur Phase des mittleren Alters immer mehr vermischt und Alter im Kontext des gesamten Lebenslaufs betrachtet wird. Die zunehmende Pluralität der Lebensformen des Alters sowie körperliche, psychische und soziale Unterschiede zwischen aktiven 'Älteren' und hilfe- bzw. pflegebedürftigen 'Hochbetagten' spricht gegen die Sichtweise einer homogenen Lebensphase. In Zukunft werden in Deutschland auf Grund des demographischen Wandels immer mehr ältere Menschen leben. Die Lebensphase des Alters kann sich über eine lange Phase erstrecken. Dabei ist jedoch nicht von einer einheitlichen Entwicklung auszugehen, sie ist vielmehr von einer hohen Verschiedenartigkeit geprägt. Die Strukturverschiebungen in der Altersverteilung werden durch soziostrukturelle Veränderungen überlagert (vgl. Naegele/Tews 1993; Tews 1993; Tews 1999), diese können wie folgt charakterisiert werden: • Verjüngung: Image und Erscheinungsbild älterer Menschen haben sich in den letzten Jahren verjüngt. Heute fühlen sich die alten Menschen im Durchschnitt jünger als früher. 1
Das Papier stützt sich in Teilen auf Ergebnisse, die im Rahmen einer Studie über zielgruppenorientiertes eLearning erstellt wurden. Ich danke meiner Kollegin Simone Kimpeler für die Diskussion im Rahmen des Projekts und ihre Bereitschaft zur kritische Durchsicht des Beitrags.
Zielgruppenorientiertes eLearning
137
• Entberuflichung: Alterszeit ohne Berufstätigkeit resultiert aus früher Berufsaufgabe und erhöhter durchschnittlicher Lebenserwartung Sicherlich erlebt ein Teil älterer Menschen solche Phasen als Autonomiezugewinn und neuen Möglichkeiten zur Selbstverwirklichung. • Singularisierung: mit zunehmendem Lebensalter nimmt die Singularisierung, d.h. der Anteil der allein lebenden Menschen zu. • Feminisierung: über 60 Prozent aller Personen über 65 Jahre sind Frauen, bei den über 75-Jährigen sind es sogar 70 Prozent, so dass von einer Feminisierung des Alters die Rede ist. • Hochaltrigkeit: die Grenzen zwischen 'jungen' und 'alten' Alten sind fließend. Man spricht auch vom Dritten Lebensalter, wenn es um die 60- bis 75Jährigen geht, und vom Vierten Lebensalter, wenn die Hochaltrigen über 75Jährigen gemeint sind. Zusammenfassend erfordern diese Entwicklungen ein differenziertes Bild des Alters und des Alterns, das auch in Bezug auf Bildung im Alter berücksichtigt werden muss.
Bildung im Alter Bildung im Alter oder Altersbildung lässt sich nicht über ein stringentes Bildungskonzept definieren (vgl. Breloer 2000; Sommer/Künemund 1999: 3ff.). Früher wurde Bildungsarbeit für ältere Menschen "vor allem als gesellschaftliche Betreuungs-, Fürsorge- und Kompensationsaufgabe verstanden" (Sommer/Künemund 1999: 6). Seit den 1980er Jahren setzen sich Kompetenz- und Aktivitätsansätze durch, die nun stärker die Möglichkeiten der Autonomie, Selbstständigkeit und Chancen im Alter betonen. Für ältere Menschen ist das informelle Lernen, im Gegensatz zum formellen Lernen in der frühen Lernphase (z.B. Schul- und Berufsabschluss), die wichtigste Lernform. Dabei ist der Erwerb oder der Erhalt von Selbstständigkeit und Selbstbestimmung auch im höheren Lebensalter eine wesentliche Zielsetzung. Bei der Kompetenzentwicklung kommt es bei älteren Menschen weniger auf die Neuentwicklung von Fertigkeiten und Fähigkeiten sondern mehr auf den Erhalt vorhandener Kompetenzen an. Gleichzeitig erwerben Ältere neue Kompetenzen, um Erfahrungen und Wissen weiterzugeben oder um ehrenamtliche Funktionen ausüben zu können. Zudem sind Lernende in dieser Lebensphase auch weniger mobil als in früheren Phasen, so dass medialen Bildungsangeboten eine zusätzliche Bedeutung zukommt.
138
Peter Georgieff
Ältere Menschen zeigen ein wachsendes Interesse an institutionalisierten Bildungsangeboten. Träger der Altenbildung sind Volkshochschulen, kirchliche Träger, Hochschulen und (Senioren-) Akademien sowie Selbsthilfegruppen (Becker et al. 2000). Da Ältere aufgrund der demographischen Entwicklung gesellschaftlich an Bedeutung gewinnen, werden sie auch zu einer wichtigeren Zielgruppe in der Erwachsenenbildung. Schon jetzt sind z.B. über 25 Prozent der Teilnehmer an Volkshochschulkursen 50 Jahre und älter (Kuratorium Deutsche Altershilfe (KDA) 1996).
Bildungsbeteiligung älterer Menschen Eine neuere Studie über die Bildungsbeteiligung älterer Menschen zeigt (Schröder/Gilberg 2002; Schröder/Gilberg 2005), dass ein Viertel der Befragten im letzten Dreijahreszeitraum an einer Bildungsveranstaltung teilgenommen haben, zehn Prozent an einer beruflichen und 18 Prozent an einer nichtberuflichen Weiterbildung. Die Befunde der Studie bestätigen einen Zusammenhang des Bildungsverhaltens im Alter mit der schulischen Grundbildung. Personen mit höherer Bildung haben eine sechsfach höhere Wahrscheinlichkeit zur Teilnahme an Bildungsangeboten als solche, die höchstens die Volksschule abgeschlossen haben. Es lassen sich bevorzugte Themenbereiche für das Lernen identifizieren (Schröder/Gilberg 2002: 93). An der Spitze liegt das Interesse an Kunst-, Musik- und Konzertveranstaltungen sowie Museumsbesuche. Vergleichbar hoch ist der Anteil der 50- bis 75-Jährigen, die beabsichtigen Kurse, Seminare und Veranstaltungen zum Thema Gesundheit und Ernährung zu besuchen. Die meisten Themen zeichnen sich durch ein geschlechtspezifisches Interessenmuster aus. Frauen fragen eher musische, künstlerische und gestalterische Angebote sowie Gesundheits- und Ernährungsthemen nach. Männer interessieren sich stärker für gesellschaftliche, politische, rechtliche, technische, naturwissenschaftliche und betriebswirtschaftliche Themen. Auf die Frage, ob man eine Veranstaltung aus einem thematischen Angebot eher im Kreis Gleichaltriger oder in gemischtaltrigen Gruppen besuchen möchte, ist der Wunsch nach Seniorenveranstaltungen stark ausgeprägt. Diese enge Korrespondenz von Wunsch und faktischem Bildungsverhalten weist darauf hin, dass es ein themenspezifisches Bedürfnis nach altershomogenen Lerngruppen gibt (Schröder/Gilberg 2005).
Zielgruppenorientiertes eLearning
139
Mediennutzung von älteren Menschen Mit zunehmendem Alter nimmt die Computernutzung und damit Erfahrung langsam ab. Die älteren Menschen haben den Kohortennachteil, dass sie während ihres Berufslebens kaum oder erst spät mit dem PC und den modernen Medien in Berührung gekommen sind. In der Zukunft werden sich diese Nutzungsunterschiede jedoch verringern. Bei den Menschen im Alter von 55 Jahren und älter nutzen nur noch 31 Prozent das Gerät. Bei den Personen über 65 Jahren setzen sich nur 19 Prozent an den PC (Statistisches Bundesamt 2005: 29). Wenn die Möglichkeit der Computernutzung besteht, wird meistens auch das Internet genutzt (Statistisches Bundesamt 2005: 30). Rund ein Fünftel der über 54-Jährigen waren 2004 online, im Jahr 2002 waren es erst 16 Prozent. Allerdings liegt die Zuwachsrate der Nutzung bei den Älteren mit 38 Prozent deutlich über der der übrigen Bevölkerung. Nach einer Studie zur Computerausstattung der 'Generation 50+' (Kompetenzzentrum Technik - Diversity - Chancengleichheit 2006) kann man etwas mehr als zwei Drittel der Älteren als faktische oder potenzielle Nutzer neuer Technologien bezeichnen. Mit zunehmendem Alter wächst der Unterschied zwischen Frauen und Männern, so sind bei den 60Jährigen und älteren Männern 53 Prozent 'Onliner', bei den Frauen liegt dieser Anteil bei 30 Prozent.
eLearning-Angebote für ältere Menschen Der Markt für eLearning-Angebote für ältere Menschen gestaltet sich deutlich unübersichtlicher als der für Kinder und Jugendliche oder WeiterBildungsangebote für Berufstätige. Die Anbieter von eLearning für ältere Menschen stehen vor den Schwierigkeiten, dass diese Gruppe vielfältige soziodemographische Merkmale aufweist. Dies impliziert, dass auch die Interessenlagen und Kompetenzen als Lernvoraussetzungen sehr unterschiedlich ausfallen. Bei der Durchsicht von relevanten Institutionen der Altenbildung zeigte sich, dass es nur sehr wenige Angebote gibt, die für die Zielgruppe der älteren Menschen als eLearning-Angebote bereitstellen werden. Von den Trägern der Altenbildung sind insbesondere die Hochschulen, kirchliche Bildungsanbieter, Seniorenverbände sowie Vereine und Selbsthilfegruppen in diesem Bereich tätig (vgl. die folgende Abb. 1 über beispielhafte eLearning-Anwendungen von Institutionen der Altenbildung). Der Akzent liegt eindeutig auf der Vermittlung von Medienkompetenz, also dem Erlernen des Umgangs mit elektronischen Medien. Das Ziel der angebotenen Dienstleistungen besteht in aller Regel darin, die Teilhabe der älteren Menschen am neuen Kommunikationsmedium Internet zu
140
Peter Georgieff
fördern. Es werden zwar vereinzelt Online-Sprach-Kurse speziell für ältere Menschen angeboten, nicht aber beispielsweise eLearning-Module zu Themenfeldern wie Kulturgeschichte oder Gesundheit und Ernährung Die Universitäten haben bereits vor vielen Jahren erkannt, dass ältere Menschen ein nicht zu vernachlässigendes Interesse an der Fort- und Weiterbildung haben. Aus diesem Grund wird der Gruppe der 'Senioren' im Rahmen der Veranstaltungen und Vorlesungen, ein Gasthörerrecht bzw. der entsprechende Status als Gasthörer eingeräumt. Stellen bestimmte Fachbereiche für Studierende eLearning-Module ins Internet, so ist der Zugang selbstverständlich auch für ältere Gasthörer gewährleistet. In der zunehmenden Masse werden auch Computerkurse zum Erwerb von Medienkompetenz speziell für ältere Menschen angeboten. Neben den Universitäten haben sich Akademien, als Bildungsinstitutionen speziell für ältere Menschen am Markt positioniert. Allerdings kann nur ein kleiner Teil ihres Angebots als dediziertes eLearning-Angebot bewertet werden. Kirchliche Träger und (Senioren)-Verbände gestalten und pflegen zielgruppenspezifische Internet-Portale und -Plattformen für Personen die hauptamtlich oder ehrenamtlich in der gemeinwesenorientierte Seniorenarbeit tätig sind. Im Vordergrund stehen dabei Aktivitäten, die Vernetzung von Anbietern und Institutionen ermöglichen und den Transfer von Erfahrungswissen und selbstorganisiertem Lernen fördern. Viele Anbieter im Bereich Erwachsenenbildung, insbesondere Volkshochschulen, stellen Bildungsangebote für ältere Menschen in Form von Präsenzkursen bereit. Präsenzkurse in denen der grundlegenden Umgang mit Computer und Internet erlernt wird und dadurch die Medienkompetenz der Teilnehmer und Teilnehmerinnen fördert, können als Vorbereitung und Befähigung zum Umgang mit eLearning-Angeboten betrachtet werden. Weiterhin gibt es internetbasierte Informations- und Kommunikationsportale, die direkt oder indirekt informelle Lernprozesse fördern. In diesem Kontext zu erwähnen sind die vielfältigen 'Senioren-Portale', die das Ziel haben, Kommunikation und Wissensvermittlung von, mit und zwischen älteren Menschen und deren Organisationen zu fördern. Die Übersicht über das institutionalisierte Angebot von eLearning für ältere Personen zeigt, dass eLearning für Ältere in Deutschland noch ein weitgehend brachliegendes Feld darstellt. Eine institutionelle Verankerung von entsprechenden Angeboten ist derzeit nicht zu erkennen, von einem Marktgeschehen kann in keiner Weise die Rede sein. Die Angebote haben eher (Modell-)Projektoder Experimentiercharakter. Das vorherrschende didaktische Prinzip ist, dass ältere Menschen Berührungsängste und Vorurteile gegenüber dem Medium Computer am ehesten abbauen können, wenn sie nach dem Prinzip 'learning by doing' direkt damit konfrontiert sind. Wie die verschiedenen Komponenten von
Zielgruppenorientiertes eLearning
141
eLearning, für die Älteren stimmig, organisatorisch zu einem Gesamtsystem zusammengefügt werden können, ist erst ansatzweise zu erkennen. Abb. 1:
Übersicht von eLearning-Anwendung durch Institutionen der Altenbildung
Name des Projekts Gemeinsam Lernen übers Netz (www.gemeinsamlernen.de) (www.vile-netzwerk.de)
eLSe (eLearning für Senioren) (www.else.org)
Ict50plus (www.ict50plus.uji.es)
Ziel/Aufgabenstellung Internetbasierte Lernplattform mit Lernkurse und eigenständig arbeitende Lerngruppen; Schwerpunkt liegt auf virtueller Zusammenarbeit mittels Internet.
Entwicklung und Erprobung von multimedialen Lehr- und Lernsysteme für Senioren mit keiner oder geringer Erfahrung bei der Computernutzung; Befähigung von Senioren sich über Online-Lehrangebote zu informieren und eLearningSysteme individuell oder innerhalb virtueller Lerngemeinschaft zu nutzen. Entwicklung und Erprobung von neuen Methoden und Didaktik bei der Gestaltung von Kursen für ältere Menschen.
Förderung und Träger Modellprojekt der BundLänder-Kommission im Rahmen des Programms 'Lebenslanges Lernen'', des Bundesministeriums für Bildung und Forschung und des Europäischen Sozialfonds (2000 - 2005). Zentrum für Allgemeine Wissenschaftliche Weiterbildung (ZAWiW) der Universität Ulm. Fortführung durch VILE-Netzwerk. Modellprojekt der EU im Rahmen des 'SOCRATESProgramms' (2004 - 2007). FIM-NeuesLernen, FriedrichAlexander-Universität Erlangen-Nürnberg zusammen mit der Bundesarbeitsgemeinschaft der SeniorenOrganisationen (BASGO) und weiteren Organisationen und Universitäten aus vier europäischen Ländern. Modellprojekt der EU im Rahmen des 'SOCRATESProgramms' (2005 - 2007). Koordination Universität Jaume I, Universität für Senioren, Spanien mit Senioren-Lernen-Online (SLO) und Katholische Erwachsenenbildung Rheinland-Pfalz (KEB) sowie Partner aus Finnland, Norwegen und Tschechien.
142 Name des Projekts Forum Seniorenarbeit NRW (www.forumsozialarbeit.de)
Senioren OnLine (SOL) (www.senioren-online.net)
Senioren-Lernen-Online (SLO) (www.senioren-lernenonline.de) Bayerisches SeniorenNetzForum - Dachverband der Seniorennetze (www.bsfn.de)
Online-Jahr 50plus (www.50plus-ans-netz.de)
Peter Georgieff
Ziel/Aufgabenstellung Internetplattform Weiterqualifizierung und Vernetzung von Personen die haupt- oder ehrenamtlich im Seniorenbereich tätig sind; Transfer von Erfahrungswissen und von selbst organisiertem Lernen. Internetplattform zur Erleichterung des Zugangs zu neuen Medien für ältere Menschen; Bereitstellung von Information und seniorengerechte Schulung.
Lernportal zur Unterstützung älterer Menschen bei der Nutzung neuer Medien und Anregung zum lebenslangen Lernen. Zusammenschluss und Vernetzung bayerischer Initiativen, die sich mit Computer- und Internetnutzung älterer Menschen befassen.
Aktionsprogramm zur Steigerung der Internetbeteiligung und Medienkompetenz älterer Menschen; Angebote an Schulungskurse.
Förderung und Träger Initiative des Kuratorium Deutsche Altershilfe (KDA) in Kooperation mit dem Diakonischen Werk Rheinland getragen; verzahnt mit der Initiative SeniorenOnLine (SOL). Initiative von Verbänden der Altenhilfe in NRW (1999 2005): Kuratorium Deutsche Altenhilfe (KDA), der Evangelische Verband der Altenarbeit in Rheinland (EVA) und Gesellschaft für Gerontotechnik (GGT). Private und ehrenamtlich organisierte Initiative (seit 2002) Verein (seit 2003); Unterstützung durch das Bayerische Staatsministerium für Arbeit und Sozialordnung, Familie und Frauen. Projektträger: FIM-NeuesLernen, FriedrichAlexander-Universität Erlangen-Nürnberg. Initiative der Bundesarbeitsgemeinschaft der SeniorenOrganisationen (BASGO) und des Kompetenzzentrum Technik, Diversity, Chancengleichheit; unter Schirmherrschaft des Bundesministeriums für Familie, Senioren, Frauen und Jugend (2006 2007).
Schlussfolgerungen In Deutschland gibt es eine Reihe verdienstvoller Initiativen, die eLearning für ältere Menschen unter unterschiedlicher Zielsetzung anbieten, ohne dass man zum derzeitigen Zeitpunkt davon ausgehen kann, dass dadurch ein nennenswerter Beitrag zur Bildung Älterer geleistet wird. Während sich bei anderen Ziel-
Zielgruppenorientiertes eLearning
143
gruppen von eLearning Anbieterstrukturen stabilisieren, Abnehmer den Nutzen erkennen und tragfähige organisatorische Modelle entwickelt wurden, steht diese Entwicklung bei der Zielgruppe der Älteren noch aus. Die Gründe dafür sind vielfältig und nachvollziehbar: Organisationen, die im Bereich eLearning kompetent sind, sind in fokussierten Geschäftsfeldern aktiv (z.B. Schulen), die leichter zu erschließen sind als die sehr heterogene und eher schwer zugängliche Zielgruppe der Älteren. Organisationen, die im Bereich Erwachsenenbildung erfolgreich sind, haben Schwierigkeiten, sich dem Komplex eLearning anzunähern und umso mehr Hemmungen, in diesem Zusammenhang auch noch die aufwändigere Zielgruppe der Älteren in Betracht zu ziehen. Sie haben vielfach auch (noch) nicht die sehr spezielle technischorganisatorische Kompetenz, um diese Zielgruppe Erfolg versprechend ansprechen zu können. Der hohe pädagogische und technische Entwicklungsaufwand bei unsicherer finanzieller Lage mag auch viele potenzielle Anbieter abschrecken. Erfolgreich sind dezentrale und regionale Ansätze, die auf überregionale Konzepte und Unterstützung zurückgreifen können. Bei erfolgreichen eLearning-Ansätzen gibt es in der Regel Kooperationen mit seniorenerfahrenen Bildungseinrichtungen. Das Ingangsetzen der Projekte erfolgt vielfach durch eine Anschubfinanzierung. Ein Problem liegt in dem immer noch vorherrschenden nicht mehr aktuellen Bild vom älteren Menschen, gepaart mit mangelnder Phantasie, wie man Bildung, Nutzung neuer Technologien und die Zielgruppe Ältere erfolgreich verbinden kann (Mollenkopf/Doh 2002). Neuere Arbeiten zeigen, dass bei bildungs- und technikinteressierten Menschen von einer wechselseitigen Verstärkung von Bildungsmotivation und Technikinteresse ausgegangen werden kann (Stadelhofer 2005b; Stadelhofer 2005c). Diese bezieht sich sowohl auf die Umstände und Rahmenbedingungen der Lernprozesse, sowie auf die Lerneffekte. Dieser Zusammenhang stellt bei der Zielgruppe der älteren Menschen eine besondere Herausforderung dar, wenn durch eine Erhöhung der Technikbegeisterung für elektronische Bildungsmedien auch die Lernmotivation gesteigert werden kann. Für ältere Menschen eignen sich besonders methodisch-didaktische Lernkonzepte, die modular aufgebaut sind und eine individuelle Anpassung und Interaktivität ermöglichen. Ältere Menschen nutzen die eLearning-Angebote verstärkt, wenn ihnen die institutionellen Voraussetzungen dafür geboten werden, z.B. im Rahmen eines Seniorenstudiums. Beispiele für Lernthemen, die für diese Zielgruppe verstärkt angeboten werden könnten sind nach Stadelhofer (2005a): • Alter(n) lernen: sich auf das eigene Alter(n) vorbereiten, auch auf die Zeit eingeschränkter Mobilität;
144
Peter Georgieff
• Gesundheit und Prävention: die eigene Gesundheit durch entsprechende Maßnahmen erhalten und stärken; • Wissen: eigenes Wissen vertiefen und erweitern, neues Wissen aneignen; • Kompetenzweitergabe und nachberufliches Engagement: eigene Kompetenzen erkennen und an andere weitergeben, vorhandene Kompetenzen mit neuem Wissen verbinden; • Generationendialog/interkultureller Dialog: andere Lebenswelten erfahren und verstehen; • Neue Technologien: Kenntnisse, Erfahrungen und Kompetenzen im Umgang mit Computer und Internet aneignen. "Ältere Erwachsene wollen ihre 'späte Freiheit' (Rosenmayer 1983) nach der 'Entpflichtung' auch dadurch nutzen, dass sie sich auch beim Lernen auf das konzentrieren, was ihnen persönlich sinnvoll erscheint. … Senioren sollten deshalb nicht gedrängt werden, etwas zu lernen, dessen Sinn ihnen nicht einleuchtet bzw. überzeugend plausibel gemacht werden kann. Sie sollten aber im Bereich ihrer Interessenschwerpunkte zur Auseinandersetzung mit verschiedenen Standpunkten und Perspektiven angeregt werden. … Gerade wenn ältere Menschen das Recht zugestanden wird, sich bei ihrem lebenslangen Weiterlernen auf das für sie Bedeutsame zu konzentrieren, kann das Lernen in begrenzten Lebensaussichten für sie tragfähige Orientierungen und soziale Zugänge zur Welt offen halten" (Dohmen 2001: 52).
Für weiterbildungsinteressierte ältere Menschen empfiehlt Stadelhofer (Stadelhofer 2005a: 62), die Chancen neuer Informations- und Kommunikationstechniken für kooperatives Lernen begreifbar zu machen und zielgruppenorientierte Zugangsweisen zu entwickeln, dazu gehören ihrer Meinung nach u.a.: • Verstärkte Schulungsangebote für Personen aus der Erwachsenenbildung, insbesondere der Altenbildung, zur Entwicklung ihrer multimedialen Kompetenz und • Entwicklung von zielgruppengeeigneter Lernsoftware für ältere Menschen. Literatur Backes, Gertrud M./Clemens, Wolfgang (1998): Lebensphase Alter. Eine Einführung in die sozialwissenschaftliche Alternsforschung. Grundlagentexte Soziologie. Weinheim/München: Juventa. Becker, Susanne/Veelken, Ludger/Wallraven, Klaus P. (Hrsg.) (2000): Handbuch Altenbildung. Theorie und Konzepte für Gegenwart und Zukunft. Opladen: Leske+Budrich. Breloer, Gerhard (2000): Altenbildung und Bildungsbegriff. In: Becker et al. (Hrsg.) (2000): 38-50.
Zielgruppenorientiertes eLearning
145
Bundesministerium für Familie, Senioren, Frauen und Jugend (Hrsg.) (2005): Dokumentation der Fachtagung. Vorstellung und Diskussion zentraler Positionen des Fünften Altenberichts der Bundesregierung mit Senioren, Seniorenverbänden und Seniorenorganisationen. 2. Mai 2005, Berlin. Berlin: Bundesministerium für Familie, Senioren, Frauen und Jugend. Dohmen, Günther (2001): Die Einbeziehung älterer Erwachsener in das lebenslange Lernen. In: Forum Bildung (Hrsg.): Lernen - ein Leben lang. Vorläufige Empfehlungen und Expertenberichte. Materialien des Forum Bildung. Bd. 9. Bonn: Arbeitsstab Forum Bildung in der Geschäftsstelle der Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. Online: http://bildungplus.forum-bildung.de/files/Expertenbericht9.pdf (abgerufen am: 21.01.2006). Georgieff, Peter/Kimpeler, Simone/Revermann, Christoph (2005): eLearning im Bereich beruflicher Aus- und Fortbildung. TAB- Arbeitsbericht Nr. 105. Berlin: Büro für TechnikfolgenAbschätzung beim Deutschen Bundestag (TAB). Kompetenzzentrum Technik - Diversity - Chancengleichheit (2006): Von den Onlinern lernen, die (N)ONLINER überzeugen. Studie zur Computerausstattung der Generation 50plus. Online: http://www.50plus-ans-netz.de/content/view/full/1329/(first_node)/8966 (abgerufen am: 20.11.2006). Kuratorium Deutsche Altershilfe (KDA) (Hrsg.) (1996): Rund ums Alter. Alles Wissenswerte von A bis Z. München: Beck. Michel, Lutz P. (Hrsg.) (2006): Digitales Lernen. Forschung - Praxis - Märkte. Ein Reader zum ELearning. Norderstedt: Books on Demand. Mollenkopf, Heidrun/Doh, Michael (2002): Das Medienverhalten älterer Menschen. In: Sozialwissenschaften und Berufspraxis (SUB) 25.4. 387-408. Naegele, Gerhard/Tews, Hans P. (Hrsg.) (1993): Lebenslagen im Strukturwandel des Alters. Opladen: Westdeutscher Verlag. Niederfranke, Annette/Naegele, Gerhard/Frahm, Eckart (Hrsg.) (1999): Funkkolleg Altern. Opladen: Westdeutscher Verlag. Robes, Jochen (2006): Überlegungen zur Zukunft des E-Learning. In: Michel (Hrsg.) (2006). Rosenmayer, Leopold (1983): Die späte Freiheit. Das Alter – ein Stück bewusst gelebten Lebens. Berlin: Severin&Siedler. Schröder, Helmut/Gilberg, Reiner (2002): Bildung im Alter. Bildungsbeteiligung und Bildungsinteressen älterer Menschen (infas Institut für angewandte Sozialwissenschaft GmbH). BonnBad Godesberg: infas. Schröder, Helmut/Gilberg, Reiner (2005): Weiterbildung Älterer im Demographischen Wandel. Empirische Bestandsaufnahme und Prognose. Erwachsenenbildung und lebensbegleitendes Lernen, Bd. 5. Bielefeld: Bertelsmann. Sommer, Carola/Künemund, Harald (1999): Bildung im Alter. Eine Literaturanalyse. Forschungsgruppe Altern und Lebenslauf (FALL). Forschungsbericht 66. Online: http://www.fallberlin.de (abgerufen am: 21.01.2006). Stadelhofer, Carmen (2005a): Kommentar zum Bereich "Bildung im Alter" im 5. Altenbericht. In: Bundesministerium für Familie, Senioren, Frauen und Jugend (Hrsg.) (2005): 53-66.
146
Peter Georgieff
Stadelhofer, Carmen (Hrsg.) (2005b): Räumlich und zeitlich entkoppeltes "Forschendes Lernen" als Motor einer neuen Lernkultur. Kenntitel "Gemeinsam lernen übers Netz" (2000-2005). Schlussbericht des Modellprojekts. Band 1 (Projektbeschreibung, Ergebnisse). Ulm: Universität Ulm, Zentrum für Allgemeine Wissenschaftliche Weiterbildung (ZAWiW). Stadelhofer, Carmen (Hrsg.) (2005c): Räumlich und zeitlich entkoppeltes "Forschendes Lernen" als Motor einer neuen Lernkultur. Kenntitel "Gemeinsam lernen übers Netz" (2000-2005). Schlussbericht des Modellprojekts. Band 2 (Ergebnisse der Schlussbefragung). Ulm: Universität Ulm, Zentrum für Allgemeine Wissenschaftliche Weiterbildung (ZAWiW). Statistisches Bundesamt (Hrsg.) (2005): Informationstechnologie in Unternehmen und Haushalten 2005. Wiesbaden: Statistisches Bundesamt. Tews, Hans P. (1993): Neue und alte Aspekte des Strukturwandels des Alters. In: Naegele/Tews (Hrsg.) (1993): 15-42. Tews, Hans P. (1999): Von der Pyramide zum Pilz. Demographische Veränderungen in der Gesellschaft. In: Niederfranke et al. (Hrsg.) (1999): 137-185.
Onlinekommunikation als interpersonale Kommunikation
Multimediale Gespräche in Skype: Hybridisierung von Gebrauchsweisen in der interpersonalen Kommunikation Martina Joisten
Telefonie als neues Phänomen im Internet Obwohl die Wurzeln der Technologie zur Sprachübertragung in Computernetzen bis in die 1970er Jahre zurückreichen, wurde die Internettelefonie erst 1995 mit dem "Internetphone" der israelischen Firma Vocaltec ermöglicht. Die Qualität der Sprachübertragung war allerdings ungenügend, so dass das "Internetphone" keine bemerkenswerte Verbreitung fand (Cherry 2005: 55). Erst seit Ende 2003 steigt das Angebot an kostenpflichtigen VoIP-Diensten merklich an, da die Technologie inzwischen als ausreichend ausgereift für den Massenmarkt gilt. Die massentaugliche Internettelefonie ist somit, im Vergleich zu Email oder Instant Messaging, eine vergleichsweise junge Form der internetbasierten computervermittelten Kommunikation. Das Telefon wiederum ist durch seine massive Verbreitung die vermutlich bedeutendste interpersonale Kommunikationstechnologie.1 Im Verhältnis zu ihrer gesellschaftlichen Relevanz ist die wissenschaftliche Aufmerksamkeit für die Telefonie, zumal im Forschungsfeld der Computervermittelten Kommunikation, vergleichsweise gering (Brown/Perry 2000).2 Dies ist umso bemerkenswerter, als durch technische Innovationen die "Bedeutung des Telefonierens als soziale Aktivität" und "die Bedeutung des Telefons als Artefakt" in stetem Wandel begriffen sind, wie zuletzt die Erfindung des Mobiltelefons demonstrierte (Höflich/Rössler 2001: 443). Nachdem im Zusammenhang mit Massenmedien und öffentlicher Kommunikation Multimedia und mediale Konvergenz bereits intensiv diskutiert wird (bspw. Aufsätze in Latzer et al. 1999), und auch das Mobiltelefon diesbezüglich 1
Im Jahr 2003 wurden 1,2 Milliarden Festnetz- und 1,4 Milliarden Mobilfunkanschlüsse gezählt (EITO 2005).
2
Ausnahmen sind beispielsweise Fischer (1992), Lacohée & Anderson (2001), McCormick (2004) oder Zegler (2002). Die Mobiltelefonie erhält insgesamt mehr Aufmerksamkeit. Beispiele für Literatur im deutschsprachigen Raum sind Burkart (2000), Höflich (2001) oder Höflich/Rössler (Höflich/Rössler 2001).
150
Martina Joisten
untersucht wurde (bspw. Höflich 2001) ermöglicht VoIP heute eine nahtlose Integration sprach-, text- und bildbasierter Medien in der internetbasierten interpersonalen Kommunikation. Neben technischen Fortschritten prägen soziale Verhältnisse und individuelle Nutzungspräferenzen die Evolution von Kommunikationstechnologien, die somit nicht nur durch technische, sondern auch durch soziokulturelle Innovationen beeinflusst werden (Rammert 1989).3 Umgekehrt verändert und beeinflusst die (massenhafte) Nutzung von Medien und Kommunikationstechnologien die Kommunikation und Interaktion und hat als soziale Praxis Auswirkungen auf kulturelle, gesellschaftliche und soziale Zusammenhänge.4 Die technische Integration unterschiedlicher Medien führt nicht zwingend zu einer funktionalen Medienintegration (Höflich 1999), kann aber durchaus eine Konvergenz oder Innovation in den Gebrauchsweisen auslösen (McLuhan 1970). Aus diesen Vorüberlegungen ergeben sich u.a. kommunikationswissenschaftliche Fragestellungen: Wie verändert sich die heute bekannte Telefonkommunikation durch neue PC-basierte Telefonie? Folgt aus der technischen Konvergenz interpersonaler Kommunikationsmedien eine Konvergenz der Gebrauchsweisen? Um sich der Beantwortung dieser Fragen anzunähern, werden im Folgenden anhand einer ethnographischen Nutzerstudie zu Skype am Arbeitsplatz Einblicke in die Aneignung konvergenter interpersonaler Kommunikationsmedien gegeben und erste Veränderungen aufgezeigt, die sich in der Kommunikation durch den Einsatz von multimedialen, PC-basierten "Telefonen" abzeichnen.
Skype Die seit 2003 verfügbare Software Skype ist mit über 170 Millionen registrierten Nutzern, von denen täglich über acht Millionen gleichzeitig online sind, die zur Zeit vermutlich meistgenutzte Anwendung für PC-basierte Internettelefonie. Während die Skype-Software und Telefonate von Skype-Nutzern untereinander 3
Beispiele für soziokulturelle Innovationen sind insbesondere die Etablierung zunächst unerwarteter Nutzungsformen für Technologien. Beispiele für soziokulturelle Innovationen finden sich u.a. in der Geschichte des Telefonierens (vgl. hierzu Rammert 1989: 92ff.).
4
So geht Ziemann (2006: 6) davon aus, dass Medien die gegenwärtigen sozialen Verhältnisse und gesellschaftlichen Strukturen nachhaltig geprägt und eine irreversible Interdependenz ausgebildet haben.
Multimediale Gespräche in Skype
151
kostenlos sind, erhebt Skype geringe Gebühren für Verbindungen in das Festund Mobilfunknetz. Grundsätzlich ist Skype eine hybride Technologie, die Audiokommunikation mit Instant Messaging (IM) und Videokommunikation verbindet, und somit ein Bündel von Kommunikationsmöglichkeiten für seine Nutzer bereitstellt. Diese umfassen u.a. eine ursprünglich aus dem IM stammende 'Buddyliste', die die aktuelle Erreichbarkeit von Kontaktpersonen darstellt, das Austauschen von Textnachrichten in Echtzeit, Dateiübertragung, eins-zu-eins-Telefonie, Audiokonferenzen, Videotelefonie und das Versenden von SMS (vgl. Abb. 1). Abb. 1: Die Benutzeroberfläche von Skype mit der Buddyliste (anonymisiert)5
Entsprechend verankern Riemer & Frößler (2006) Skype konzeptionell im Bereich der präsenzbasierten Echtzeit-Zusammenarbeit und ordnen sie in die Klasse der Real-Time-Collaboration-Technologien (RTC) ein, die ihre Wurzeln 5
Quelle: Screenshot des Skype-Clients der Autorin.
152
Martina Joisten
sowohl im Telekommunikationsmarkt als auch im Markt für GroupwareSysteme haben. Laut Riemer und Frößler basieren RTC auf der Idee der Unified Communication, die eine computerunterstützte Kombination von Kommunikationskanälen unter Berücksichtigung von Nutzerpräferenzen und -kontexten postuliert. Unified Communication geht auf das ältere Konzept des Unified Messaging zurück, das durch die Integration synchroner Kommunikationsmöglichkeiten entsprechend erweitert wird (ebd.). Die Echtzeit-Kommunikation steht folglich als innovative Komponente im Mittelpunkt der neuen Anwendungen. So nennen auch Riemer & Frößler (2006) kommunikationsbezogene Aufgaben als größte Vorteile von RTC, bspw. das bessere Management von individueller Kommunikationskomplexität, erweiterte Kontrollmöglichkeiten eingehender Kommunikationsanfragen oder die einfache Durchführung von ad-hoc-Konversationen in Gruppen.
Fallstudie: Aneignung von Skype in dezentralen Projektteams Methoden In einer explorativen 24monatigen Feldstudie wurde die Aneignung und Nutzung von Skype in einer Forschungsorganisation beobachtet.6 Forschungsprojekte wurden in örtlich verteilt arbeitenden Projektteams von insgesamt fünf bis zwanzig Mitgliedern bearbeitet, wobei die Teams aus internen und externen Mitarbeitern aus anderen Forschungsinstituten, Universitäten oder Unternehmen bestanden. Projekte dauerten üblicherweise zwischen sechs Monaten und drei Jahren. Im Rahmen der Feldstudie konnten u.a. Skype-Konversationen und SkypeKonferenzen beobachtet und einzelne Logs von Skype-Konversationen (Texnachrichten) gesammelt werden. Zwölf Monate nach Beginn der Untersuchung wurden darüber hinaus 28 Interviews mit unterschiedlich erfahrenen SkypeNutzern durchgeführt.
6
Zum Zeitpunkt der Untersuchung war die Autorin als wissenschaftliche Mitarbeiterin in der untersuchten Forschungsorganisation angestellt.
Multimediale Gespräche in Skype
153
Technologies-in-practice Als theoretischer Rahmen für die Erhebung und Auswertung der empirischen Ergebnisse wurde die Theorie der Technologies-in-practice (Orlikowski 2000) verwendet, die auf die Strukturationstheorie von Anthony Giddens (1984) zurückgeht. Giddens sieht seine Theorie als Ontologie, die eine neue Anschauung der sozialen Welt ermöglicht, indem sie Struktur und Handeln miteinander in Einklang bringt. Die Verwendung der Strukturationstheorie in der Technologieforschung führt zu einer Sichtweise, bei der weder die betrachtete Technologie noch der organisatorische Kontext als deterministisch angesehen werden, aber auch eine zu starke Betonung des handelnden Akteurs vermieden wird (; Sproull/Goodman 1990). Eine Erweiterung der Strukturationstheorie im Hinblick auf Informationsund Kommunikationstechnik stammt von Orlikowski (2000). Sie verfolgt mit ihrem Konzept der Technologies-in-practice das Ziel, die Interaktion zwischen Akteuren und Technologie in ihrer täglichen sozialen Praxis zu untersuchen, die sie als ständige Aktivierung von Strukturen (Enactment) begreift. Die virtuellen Strukturen, die im Zuge der Technologienutzung in den Köpfen der Akteure entstehen, definiert sie in Abgrenzung zum materiellen technischen Artefakt als Technologies-in-practice. Orlikowski unterscheidet drei Formen der Aktivierung von Technologies-in-practice, die sich auf die Nutzung der gleichen Softoder Hardware beziehen: • Inertia, bei der die Nutzer ihre gewohnte Arbeitsweise nicht ändern möchten, • Application, bei der die Nutzer Kommunikations- und Arbeitsprozesse zu verbessern suchen und • Change, bei der das Ziel der Nutzung ein Wandel bestehender Kommunikations- und Arbeitsweisen ist. Die Verwendung von Orlikowskis Ansatz in Kombination mit ethnographischen Methoden ermöglicht eine Perspektive, die zwischen subjektivistischen und objektivistischen Technikkonzeptualisierungen vermittelt. Bei der Untersuchung des Wandels sozialer Praxis in der Interaktion ist besonders die Aktivierungsform Change relevant
154
Martina Joisten
Aneignung von Skype Im betrachteten Forschungsinstitut erfolgte die Diffusion von Skype bottom-up im Rahmen einer ungesteuerten Diffusion.7 Durch die Art der Diffusion ist der Type der Inertia, bei der Akteure Skype skeptisch gegenüber stehen und an alten Verhaltensmustern, in diesem Fall der Telefonie, festhalten, nicht anzutreffen.8 Mitarbeiter, die bspw. das Telefonieren über ein Headset oder die Anzeige ihrer Verfügbarkeit ablehnten, installierten und nutzen Skype erst gar nicht oder probierten es nur für kurze Zeit aus, da sie keine überzeugenden Vorteile der Internettelefonie gegenüber der vertrauten herkömmlichen Telefonie sahen. Der Typ Application muss zunächst im Hinblick auf die Vorerfahrungen der Akteure mit anderen Kommunikationsmedien differenziert werden. Diejenigen, die vorher bereits einen Instant Messenger eingesetzten, erweiterten durch Skype ihre IM-Praxis durch die Möglichkeit zur Telefonie. Eine Verbesserung der Telefonkommunikation wurde in erster Linie durch die Möglichkeit zur einfachen Durchführung von ad-hoc und terminierten Telefonkonferenzen erreicht. Change, die Form der Aktivierung, die größere Veränderungen im Kommunikationsverhalten der Akteure zur Folge hatte, fand sich insbesondere bei jenen, die hauptsächlich in virtuellen Projektzusammenhängen arbeiteten. Diese Akteure traten aktiv als Promotoren für die Software Skype auf. Die Projektsteuerung und -koordination, die vor dem Einsatz von Skype über herkömmliches Telefon, persönliche Treffen und Email abgewickelt wurde, verlagerte sich verstärkt zu Skype. Telefonkonferenzen und Nachrichtenaustausch via Skype führten mitunter zu einem Anstieg an Interaktionen. Im Laufe der Nutzungsstabilisierung wurden Regeln für die Interaktion bewusst in Teams diskutiert, entwickelten sich aber auch aufgrund erweiterter Möglichkeiten und spezieller Erfordernisse von Skype-Interaktionen. Diese bezogen sich auf den Umgang mit den Awareness-Informationen (vgl. hierzu auch Frößler 2006), aber auch auf den kombinierten Einsatz von text- und audiobasierten Kommunikationskanälen.
7
Mitarbeiter durften Software für geschäftliche Zwecke installieren und nutzen, ohne vorher eine Erlaubnis der Geschäfts- bzw. Abteilungsleitung einzuholen.
8
Die Reduzierung von Telefonkosten spielte für die Mitarbeiter in der Forschungsorganisation keine Rolle und stellte daher keinen Anreiz für die Skype-Nutzung dar.
Multimediale Gespräche in Skype
155
Multimedialität in Skype Insbesondere bei erfahrenen Skype-Nutzern des Aktivierungstyps Change zeichnete sich eine spezifische Form der Kommunikation ab, die durch diachrone und synchrone Multimedialität gekennzeichnet ist. Diachrone Multimedialität: Ein erfolgreicher Einsatz am Arbeitsplatz erfolgte in der Regel dann, wenn die Nutzer nicht nur die Telefonfunktion, sondern auch die IM-Funktion einsetzten. Insbesondere der Textkommunikation kam vor der eigentlichen Interaktion eine besondere Rolle in der Initiierung und Verhandlung von Konversationen zu. Unter fortgeschrittenen Nutzern ist es dabei üblich, zunächst über eine Textnachricht den Wunsch nach einem Gespräch unter Angabe des Themas anzukündigen. Selbst vor formalen, verabredeten Gesprächen wurden Textnachrichten ausgetauscht, was an die Hyperkoordination erinnert, die im Zusammenhang mit der Mobiltelefonie beobachtet wurde (Ling/Yttri 2002). Die Textnachricht fungiert somit als Einleitung für ein Gespräch, das in unterschiedlichen Kanälen geführt werden kann (auch in IM selbst). Ähnlich berichten Höflich/Rössler (2001: 7) von einer sich wandelnden Medienetikette: Im Zeitalter der digitalen Medien gelten unangemeldete Anrufe zunehmend als Belästigung (vgl. Abb. 2). Abb. 2:
Skype-Profil eines Mitarbeiters der Firma Skype, der keine direkte Anrufe ohne Voranmeldung wünscht
156
Martina Joisten
Synchrone Multimedialität: Auch während einer Konversation wurden unterschiedliche Medien eingesetzt. Bisher war vornehmlich der parallele Einsatz von IM und Telefon bekannt, bei dem zwei Gesprächspartner während einer Telefonkonferenzen einen "geheimen" Kommunikationskanal über IM einrichteten, oder unterschiedliche Konversationen zur gleichen Zeit führten (Nardi et al. 2000: 85). In Skype wurden darüber hinaus unterschiedliche Medien in einer Konversation vermischt. So erfolgte beispielsweise während eines Telefongesprächs der Austausch von URLs, copy&paste-Text, Telefonnummer, Bildern oder Emoticons, die sich direkt auf das Telefongespräch bezogen, in IM (vgl. Abb. 3). Der gesamte Inhalt solcher Konversationen erschließt sich nur durch die gemeinsame Berücksichtigung des gesprochenen und geschriebenen Wortes und aller anderen genutzten Medien. Abb. 3:
Beispiel für die kombinierte Verwendung von Telefonie, Textnachrichten und Dateitransfer in Skype
Multimediale Gespräche in Skype
157
Diskussion und Ausblick Skype bietet eine Bündelung text- und sprachbasierter Kommunikationsmedien und somit einen spezifischen Medienrahmen für synchrone interpersonale Kommunikation, ist aber auch eingebettet in das umfassende Medium Internet. Zu diesem frühen Zeitpunkt kann noch nicht von einer Standardisierung der Gebrauchsweisen ausgegangen werden. Es konnten unterschiedliche Formen der Aneignung und Skype-Nutzung beobachtet werden, die wiederum unterschiedliche Konsequenzen für die Interaktion in den betrachteten verteilten Teams hatten. Bei den erfahrensten Anwendern von Skype konnte aber eine zunehmend stabile Nutzung beobachtet werden, die u.a. durch den kombinierten Einsatz von unterschiedlichen Medien gekennzeichnet war. Eine Konvergenz von Medienrahmen und Interaktionsregeln, die vorher mit IM und dem Telefon in Verbindung gebracht wurden, scheint daher neue, multimediale Gebrauchsweisen hervorzubringen, die u.a. dem Adressaten von Kommunikationsanfragen mehr Kontrolle über seine Verfügbarkeit für Konversationen verleiht. Die aufgezeigten Entwicklungen haben sowohl Implikationen für das Design innovativer Kommunikationsmedien als auch für das zukünftige Verständnis computervermittelter interpersonalen Kommunikation.
Literatur Association for Computing Machinery (Hrsg.) (2000): Conference Proceedings of CSCW '00, December 2-6, Philadelphia, USA. New York: ACM Press. Brown, Barry/Perry, Mark (2000): Why don't telephones have off switches? Understanding the use of everyday technologies. A research note. In: Interacting with computers 12.6. 623-634. Burkart, Günter (2000): Mobile Kommunikation. Zur Kulturbedeutung des "Handy". In: Soziale Welt 5. 209-232. Cherry, Steven (2005): Seven Myths About Voice over IP. In: IEEE Spectrum March 2005. 52-57. EITO (2005): European Information Technology Observatory. Frankfurt/M.: Eito. Fischer, Claude S. (1992): America Calling: A social History of the Telephone to 1940. Berkeley: University of California Press. Forschungsgruppe Telefonkommunikation (1989): Telefon und Gesellschaft. Berlin: Wissenschaftsverlag Volker Spiess. Frößler, Frank (2006): Communication Genres for Dispersed Collaboration: Towards an Understanding of Presence and Awareness. Twenty-Seventh International Conference on Information Systems. Milwaukee, Wisconsin. Giddens, Anthony (1984): The constitution of society: Outline of the theory of structuration. Cambridge: Polity.
158
Martina Joisten
Goodman, Paul S./Sproull, Lee S./and Associates (Hrsg.) (1990): Technology and Organizations. San Francisco: Jossey-Bass. Höflich, Joachim R. (1999): Der Mythos vom umfassenden Medium. Anmerkungen zur Konvergenz aus einer Nutzerperspektive. In: Latzer et al. (Hrsg.) (1999): 43-60. Höflich, Joachim R. (2001): "Das Handy als 'persönliches Medium'. Zur Aneignung des Short Message Service (SMS) durch Jugendliche". In: kommunikation@gesellschaft 2.1. Höflich, Joachim R./Rössler, Patrick (2001): Mobile schriftliche Kommunikation oder: E-Mail für das Handy. In: Medien & Kommunikationswissenschaft 49.4. 437-461. Jones, M.R./Karsten, H. (2003): Review: Structuration Theory and Information Systems Research, Research Papers in Management Studies, Nr. WP 11/2003. Cambridge: University of Cambridge, Judge Institute of Management. Katz, James E./Aakhus, Mark A. (Hrsg.) (2002): Perpetual Contact. Cambridge: Cambridge University Press. Lacohée, Hazel/Anderson, Ben (2001): Interacting with the telephone. In: International Journal of Human-Computer Studies 54.2001. 665-699. Latzer, Michael/Maier-Rabler, Ursula/Siegert, Gabriele/Steinmaurer, T. (Hrsg.) (1999): Die Zukunft der Kommunikation, Phänomene und Trends in der Informationsgesellschaft. Innsbruck, Wien: Studien-Verlag. Ling, Richard/Yttri, Brigitte (2002): Hyper-coordination via Mobile Phones in Norway. In: Katz/Aakhus (Hrsg.) (2002): 139-169. McCormick, Anita L. (2004): The Invention of the Telegraph and Telephone in American History. Berkeley Heights: Enslow Publishers. McLuhan, Marshall (1970): Die magischen Kanäle. Understanding Media. Frankfurt: Fischer. Nardi, Bonnie A./Whittaker, Steve/Bradner, Erin (2000): Interaction and Outeraction: Instant Messaging in Action. In: Association for Computing Machinery (Hrsg.) (2000): 79-88. Orlikowski, Wanda J. (2000): Using technology and constituting structures. A practical lens for studying technology in organizations. In: Organization Science 11.4. 404-428. Rammert, Werner (1989): Der Anteil einer Kultur an der Genese einer Technik: Das Beispiel Telefon. In: Forschungsgruppe Telefonkommunikation (1989): 87-96. Riemer, Kai/Frößler, Frank (2006): Presence-based, Context-sensitive Real-Time Collaboration (RTC) - research directions for a new type of eCollaboration system. 19th Bled eConference eValues, Bled, Slovenia, June 5-7. Bled: eCenter, Faculty of Organizational Sciences, University of Maribor. Sproull, Lee S./Goodman, Paul S. (1990): Technology and organizations: Integration and opportunities. In: Goodman et al. (Hrsg.) (1990): 254-265. Zegler, Sabine (2002): Das Pferd frißt keinen Gurkensalat. Kulturgeschichte des Telefonierens. Wien: Böhlau. Ziemann, Andreas (2006): Soziologie der Medien. Bielefeld: transcript Verlag.
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet Julie Woletz
Anlässlich der 2006 zum zweiten Mal stattfindenden Web 2.0 Konferenz findet in der Öffentlichkeit eine verstärkte Diskussion um innovative Konzepte und neue Medien computervermittelter Kommunikation statt (von Gehlen 2006: 1). Obwohl die akademische Fachwelt vielem noch skeptisch gegenüber steht, scheinen einige Anwendungen und Internet-Dienste bereits ganz im Sinne Tim O'Reillys Konzepts1 auf den aktiv partizipierenden Nutzer und seine Daten ausgerichtet zu sein. Besondere Beachtung findet derzeit die Verbreitung konsumentengenerierter Medien über Dienste wie Flickr – "the best way to store, search, sort and share your photos" (http://www.flickr.com/) – und aktuell über das Filmportal YouTube, ein Internet-Dienst für das Ansehen und Verbreiten selbst gedrehter Videos mit dem interessanten Slogan "Broadcast Yourself" (http://www.youtube.com/). Während YouTube unzweifelhaft das derzeit größte Portal privater Kurzfilme darstellt, sind jedoch die Kommunikationsform des Digital Storytelling als solche oder die spezielle Medienform der Videostories keineswegs neue Phänomene. Zur Frage des Innovationsgehalts dieser Medienentwicklungen scheint es daher angemessen, zunächst auf den Entstehungszusammenhang und die technikgeschichtliche Entwicklung des Digital Storytelling einzugehen, um dann am konkreten Beispiel der Videostories im Internet die spezifischen Innovationen in der Medienkonfiguration und den Kommunikationsmodalitäten zu zeigen.
1
Das Konzept "Web 2.0" wurde im Frühjahr 2004 von Tim O'Reilly und Dale Dougherty vom Computer-Fachverlag O'Reilly begründet und konstatiert eine neue Entwicklungsstufe des Internets, dessen wesentlicher Bestandteil der aktiv partizipierende Nutzer und sein Wissen ist (O'Reilly 2005).
160
Julie Woletz
Technikgeschichtliche Entwicklung Der Begriff "Digital Storytelling" ist in den Geistes- und Sozialwissenschaften noch wenig gebraucht, weist aber bereist eine gewisse Tradition in der Informatik auf. Hier begann schon in den frühen 1970ern das Interesse an Narratologie, also zu einem Zeitpunkt, als es weder Personal Computer noch das Konzept persönlicher digitaler Medien gab.2 Die Forschung konzentrierte sich auf das zu der Zeit viel versprechendste Gebiet: die Künstliche Intelligenz (KI). Neben den Kerngebieten der KI-Forschung zu Intelligenz, kognitiven Prozessen, Wissen und der Simulation intelligenten Verhaltens mit den Mitteln der Informatik versuchte man – besonders seitens der so genannten "Yale View of AI"3 von Marvin Minsky und Roger Schank – zusätzlich Narrative in die Disziplin zu integrieren. Besonders in den 1970ern und 1980ern waren Erzähltheorien in der KI-Forschung sehr beliebt, da man bisher nur mathematisch-logische Prozesse der Informationsverarbeitung untersucht hatte und sich nun damit befasste, welche Wissensstrukturen und Prozesse nötig sind, um natürliche Sprache und die Bedeutung von Geschichten zu verstehen (Schank/Abelson 1977). Narrative wurden insofern als eine nicht-formale Form von Wissen aufgefasst; ästhetische Komponenten, kommunikative Modi oder Medien waren für die KI-Forschung nicht weiter interessant. Erst in den 1980ern wurden derartige Aspekte auch in der Informatik thematisiert und wurden wiederum Ergebnisse der Narratologie-Forschung in andere Disziplinen wie beispielsweise die neu gegründete Narrative Psychologie integriert (Bruner 1991; Mitchell/Thomas 1981). 1986 erhielt Brenda Laurel den ersten Doktortitel für das Design eines interaktiven Fantasy-Systems (Laurel 1986), in dem sie ihren Hintergrund in Theaterwissenschaft mit ihrer Erfahrung als Programmiererin kombinierte und das Genre "Interactive Drama" begründete. Mit einem ähnlich integrativem Ansatz wurde 1990 am MIT die Narrative Intelligence Reading Group (NI) von Marc Davis und Michael Travers als interdisziplinärer Diskurs begründet. Kern dieser Forschung bildete ein gemeinsames Interesse an Erzähltheorie, Wissensrepräsentation und erstmals auch an compu2
Der ALTAIR 8800 von 1975 gilt als der erste Personal Computer. 1977 stellte Alan Kay (Kay/Goldberg 1977) mit dem "Dynabook" erstmals sein Konzept persönlicher, dynamischer Medien in der Größe eines Notebooks vor.
3
Das Interesse der "Yale View of Artificial Intelligence" bestand nicht nur darin, künstliche Intelligenzen zu erzeugen, sondern mit der Forschung zu diesem Gebiet gleichzeitig auch das Wissen über den menschlichen Geist, die menschliche Intelligenz und Wissensverarbeitung zu erweitern. Man strebte daher eine gegenseitige Bereicherung der Gebiete zu menschlicher und künstlicher Intelligenzforschung an.
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet
161
terbasierten Medienformaten (Davis/Travers 1999). Unter dem Titel "Narrative Intelligence" (Mateas/Sengers 1999) entstanden in der Folge die unterschiedlichsten Beiträge und Entwicklungen z.B. zu interaktivem Drama (Mateas 2002) meist mit Bezug auf Brenda Laurel, die das Genre weiter etablierte (Laurel 1993), zu textorientierten interaktiven Narrativen auf der Basis von Janet Murrays Konzeption prozeduraler Autorschaft,4 aber auch pädagogische Systeme zur Unterstützung für das Geschichtenerzählen von und für Kinder und Jugendliche (Umaschi Bers 1999). Bereits 1990 stellte Abbe Don mit Kollegen aus der NI-Gruppe das GuidesProjekt von Apple Computer einer breiten Öffentlichkeit vor, in dem Konzepte des mündlichen Geschichtenerzählens mit Videos von Erzählerfiguren – den Guides – kombiniert wurden (Don 1990). Mit dem Projekt wurde der ursprüngliche Ansatz der KI-Forschung, Narrative als nicht formale Wissensform aufzufassen und für die Zugriffsstrukturierung auf große Datenbanken im Kontext der Informationsvermittlung zu nutzen, erstmals in einer Multimedia-Lernumgebung umgesetzt. Durch das neue Interface-Design konnten Zugriffe auf die Datenbank zu einer Enzyklopädie amerikanischer Geschichte nicht nur historisch und systematisch erfolgen, sondern anhand folgender Kategorien: "Articles", "Pictures", "Sounds", "Timeline", "Historical Documents", "Maps", "Tours" und "Guides" (Don 1999). Neben der freien Auswahl aus den verfügbaren Kategorien boten die Erzählerfiguren eine vorstrukturierte Navigation (guided tour) durch die Daten, sodass am Ende aus den verknüpften Einträgen eine unterhaltsame, aber dennoch lehrreiche Geschichte – story/history – entstand. In den Benutzer-Tests stellte sich heraus, dass User auf die guided tours sehr passiv wie auf traditionelle Medien reagierten. Die Guides bestanden aus Figuren wie einer Siedlerin, einem Pastor, einem Sklaven, einem Indianer usw. und waren in der ersten Version nur als Oberbegriff für Artikel zu einem Thema gedacht. Es zeigte sich jedoch, dass die Nutzer von den Guides erwarteten, nicht nur der Navigation zu dienen, sondern darüber hinaus auch den gezeigten Inhalt zu beeinflussen. Guides wurden also aufgefasst wie Erzähler mit einer spezifischen Perspektive auf die von ihnen präsentierten Inhalte (Oren et al. 1999: 372). In späteren Versionen konnte diese Erwartungshaltung zum Teil integriert werden. Alle Erzählerfiguren wurden beispielsweise in Kurzfilmen mit fiktiven Lebensgeschichten vorgestellt; eine dynamische Anpassung der Inhalte konnte jedoch nicht realisiert werden. 4
Janet Murray entwickelte Immersion, Agency und Transformation als zentrale ästhetische Kategorien digitaler Narrative und integrierte Propp's Morphologie in ein Konzept prozeduraler Autorschaft, das als theoretische Grundlage einiger Entwicklungen diente (Murray 1997: 185-213).
162
Julie Woletz
Abgesehen von diesem Interface-Design für Zugriffe auf eine Geschichtsdatenbank arbeitete Abbe Don auch an Projekten wie "We Make Memories", einer interaktiven Videoinstallation zu ihrer Familiengeschichte mit Fotos, Audiound Videostories (Don 1989-1995). Repräsentativ für den Bereich privater Geschichten und Videostories sind vor allem die Arbeiten des Videokünstlers Dana Atchley. Zusammen mit Joe Lambert entwickelte Atchley ab Anfang der 1990er die digitale Autobiographie "Next Exit" (Atchley 1990-2005), die zuerst ebenfalls als Kunst-Installation gezeigt wurde und später auch im Internet zur Verfügung stand. 1994 gründeten Atchley, Lambert und Nina Mullen das San Francisco Digital Media Center, aus dem in der Folge das einflussreiche Center for Digital Storytelling entstand und starteten Personal Storytelling Workshops zur Produktion von privaten Videogeschichten für ein breites Publikum (Atchley et al. 1994). Einen vergleichbaren Ansatz persönlicher, digitaler Geschichten in illustrierten Texten vertrat Derek Powazek in dem elektronischen Magazin "Fray" (Powazek 1996-2005). Weitere Variationen von Geschichten aller Art entstanden auf der Produktionsseite mit der Ausweitung von einfachen Editiersystemen, mit den privaten Distributionsmöglichkeiten über das Internet und mit neu entstandenen, spezialisierten Internet-Diensten für konsumentengenerierte Medienformate wie Flickr für Fotos (http://www.flickr.com/) oder YouTube für Videos (http://www. youtube.com/).
Zwei Hauptströmungen oder Zugänge zu Digital Storytelling Heutzutage produziert eine Internet-Suche zu "Digital Storytelling" Millionen von Einträgen. Anhand der Charakteristik dieser Medienentwicklungen, insbesondere anhand der jeweiligen Gewichtung von Technologie bzw. medialer und kommunikativer Innovationen wurde bereits dafür plädiert, das Feld des Digital Storytelling in zwei Hauptströmungen mit einem top down und einem bottom up approach zu unterteilen (Kelsey im Erscheinen; Woletz im Erscheinen). Es lässt sich zeigen, dass in diesen Zugängen zu Digital Storytelling 'von oben', also von Universitäten und Forschungslabors zumeist aus der Informatik und 'von unten', in Form von privatem Publizierens digitaler Geschichten, die computervermittelte Kommunikationsform digitalen Geschichtenerzählens in je unterschiedlicher Weise technisch und medial realisiert und inhaltlich fokussiert wird.
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet
163
Digital Storytelling top down Die ersten digitalen Geschichten entstanden quasi als ein 'Nebenprodukt' der KIForschung zur Wissensrepräsentation bzw. als Strukturmethode für Informationssysteme. Dieser Focus auf "automated narration as a data structuring method for information systems" (Braun 2002: 38) findet sich nach wie vor in aktuellen Entwicklungen der Informatik an Universitäten oder in Forschungslabors. Die Abteilung für Digital Storytelling des Zentrums für grafische Datenverarbeitung (ZGDV) in Darmstadt bietet beispielsweise die beiden "Dino Hunter"Anwendungen "DinoSim" (ZGDV 2003-2004) für die Nutzung im Museum und "DinoExplorer" (ZGDV 2003) für den mobilen Einsatz per PDA an, um über ein narratives Suchspiel den Besuch im Senckenbergmuseum in Frankfurt besonders für Kinder attraktiver zu machen (Sauer et al. 2004). Nach demselben Edutainment-Prinzip wurde auch "art-E-fact" entworfen. Der Prototyp einer interaktiven Geschichte zu einem Kunstraub soll auf unterhaltsame Art kunsthistorisches Wissen vermitteln. Dazu werden für die Präsentation Text, Grafik, Audio- und Videosequenzen sowie Gestenerkennung für den Input verwendet (Iurgel et al. 2004). Das bisher größte Projekt des ZGDV ist ein Augmented Reality-Szenario in Heidelberg zu Geschichtsdaten über den 30jährigen Krieg mit dem Namen "Geist" (ZGDV 2001-2004). Einer der Entwickler Norbert Braun hat hierfür den Vorschlag von Janet Murray aufgegriffen, Vladimir Propps "Morphologie des Volksmärchens" in ein Konzept prozeduraler Autorschaft zu integrieren (Murray 1997: 185-213). Propp hatte einen Korpus von 100 russischen Volksmärchen analysiert und festgestellt, dass sich die Figurenkonstellationen und Ereignisse in den Märchen als Variationen von maximal 31 Funktionen in einem Struktur-Modell darstellen lassen. Unter Funktion versteht Propp eine "Aktion einer handelnden Person [...], die unter dem Aspekt ihrer Bedeutung für den Gang der Handlung definiert wird" (Propp/Eimermacher 1972: 27). Überträgt man diese Funktionen in eine strukturalistische story engine, so erlaubt das Modell das interaktive Erzählen einer vorverfassten Geschichte, bei der einzelne Ereignisse oder Figuren beeinflusst werden können, ihre Funktion innerhalb der Geschichte jedoch erhalten bleibt. Wie an diesen wenigen Beispielen deutlich wird, sind für den Zugang des top down storytelling spezielle Datenbanken, story engines, Ein- und Ausgabegeräte – kurzum Technologie nötig, die bisher nur von gut ausgestatteten Forschungseinrichtungen zur Verfügung gestellt werden kann. Technologie ist für diese Form des Digital Storytelling 'von oben' allerdings nicht nur auf der Produktionsseite relevant, sondern führt auch zu einem sehr selektivem Gebrauch auf der Rezeptions- und Nutzungsseite. So interessant die Projekte auch sind, gesehen, gehört oder genutzt werden die Geschichten – wenn überhaupt – nur in
164
Julie Woletz
Ausstellungen, Konferenzpräsentationen oder vielleicht noch in Museen, die neuerdings anstatt Schilder zu Exponaten auszustellen kleine Geschichten vorspielen. Dies führt auf der Inhaltsebene wiederum dazu, dass auch nur die 'großen Erzählungen', kulturelle Archive, Geschichte etc. thematisiert werden und diese Digital Stories in jedem Fall institutionalisiertem Wissenstransfer dienen.
Digital Storytelling bottom up Zeitgleich zu diesen Hochtechnologien entstand jedoch seit den frühen 1990ern eine Gegenströmung bottom up, in der anstatt auf narrative Zugriffe auf Datenbanken kultureller Archive auf persönliche, authentische, auf privaten Medienarchiven beruhende Geschichten gesetzt wurde. Dieser Zugang 'von unten' orientiert sich im Wesentlichen an der Film-Workshop Praxis wie sie vom Center for Digital Storytelling entworfen wurde und integriert lokale oder interessenspezifische Komponenten. Im BBC Workshop Projekt "Capture Wales" wird Digital Storytelling folgendermaßen beschrieben: Digital stories are 'mini-movies' created and edited by people like you – using cameras, computers, scanners and their own photo albums. Everyone has a story to tell and new technology means that anyone can create a story that can show on a website like the ones you see here. The idea is to show the richness of life in Wales through stories made by the people of Wales. It's you who decide what those stories are. (BBC 2006)
Für die gewöhnlich alle zwei Monate stattfindenden Workshops kann sich jeder bewerben. Das Vorgehen ist meist so, dass Fotos ausgewählt und gescannt werden und dazu die Geschichte erzählt wird. So entstehen ca. dreiminütige Kurzfilme – 'mini-movies' –, in denen oft nicht einmal 'bewegte Bilder' verwendet werden. Meistens handelt es sich um Diashows der gescannten Fotos mit einer Voiceover Erzählung und evtl. Musik. Genau wie im Center for Digital Storytelling werden ausschließlich persönliche Geschichten erzählt und anschließend über die BBC-Website veröffentlicht. Die technischen Voraussetzungen für diese bottom up-Strömung des Digital Storytelling entstanden mit der Ausweitung digitaler Medien – vom Foto-Handy über digitale Foto- und Videokameras für den Heimgebrauch – und mit einfachen Editiersystemen für das private Publizieren im Internet. Für diese Geschichten sind weder spezielle story engines noch ungewöhnliche Ein- oder Ausgabegeräte erforderlich. Heutzutage ist nicht einmal mehr ein Workshop nötig, sondern kann potenziell jeder Autor einer digitalen Geschichte werden, sie am PC zuhause mit Office-Programmen wie Movie Maker oder anderer Standard-Software produzieren und über die eigenen Web-Seiten oder über
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet
165
spezialisierte Dienste wie YouTube im Internet verbreiten. Und weil praktisch alles fotografiert, gescannt, importiert oder gesampelt werden kann, verschieben sich mit dem Gebrauch privater Medienarchive – Text, Musik, Fotos, Filme – auch die Inhalte und Ästhetik zugunsten einer Mediatisierung des Alltäglichen, Privaten, Authentischen – oder zumindest als authentisch behaupteten, auch wenn dies nicht überprüfbar ist.
Spezifische Innovationen Vergleicht man nun diese Zugänge zu Digital Storytelling, so stellt sich die Frage, worin denn letztendlich die Innovation, der mediale und kommunikative Wandel in der computervermittelten Kommunikation besteht. Digitales Geschichtenerzählen meint offensichtlich nicht, dass eine Geschichte einfach nur über das Internet distribuiert wird, sondern geht von der Annahme aus, dass der medientechnologische Wandel auch auf die Kommunikationsform zurückschlägt. Marie-Laure Ryan geht dabei von folgender These aus: If digital media can be said to create new forms of narrativity, this novelty does not concern semantics, but, rather, presentational strategies (that is, discourse) and above all, pragmatic factors: new modes of user involvement; new types of interface; and new relations between the author (or, rather, system designer), the plot (or plots), and users. (Ryan 2004a: 333, eigene Hervorhebung)
Es gilt also, die jeweiligen Präsentationsstrategien und pragmatischen Faktoren der digital stories näher auf ihren Innovationsgehalt hin zu untersuchen. Hierzu wurden Fallstudien zum BBC Projekt "Capture Wales"5 und zu YouTube – repräsentativ für die bottom up-Videostories – durchgeführt und mit dem Portfolio des ZGDV – repräsentativ für den top down-Zugang zu Digital Storytelling – verglichen. Im Rahmen der Webseiten des BBC Projekts erfolgen die Präsentation und die Zugriffe auf die Geschichten anhand thematischer Kategorien. Da das Projekt "Capture Wales" die Community in Wales repräsentieren soll, wurden für diesen spezifischen Zweck außerdem ein Mapping aller Stories auf einer Landkarte von Wales und eine Navigation per "Browse by area" integriert. Darüber hinaus beinhaltet die Präsentationsstrategie des BBC Projekts für jede Geschichte die Wahlmöglichkeit zwischen einer visuellen Präsentation im Video, die 5
Eine ausführliche Darstellung dieser Fallstudien sowie eine Diskussion zur Repräsentation der Autoren wurde bereits im Rahmen der Konferenz "Transcultural Modernities: Narrating Africa in Europe" vorgestellt (Helff/Woletz im Erscheinen).
166
Julie Woletz
über den Hyperlink "View movie" gestartet wird, und einer Text-Version im Transkript über den Hyperlink "Read the transcript". Auf der pragmatischen Ebene partizipiert der Nutzer insofern am Erzählen der Geschichte, als es seine Wahl ist, welche Präsentationsform der Geschichte er startet. Außerdem kann über ein Formular Interesse an einem eigenen Workshop-Beitrag signalisiert werden. Neben diesen auf das eigentliche Storytelling bezogenen Funktionen bietet das "Interview with the storyteller" diverse Hintergrundinformationen zum Autor, zum Workshop, eine Synopsis zum Film usw. Über die Funktion "Please let us know" ist weiterhin eine Feedback- und Diskussionsmöglichkeit integriert, die auch die Kommentare anderer User zur Verfügung stellt und klassisch einseitige Kommunikation übersteigt. Die Beispiele des ZGDV stehen hier repräsentativ für den top down-Zugang zu Digital Storytelling in Informatik und Forschungseinrichtungen. Innovationen sind in diesen Fällen tatsächlich vor allem durch die jeweils neuste Technologie bestimmt und dienen institutionalisiertem Wissenstransfer. Die Präsentationsstrategien und Interfaces reichen entsprechend von Bildschirmen, Videoaufzeichnung mit Gestenerkennung über portable Geräte zu Augmented Reality Systemen, die den Nutzer über spezifische story engines in ein interaktives Erzählen involvieren. Wie schon hervorgehoben wurde, besteht eine Konsequenz dieses Technikeinsatzes jedoch in der hohen Selektivität der Nutzungsmöglichkeiten. So sind zweifelsohne innovative Projekte vorhanden, aber nicht – oder zumindest noch nicht – in breite kommunikative Prozesse eingebunden. Bei den Videostories stellt sich die Situation allerdings völlig anders dar. Auf den einzelnen Workshop-Webseiten finden sich derzeit erst relativ wenig Videostories; das BBC-Projekt "Capture Wales" bietet beispielsweise ca. 300 Videos zur Auswahl. Das Angebot an derartigen Film-Workshops nimmt jedoch global kontinuierlich zu. Noch deutlicher zeigt sich ein Wandel in computervermittelten Kommunikationsformen bei den Diensten für konsumentengenerierte Medien. Angesichts 60.000 neu eingestellter Videos täglich und Besucherzahlen von 20 Millionen pro Monat (Reuters 2006) gilt YouTube der Süddeutschen Zeitung als der "Inbegriff von Internet-Video" und der Inbegriff für so etwas wie "Video von unten" (Graff 2006: 12). Mit der Übernahme durch Google und den Berichten darüber in allen Nachrichten dürfte der Bekanntheitsgrad noch zugenommen haben und sich diese Kommunikationsform weiter etablieren.
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet
167
Fazit Innovation und Medienwandel der Kommunikationsform Digital Storytelling, insbesondere der Stories 'von unten', lassen sich nicht vollständig auf technische Entwicklungen und Innovationen reduzieren, sondern sind in den medialen Gebrauchsweisen, den genutzten Strukturen multimedialer Kommunikation und Interaktion begründet. Im Bereich der Präsentationsstrategie bietet Digital Storytelling innovative Medienkonfigurationen in Form einzelner Medien, multipler Medien (zwei oder mehr separate) und Multimedia (eine nahtlose Integration mehrerer Medien in einer Präsentation). Auf der pragmatischen Ebene involvieren diese Präsentationsmodi den Nutzer insofern, als es seine Auswahl ist, welche Geschichten er sehen oder hören will (on demand-Zugriffe) und er darüber hinaus auf den Webseiten der Film-Workshops die Wahl hat, welche Präsentationsform (Film oder Text) er für die Geschichte wählt. Weiterhin können Relationen zwischen den Beteiligten nicht nur über einseitige Massenkommunikation, sondern über multimodale Kommunikationsformen entstehen z.B. durch integrierte Feedback-Möglichkeiten, Diskussionsforen oder im Fall von YouTube auch über innovative Formen der Video-Replies und Video-Zitate. Innerhalb der einzelnen Zugänge zu Digital Storytelling führt diese Medienentwicklung und insbesondere der zunehmende Breiteneinsatz digitaler Medien auch zu einer Verschiebung der Inhalte von institutionalisiertem Wissenstransfer hin zu persönlichen, 'authentischen' Geschichten. Digital Storytelling – und hier vor allem die Videostories im Internet – ist daher auch im Sinne einer Prognose ein Beispiel der zunehmenden Mediatisierung des Alltags und des Alltäglichen.
Literatur Atchley,
Dana (1990-2005): Next Exit. Online: driveinframeset.html (abgerufen am: 21.10.2006).
http://www.nextexit.com/drivein/
Atchley, Dana/Lambert, Joe/Mullen, Nina (1994): Center for Digital Storytelling. History. Online: http://www.storycenter.org/history.html (abgerufen am: 02.03.2006). BBC (2006): Capture Wales Digital Storytelling. About Capture Wales. Online: http://www.bbc. co.uk/wales/capturewales/about/ (abgerufen am: 15.06.2006). Bearman, D./Trant, J. (Hrsg.) (2004): Museums and the Web 2004: Selected Papers from an International Conference. Toronto: Archives & Museums Informatics. Braun, Norbert (2002): Automated Narration - the Path to Interactive Storytelling. In: Brna (Hrsg.) (2002): 38-46.
168
Julie Woletz
Brna, Paul (Hrsg.) (2002): Narrative and Interactive Learning Environments. Conference Proceedings. Bruner, Jerome (1991): The Narrative Construction of Reality. In: Critical Inquiry 18.1. 1-21. Davis, Mark/Travers, Michel (1999): A Brief Overview of the Narrative Intelligence Reading Group. AAAI 1999 Fall Symposium on Narrative Intelligence. Online: http://www.cs.cmu. edu/afs/cs/user/michaelm/www/nidocs/DavisTravers.pdf (abgerufen am: 22.11.2004). Don, Abbe (1989-1995): We Make Memories. Online: http://www.abbedon.com/project/ wemake.html (abgerufen am: 15.12.2006). Don, Abbe (1990): Guides 3.0. Online: http://www.abbedon.com/project/guides.html (abgerufen am: 15.12.2006). Don, Abbe (1999): Narrative and the Interface. In: Laurel (Hrsg.) (1999): 383-391. Graff, Bernd (2006): Kamerafahrten durchs planetarische Hinterzimmer. In: Süddeutsche Zeitung, 132, 10.06.2006. 12. Hartley, John/McWilliam, Kelly (Hrsg.) (im Erscheinen): Story Circle: Digital Storytelling around the World. Edited Collection: Wiley-Blackwell. Helff, Sissy/Woletz, Julie (im Erscheinen): Narrating Euro-African Life in Digital Space. In: Hartley/McWilliam (Hrsg.) (im Erscheinen). Iurgel, Ido/Hoffmann, Anja/Spierling, Ulrike (2004): Wissensvermittlung durch interaktives Erzählen - die Plattform "art-E-fact". In: Keil-Slawik/Gesellschaft für Informatik (GI) Fachausschuss Mensch-Computer-Interaktion (Hrsg.) (2004): 147-156. Kay, Alan C./Goldberg, Adele (1977): Personal Dynamic Media. In: IEEE Computer 10.3. 31-41. Keil-Slawik, Reinhard/Gesellschaft für Informatik (GI) Fachausschuss Mensch-Computer-Interaktion (Hrsg.) (2004): Mensch & Computer 2004: Allgegenwärtige Interaktion. München: Oldenbourg. Kelsey, Sigrid (Hrsg.) (im Erscheinen): Handbook of Research on Computer Mediated Communication. Idea Group Reference. Laurel, Brenda (1986): Towards the Design of a Computer-based Interactive Fantasy System. Ph.D. Thesis. Ohio: Ohio State University. Laurel, Brenda (1993): Computers as Theatre. Reading, MA: Addison Wesley. Laurel, Brenda (Hrsg.) (1999): The Art of Human-Computer Interface Design. Reading, MA: Addison-Wesley. Mateas, Michael (2002): Interactive Drama, Art and Artificial Intelligence. Pittsburgh, PA: Carnegie Mellon University. Technical Report CMU-CS-02-206. Online: http://www-2. cs.cmu.edu/afs/cs.cmu.edu/project/oz/web/papers/CMU-CS-02-206.pdf (abgerufen am: 06.12.2004). Mateas, Michael/Sengers, Phoebe (1999): Narrative Intelligence. Introduction to the AAAI 1999 Fall Symposium on Narrative Intelligence, North Falmouth, MA. Online: http://www-2. cs.cmu.edu/afs/cs/user/michaelm/www/nidocs/MateasSengers.pdf (abgerufen am: 22.11.2004).
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet
169
Mitchell, William/Thomas, J. (Hrsg.) (1981): On Narrative. Chicago u.a.: University of Chicago Press. Murray, Janet (1997): Hamlet on the Holodeck - The Future of Narrative in Cyberspace. Cambridge, MA: MIT Press. O'Reilly, Tim (2005): What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software. Online: http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/ what-is-web-20.html (abgerufen am: 15.06.2006). Oren, Tim/Salomon, Gitta/Kreitman, Kristee/Don, Abbe (1999): Guides: Characterizing the Interface. In: Laurel (Hrsg.) (1999): 367-381. Powazek, Derek (1996-2005): Fray. Online: http://www.fray.com/is/ (abgerufen am: 02.03.2006). Propp, Vladimir/Eimermacher, Karl (1972): Morphologie des Märchens. München: Hanser. Reuters (2006): YouTube serves up 100 million videos a day online. In: USATODAY.com, posted 7/16/2006. Online: http://www.usatoday.com/tech/news/2006-07-16-youtube-views_x.htm (abgerufen am: 25.09.2006). Ryan, Marie-Laure (2004a): Digital Media. In: Ryan (Hrsg.) (2004b): 329-336. Ryan, Marie-Laure (2004b): Narrative Across Media. The Languages of Storytelling. Lincoln u.a.: University of Nebraska Press. Sauer, S./Osswald, K./Göbel, S./Feix, A./Zumack, R./Hoffmann, A. (2004): Edutainment Environments. A Field Report on DinoHunter: Technologies, Methods and Evaluation Results. In: Bearman/Trant (Hrsg.) (2004): 165-172. Schank, Roger/Abelson, R. P. (1977): Scripts, Plans, Goals and Understanding. Hillsdale, N.J.: Lawrence Erlbaum. Umaschi Bers, Marina (1999): Narrative Construction Kits: "Who am I? Who are you? What are we?". AAAI 1999 Fall Symposium on Narrative Intelligence, North Falmouth, MA. Online: http://www-2.cs.cmu.edu/afs/cs/user/michaelm/www/nidocs/Bers.pdf (abgerufen am: 26.04.2005). von Gehlen, Dirk (2006): Das nächste große Ding sind wir. In: Süddeutsche Zeitung, 132, 10.06.2006. 1. Woletz, Julie (im Erscheinen): Digital Storytelling: From Artificial Intelligence to YouTube. In: Kelsey (Hrsg.) (im Erscheinen). ZGDV (2001-2004): GEIST. Online: http://www.zgdv.de/zgdv/zgdv-en/r-d-departments/digitalstorytelling/projects/geist-engl-ghost (abgerufen am: 24.10.2006). ZGDV (2003): DinoExplorer. Online: http://www.zgdv.de/zgdv/zgdv-en/r-d-departments/digitalstorytelling/projects/dinoexplorer (abgerufen am: 24.10.2006). ZGDV (2003-2004): DinoSim. Online: http://www.zgdv.de/zgdv/zgdv-en/r-d-departments/digitalstorytelling/projects/dinosim (abgerufen am: 24.10.2006).
Kommunikation im Computerspiel Jan-Noël Thon
Der dänische Computerspielforscher Jesper Juul hat unlängst im Editorial der Game Studies im Hinblick auf die verschiedenen Disziplinen, die sich heute mit Computerspielen beschäftigen, von einem Zustand des produktiven Chaos gesprochen (vgl. Juul 2006). Tatsächlich scheint die Zahl möglicher Zugänge zum Computerspiel beinahe so groß zu sein wie die Zahl der Spiele selbst. Allerdings macht gerade die Vielfalt der möglichen Zugänge das von Juul diagnostizierte Chaos produktiv und lässt ein differenziertes Bild des facettenreichen Phänomens 'Computerspiel' entstehen. Im Folgenden soll nun vor allem auf eine dieser Facetten eingegangen werden, nämlich auf die zwischen den Spielern von Computerspielen stattfindende Kommunikation. Ziel ist dabei weder eine detaillierte Analyse einzelner Spiele noch die Entwicklung einer umfassenden Theorie der Kommunikation im Computerspiel. Vielmehr können hier nur ausgewählte, besonders relevant erscheinende Aspekte behandelt werden. Auch ist der Anspruch dieses Beitrags kein empirischer. Allerdings sollen die eher theoretischen Ausführungen durchaus anhand konkreter Beispiele illustriert werden. Insofern werde ich mich vor allem mit der Funktion von textbasierter Kommunikation zwischen Spielern des First-Person Shooters HALO sowie des Massive Multiplayer Online Role Playing Games WORLD OF WARCRAFT beschäftigen. Ob und inwiefern sich die dabei gemachten Beobachtungen auf andere Spiele übertragen lassen, bleibt abzuwarten. Meine Überlegungen schließen an ein an anderer Stelle ausführlicher dargestelltes, allgemeines Strukturbeschreibungsmodell für Computerspiele an, das hier nur kurz skizziert werden soll (vgl. Thon 2005/in Vorbereitung; Thon 2006). Aufbauend auf diesem Modell unterscheide ich zwischen einer Ebene der räumlichen, der ludischen, der narrativen und der sozialen Struktur von Computerspielen. Bei diesen Ebenen handelt es sich zugleich um Perspektiven, aus denen Computerspiele beschrieben werden können. Die Ebene der räumlichen Struktur bezieht sich sowohl auf die verschiedenen (heute meist dreidimensionalen) Räume, die als Schauplätze für das eigentliche Spielgeschehen dienen, als auch auf den gesamten Raum der fiktionalen Welt, in der das jeweilige Spiel angesiedelt ist sowie auf die Objekte, die sich in diesen Schauplätzen befinden bzw. auf das Inventar der fiktionalen Welt. Die Ebene der ludischen Struktur
172
Jan-Noël Thon
bezieht sich auf den Bereich der Spielregeln, die unter anderem die Möglichkeiten der Spieler zur Interaktion mit den Schauplätzen bestimmen, sowie auf die Auswirkungen dieser Spielregeln in Form verschiedener ludischer Ereignisse. Die Ebene der narrativen Struktur bezieht sich auf die häufig vor allem in Singleplayerspielen (aber eben auch in MMORPGs wie WORLD OF WARCRAFT) relevante Frage, inwiefern die Vermittlung einer Geschichte als einer Anordnung prädeterminierter Ereignisse Teil des Spiels ist. Die Ebene der sozialen Struktur schließlich bezieht sich auf die hier primär interessanten Prozesse der Kommunikation und sozialen Interaktion zwischen Spielern in Multiplayerspielen. Hierbei ist zu betonen, dass diese kommunikativen Prozesse wesentlich durch die jeweilige Spielsituation beeinflusst werden und dass die Ebenen der räumlichen, der ludischen und gegebenenfalls der narrativen Struktur daher bei einer Beschäftigung mit der Kommunikation zwischen Spielern mit berücksichtigt werden müssen.
Formen von Kommunikation in HALO und WORLD OF WARCRAFT Die verschiedenen Multiplayermodi des First-Person Shooters HALO finden in einzelnen, nicht weiter durch eine narrative Struktur miteinander verbundenen Schauplätzen statt, die auch als Maps bezeichnet werden. Das Inventar dieser Schauplätze besteht etwa aus Landschaftsmerkmalen wie Felsen oder Bäumen, den von den Spielern gesteuerten Avataren sowie einer Vielzahl verschiedener von diesen Avataren zu benutzenden Fahrzeugen und Waffen. Darüber hinaus lassen sich solche Schauplätze dadurch beschreiben, dass sie die freie Bewegung der Avatare durch bestimmte Hindernisse wie Wände, Abgründe oder nicht zu öffnende Türen begrenzen. Diese Hindernisse bestimmen wesentlich die Dimensionen des Schauplatzes und damit die räumliche Struktur des Spiels. Die Handlungsfreiheit des Spielers ist aber nicht nur eingeschränkt durch die Grenzen des jeweiligen Schauplatzes, sondern darüber hinaus durch die Regeln des Spiels. So werden etwa die möglichen Bewegungen der Avatare durch die Spielregeln vorgegeben. Rennen, Springen und das Aufnehmen und Benutzen einer Vielzahl verschiedener Waffen sind zentrale Fähigkeiten eines Avatars in HALO. Neben dieser grundsätzlichen Spielmechanik bilden die je nach Spielmodus unterschiedlichen Spielziele einen weiteren wichtigen Teil der ludischen Struktur des Spiels. Während es etwa in dem Slayer genannten Spielmodus darum geht, die Avatare der anderen Spieler möglichst häufig abzuschießen, können teambasierte Spielmodi wie das weitverbreitete Capture-the-Flag durchaus mit etwas komplexeren Spielzielen aufwarten. Hier versuchen zwei Teams von Spielern, eine Flagge aus der gegnerischen in die eigene Basis zu
Kommunikation im Computerspiel
173
bringen und gleichzeitig das gegnerische Team von der eigenen Flagge fernzuhalten (vgl. Thon 2006; Thon 2007/in Vorbereitung). Im Gegensatz zur relativ übersichtlichen räumlichen und ludischen Struktur von First-Person Shootern wie HALO handelt es sich bei WORLD OF WARCRAFT um ein deutlich umfangreicheres Spiel. Hier spielen die Spieler in einer riesigen Welt mit einer Reihe unterschiedlicher Regionen, die von einer bunten Vielfalt von Verbündeten und Gegnern, vom zauberkundigen Gnom bis zum feuerspuckenden Drachen, bevölkert werden. Zwar würde eine detaillierte Betrachtung der Struktur von WORLD OF WARCRAFT den Rahmen dieses Beitrags sprengen, es sei aber zumindest auf einige Merkmale hingewiesen, die im Hinblick auf die Kommunikation zwischen den Spielern relevant (und darüber hinaus für das Genre generell typisch) sind. Bemerkenswert ist zunächst, dass die Spielwelt nicht aufhört zu 'existieren', wenn der Spieler gerade nicht spielt. Sowohl in HALO als auch in WORLD OF WARCRAFT verbinden die Spieler ihre Computer mit einem zentralen Server. Während bei HALO aber die Server in der Regel von Spielern eingerichtet werden und sich nur in Ausnahmefällen einer dauerhaften Existenz erfreuen, werden die Server von WORLD OF WARCRAFT vom Entwickler Blizzard betreut und sind – von regelmäßigen Serverwartungszeiten abgesehen – rund um die Uhr für die Spieler zugänglich, wobei einige hundert Spieler zeitgleich mit ihren Avataren auf demselben Server und damit in derselben Welt spielen (vgl. Chan/Vorderer 2006). Dabei ermöglicht es WORLD OF WARCRAFT seinen Spielern nicht nur, die Kontrolle über einen Avatar zu übernehmen, sondern vielmehr diesen Avatar über einen längeren Zeitraum zu entwickeln. Der Spieler gibt seinem Avatar einen Namen, bestimmt (innerhalb durch das Spiel vorgegebener Grenzen) dessen Aussehen, wählt eine 'Klasse' die wiederum die grundsätzlichen Fähigkeiten des Avatars vorgibt und verbringt von nun an einen wesentlichen Teil der Spielzeit damit, diese Fähigkeiten zu verbessern (vgl. Ducheneaut et al. 2006). Während in den Multiplayermodi von HALO die Avatare der Spieler sich vor allem in der Farbe ihrer Rüstung unterscheiden, findet sich in WORLD OF WARCRAFT also eine ganz andere Form der Bindung des Spielers an den (in der Regel als 'Charakter' bezeichneten) Avatar. Zudem ist gerade im Hinblick auf die Frage nach der Kommunikation zwischen Spielern zu betonen, dass die ludische Struktur von MMORPGs wie WORLD OF WARCRAFT die Bildung von Gruppen und die Kooperation von Spielern beim Lösen von Aufgaben auf vielfältige Weise begünstigt und teilweise (etwa in 'Instanzen' oder 'Schlachtfeldern') sogar erfordert (vgl. Jakobsson/Taylor 2003). So unterschiedlich die Struktur von HALO und WORLD OF WARCRAFT also ist: In beiden Spielen bildet Kooperation zwischen Spielern eine wichtige Grundlage für das Erreichen von Spielzielen.
174
Jan-Noël Thon
Jonas Heide Smith hat zutreffend festgestellt, dass in Spielen, die auf Kooperation zwischen Spielern basieren, nicht nur die jeweiligen Gegner, sondern durchaus auch die eigenen Verbündeten zum Problem werden können, da diese die eigene Strategie oder Situationseinschätzung nicht teilen müssen (vgl. Smith 2005). Daher besteht zumindest ein Teil vieler teambasierter Spielmodi in HALO aus sprachlicher Kommunikation zwischen den Spielern, welche koordiniertes Handeln in einigen Situationen deutlich erleichtert (vgl. Thon 2006). Da sich bei Spielen über das Internet die Spieler nun meist nicht so nah sind, dass sie ohne technische Hilfsmittel kommunizieren könnten, ermöglicht es die PC-Version von HALO, anderen Spielern in einem Chatfenster in der linken unteren Ecke des Bildschirms Textnachrichten zu schreiben, wobei diese Textnachrichten entweder für alle Spieler oder aber nur für die Mitglieder des eigenen Teams sichtbar sind. Während die Möglichkeiten zur Kommunikation für einen HALOSpieler also recht überschaubar sind, bietet WORLD OF WARCRAFT seinen Spielern ein deutlich komplexeres System von Kommunikationsmöglichkeiten. Auch in WORLD OF WARCRAFT werden Textnachrichten in einem Chatfenster in der unteren linken Ecke des Bildschirms angezeigt. Allerdings haben die Spieler hier deutlich größere Wahlmöglichkeiten. Während etwa mit dem Befehl '/flüstern' ein einzelner Spieler unabhängig von der Position seines Avatars in der Spielwelt angesprochen wird, können Nachrichten im '/sagen'-Modus nur von Spielern gelesen werden, deren Avatare sich in einem bestimmten Umkreis um den 'sprechenden' Avatar befinden. Darüber hinaus haben Spieler die Möglichkeit, sich an der Kommunikation in verschiedenen, etwa gruppen-, gilden- oder zonenspezifischen Chatkanälen zu beteiligen und eigene Chatkanäle zu eröffnen. Neben diesen verbalen Formen der Kommunikation können Spieler von WORLD OF WARCRAFT ihre Avatare mit Befehlen wie '/tanzen', '/pfeifen' oder '/lachen' verschiedene vordefinierte Gesten ausführen lassen. Dabei handelt es sich um standardisierte und in das Spiel implementierte Emotes, deren Ursprung auf die sprachliche Beschreibung von Handlungen in MUDs und anderen Formen des textbasierten Chats zurückzuführen ist (vgl. etwa Mortensen 2006).1
1
Hier ist anzumerken, dass WORLD OF WARCRAFT es seinen Spielern über die erwähnten vordefinierten Aktionen hinaus erlaubt, durch die Verwendung des '/emote'-Befehls die Handlungen des eigenen Avatars auch individuell zu beschreiben. Eine Eingabe wie '/emote lacht.' resultiert bei anderen Spielern wie '/lachen' in der Ausgabe von '[Charaktername] lacht.' – allerdings wird die vordefinierte Aktion '/lachen' von einem entsprechenden Geräusch begleitet. Unabhängig von der Verwendung von '/emote' werden Emotes von einigen Spielern auch durch Sternchen im normalen Chattext markiert (z.B. '*lacht*').
Kommunikation im Computerspiel
175
Tatsächlich lassen sich nicht nur in WORLD OF WARCRAFT, sondern auch in HALO ähnliche Phänomene finden, wie sie etwa von Markus Schulze für Formen des Internet Relay Chat beschrieben worden sind (vgl. Schulze 1999). Zwar gibt es große Unterschiede zwischen einzelnen Servern bzw. Spielern, aber es lässt sich zumindest tendenziell ein erhöhtes Auftreten von Abkürzungen und grammatikalisch eher waghalsigen Konstruktionen sowie der Verwendung von Großbuchstaben, Emotes (z.B. '*lächelt*') und Emoticons (z.B. ':)' oder ':(') als Ersatz für para- und nonverbale Signale beobachten.2 Mich interessieren hier allerdings weniger diese nicht eigentlich computerspielspezifischen Fragen nach den formalen Merkmalen der Sprachverwendung in textbasierten Chats (vgl. aber Thon 2006), sondern vielmehr die unterschiedlichen Funktionen von textbasierter sprachlicher Kommunikation zwischen Spielern in Computerspielen wie HALO und WORLD OF WARCRAFT, die sich aus der spezifischen Struktur dieser Spiele ergeben.
Funktionen von Kommunikation in HALO und WORLD OF WARCRAFT In einem verhältnismäßig einfach strukturierten Spiel wie HALO ist es möglich, zunächst zwischen einer ludischen und einer sozialen Funktion von Kommunikation zu unterscheiden (vgl. auch Peña/Hancock 2006). Kommunikation mit ludischer Funktion schließt hierbei im Wesentlichen strategische und taktische Absprachen ein. Wenn etwa in einem Capture-the-Flag-Spiel ein Spieler seinem Team mitteilt, dass sich die eigene Flagge in der Basis des Gegners befindet, so lässt sich von Kommunikation mit primär ludischer Funktion sprechen. Andererseits bezieht sich ein großer Teil der Kommunikation zwischen Spielern auf vorangegangene Spielereignisse, ohne aber eine Funktion innerhalb des eigentlichen Spielablaufs zu erfüllen. Prahlereien, das Ausdrücken von Freude über eigene oder auch das Anerkennen der Leistungen anderer Spieler wären
2
An dieser Stelle sei noch angemerkt, dass ein Teil der Kommunikation zwischen Spielern außerhalb der jeweiligen Chatkanäle stattfindet. Obwohl es sich bei VoIP-Programmen wie Teamspeak oder dem im Beitrag von Martina Joisten (in diesem Band) behandelten Skype nicht um Bestandteile des eigentlichen Spiels handelt, ist die Nutzung dieser Programme zur verbalen Kommunikation während des Spiels durchaus verbreitet. Nach Nick Yee liegt der Anteil der Spieler von WORLD OF WARCRAFT, die VoIP verwenden bei etwa 30% (vgl. Yee 2006). Zwar dürfte dieser Prozentsatz für die Spieler der PC-Version von HALO geringer ausfallen, dafür besteht hier allerdings teilweise die Möglichkeit, ohne technische Hilfsmittel zu kommunizieren (vgl. Halloran et al. 2003).
176
Jan-Noël Thon
Beispiele für Kommunikation mit primär sozialer Funktion.3 Bei einer Bewertung der entsprechenden Äußerungen ist zu beachten, dass die häufig auftretenden Beleidigungen und Schimpfwörter in der Regel einen spielhaften Charakter haben, nicht ernst gemeint sind und von den Spielern auch nicht unbedingt als beleidigend aufgefasst werden (vgl. Morris 2004). Während also aggressives sprachliches Verhalten innerhalb des sozialen Kontexts eines First-Person Shooters die von vielen Spielern akzeptierte Norm zu sein scheint, werden ausgedehnte, nicht auf das Spiel bezogene Gespräche von den meisten Spielern als unangemessen empfunden.4 Andererseits gibt es durchaus Server, auf denen die Verwendung von Schimpfworten zum Ausschluss aus dem Spiel führt, und es lassen sich auch auf weniger streng reglementierten Servern grundsätzliche Formen von Höflichkeit beobachten. So ist es etwa nicht unüblich, zu grüßen und sich zu verabschieden, wenn man ein Spiel betritt bzw. verlässt. Derartige Grußsequenzen erfüllen wiederum eine soziale, jedenfalls keine offensichtlich ludische Funktion. Wie bereits erwähnt sind sowohl die räumliche und die ludische Struktur als auch die Möglichkeiten zur Kommunikation in WORLD OF WARCRAFT deutlich komplexer als in HALO. Es lässt sich allerdings auch hier grundsätzlich zwischen Kommunikation mit ludischer und solcher mit sozialer Funktion unterscheiden, wobei sich die soziale Struktur des Spiels schon allein durch die Tatsache, dass hier die Spieler über längere Zeit denselben Avatar spielen, deutlich von einem Spiel wie HALO mit seinen eher austauschbaren Avataren unterscheidet. Statt allerdings weiter auf die strukturellen Unterschiede der beiden Spiele einzugehen, möchte ich abschließend auf eine dritte Funktion von Kommunikation zwischen Computerspielern hinweisen. Insbesondere auf rollenspielorien-
3
Im Hinblick auf die soziale Funktion von Kommunikation ließe sich etwa mit Schmidt (2006) weiter zwischen Formen von Identitätsmanagement und Beziehungsmanagement differenzieren, wobei es sich dabei um über ein einzelnes Spiel hinaus bestehende Identitäten und Beziehungen handeln kann, aber nicht muss. Eine alternative Typologie von Kommunikationsformen zwischen Spielern in den Multiplayermodi von First-Person Shootern findet sich etwa bei Wright et al. (2002).
4
Zwar kann die komplexe Frage nach den sozialen Kontexten von Multiplayerspielen hier nicht behandelt werden, es sei aber darauf hingewiesen, dass sich die Spieler von HALO und WORLD OF WARCRAFT in Clans bzw. Gilden genannten Netzwerken organisieren (vgl. etwa Thon 2006; Williams et al. 2006). Es sind dann auch die innerhalb solcher und ähnlicher Gruppen ausgehandelten Normen, die festlegen, welche Formen kommunikativen (und sonstigen) Verhaltens von den verschiedenen Spielern als angemessen bewertet werden (Postmes et al. 2000).
Kommunikation im Computerspiel
177
tierten Servern5 lässt sich feststellen, dass bestimmte Teile der Kommunikation zwischen Spielern in WORLD OF WARCRAFT weniger eine ludische oder soziale als vielmehr eine narrative Funktion haben. Während Kommunikation mit primär sozialer Funktion sich in erster Linie auf die Spieler oder zumindest auf deren Online-Identitäten bezieht, sind die Avatare in WORLD OF WARCRAFT nicht nur Repräsentanten der Spieler, sondern zugleich (allerdings von den Spielern gesteuerte) Figuren innerhalb einer komplexen fiktionalen Welt (vgl. Krzywinska 2006). Kommunikation kann hier insofern eine narrative Funktion aufweisen, als sie mit Bezug auf die narrative Struktur des Spiels und seine Hintergrundgeschichte zur Ausgestaltung dieser fiktionalen Welt beiträgt. Was damit gemeint ist, sei kurz am Beispiel eines 'Gesprächs' zwischen zwei Avataren verdeutlicht, die vor einem alten, in einem See versunkenen Tempel auf den Rest ihrer Gruppe warten. 20:35:57 Dracia sagt: Meine Religion ist stets die, für die ich geld bekomme. 20:36:05 Sybelle sagt: Nun ja. 20:36:05 Dracia sagt: Mehr benötige ich nicht. 20:36:12 Sybelle sagt: Ganz so viel Wahlfreiheit habe ich nicht. 20:36:20 Sybelle sagt: Meine Götter geben mir Kraft. 20:36:24 Sybelle sagt: Aber es sind... 20:36:30 Sybelle sagt: verständnisvolle Götter. 20:36:43 Sybelle grinst Dracia böse an. 20:36:57 Sybelle betet. 20:37:07 Dracia sagt: *schmunzelt* Jedem das seine und für gold glaube ich selbst an die Legionen. 20:37:15 Sybelle sagt: Hmm.. 20:37:19 Sybelle sagt: Naja. 20:37:23 Sybelle sagt: Die sind eher unangenehm. 20:37:38 Dracia sagt: schlechte und ungeduldige verhandlungspartner. 20:37:39 Sybelle sagt: Und das Gold nicht wert, denke ich.
5
Wie Taylor (2006) zutreffend feststellt, gibt es große Unterschiede zwischen den Servern, auf denen WORLD OF WARCRAFT gespielt wird. Der offensichtlichste Unterschied ist dabei wohl der zwischen den vier von Blizzard angebotenen Arten von Servern. Während auf normalen Servern die Spieler vor allem gegen computergesteuerte Gegner kämpfen, fördern die Spielregeln auf Player-vs.-Player(PvP)-Servern stärker den Kampf der Spieler untereinander. Darüber hinaus werden sowohl von normalen als auch von PvP-Servern rollenspielorientierte Varianten (RSP bzw. PvP-RSP) für Spieler angeboten, "die sich gerne voll und ganz in die Rolle ihres Charakters hinein versetzen möchten" (http://www.wow-europe.com/de/info/ basics/realmtypes.html; Stand: 28.02.2007).
178
Jan-Noël Thon
Zwar ist das Problem der Narrativität von Computerspielen recht komplex, aber narrative Ereignisse lassen sich grundsätzlich über ihre Prädeterminiertheit von anderen, etwa ludischen oder gar kommunikativen Ereignissen abgrenzen (vgl. Thon 2005/in Vorbereitung). Obwohl die hier dokumentierte Kommunikation zwischen den Avataren Sybelle und Dracia also nicht Teil der eigentlichen narrativen Struktur von WORLD OF WARCRAFT ist, handelt es sich offensichtlich auch nicht um herkömmliche Kommunikation zwischen Spielern. Vielmehr erzählen die Spieler, die Sybelle und Dracia steuern, sich hier gegenseitig 'Geschichten' in Form von Figurenrede und sie tun dies innerhalb der vorgegebenen räumlichen, ludischen und narrativen Struktur des Computerspiels WORLD OF WARCRAFT und seiner durch diese Struktur wesentlich bestimmten fiktionalen Welt. So spielt etwa die von Dracia erwähnte brennende Legion, eine Armee von Dämonen, sowohl in der Hintergrundgeschichte von WORLD OF WARCRAFT als auch in der eigentlichen narrativen Struktur des Spiels eine wichtige Rolle. Darüber hinaus klingt an, dass diese narrative Struktur im Wesentlichen aus Aufträgen (sogenannten Quests) besteht, welche die Avatare für verschiedene Auftraggeber erledigen können. Diese Form von Kommunikation, die Spielerrede zumindest teilweise durch Figurenrede ersetzt, dürfte im Wesentlichen auf Multiplayer-Rollenspiele beschränkt sein. Allerdings scheint mir die hier zu beobachtende Verschränkung der Ebene der sozialen Struktur mit der Ebene der narrativen Struktur und die daraus resultierende narrative Funktion von kommunikativen Ereignissen (die neben ihre auch hier zu beobachtende soziale Funktion tritt) ein wesentliches Merkmal solcher Spiele zu sein. Letztlich wird an diesem Beispiel auch deutlich, dass das Innovative an Kommunikation in Computerspielen weniger in den von diesen gebotenen Möglichkeiten zur computervermittelten Kommunikation als vielmehr in der Verwendung dieser Möglichkeiten durch die Spieler liegt. Obwohl es sich bei der textbasierten Kommunikation zwischen Spielern nicht um einen Bestandteil der eigentlichen narrativen Struktur des jeweiligen Spiels handelt, führt die für Computerspiele charakteristische enge Verbindung zwischen Spielhandlungen, narrativer Struktur und kommunikativen Prozessen dazu, dass diese Kommunikation nicht nur eine soziale, sondern darüber hinaus auch eine ludische und manchmal sogar eine narrative Funktion erfüllen kann. Vor diesem Hintergrund wird auch offensichtlich, dass ein Verständnis der Kommunikation in Computerspielen ein Verständnis der Struktur der jeweiligen Spiele voraussetzt.
179
Kommunikation im Computerspiel
Computerspiele HALO: KAMPF UM DIE ZUKUNFT (2003). Bungie / Microsoft. PC. WORLD OF WARCRAFT (2005). Blizzard. PC.
Literatur Bopp, Matthias/Krell, Peter C./Wiemer, Serjoscha (Hrsg.) (2007/in Vorbereitung): Shooter. Ein Computerspiel-Genre in multidisziplinärer Perspektive. Berlin: suct Verlag. Chan, Elaine/Vorderer, Peter (2006): Massively Multiplayer Online Games. In: Vorderer/Bryant (Hrsg.) (2006): 77-90. Ducheneaut, Nicolas/Yee, Nick/Nickell, Eric/Moore, Robert J. (2006): Building an MMO With Mass Appeal. A Look at Gameplay in World of Warcraft. In: Games and Culture 1.4. 281317. Halloran, John/Rogers, Yvonne/Fitzpatrick, Geraldine (2003): From Text to Talk: Multiplayer Games and Voiceover IP. In: Level Up Conference Proceedings 2003: 130-142. Online: http://www.digra.org/dl/db/05163.08549 (abgerufen am: 28.02.2007). Jakobsson, Mikael/Taylor, T. L. (2003): The Sopranos Meet EverQuest: Social Networking in Massively Multiplayer Online Games. In DAC 2003 Proceedings. Online: http://hypertext.rmit.edu.au/dac/papers/Jakobsson.pdf (abgerufen am: 28.02.2007). Juul,
Jesper (2006): Where the Action Is. In: Game Studies http://www.gamestudies.org/0501/editorial/ (abgerufen am: 28.02.2007).
5.1.
Online:
Krzywinska, Tanja (2006): Bloody Scythes, Festivals, Quests, and Backstories. World Creation and Rhetorics of Myth in World of Warcraft. In: Games and Culture 1.4. 383-396. Morris, Sue (2004): Shoot First, Ask Questions Later: Ethnographic Research in an Online Computer Gaming Community. In: Media International Australia 110. 31-41. Mortensen, Elvira T. (2006): WoW is the New MUD. Social Gaming From Text to Video. In: Games and Culture 1.4. 397-413. Müller, Corinna (Hrsg.) (2005/in Vorbereitung): Mediale Ordnungen. Erzählen, Archivieren, Beschreiben. Marburg: Schüren. Naumann, Bernd (Hrsg.) (1999): Dialogue Analysis and the Mass Media: Proceedings of the International Conference in Erlangen, April 2-3, 1998. Tübingen: Niemeyer. Peña, Jorge/Hancock, Jeffrey T. (2006): An Analysis of Socioemotional and Task Communication in Online Multiplayer Video Games. In: Communication Research 23.1. 92-109. Postmes, Tom/Spears, Russell/Lea, Martin (2000): The Foundation of Group Norms in ComputerMediated Communication. In: Human Communication Research 26.3. 341-371. Riva, Giuseppe/Anguera, M. T./Wiederhold, Brenda K./Mantovani, Fabrizia (Hrsg.) (2006): From Communication to Presence. Cognition, Emotions and Culture towards the Ultimate Communicative Experience. Amsterdam: IOS Press.
180
Jan-Noël Thon
Schmidt, Jan (2006): Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK. Schulze, Markus (1999): Substitution of Paraverbal and Nonverbal Cues in the Written Medium of IRC. In: Naumann (Hrsg.) (1999): 65-82. Smith, Jonas H. (2005): The Problem of Other Players: Ingame Cooperation as Collective Action. In Digra 2005 Proceedings. Online: http://www.gamesconference.org/digra2005/papers/ 599b42f9a8cf4ae206d44bf0d78c.doc (abgerufen am: 28.02.2007). Taylor, T. L. (2006): Does WoW Change Everything? How a PvP Server, Multinational Player Base, and Surveillance Mod Scene Caused Me Pause. In: Games and Culture 1.4. 318-337. Thon, Jan-Noël (2005/in Vorbereitung): Schauplätze und Ereignisse. Über Erzähltechniken im Computerspiel des 21. Jahrhunderts. In: Müller (Hrsg.) (2005/in Vorbereitung). Thon, Jan-Noël (2006): Communication and Interaction in Multiplayer First-Person-Shooter Games. In: Riva et al. (Hrsg.) (2006): 243-265. Thon, Jan-Noël (2007/in Vorbereitung): Zur Struktur des Egoshooters. In: Bopp et al. (Hrsg.) (2007/in Vorbereitung). Vorderer, Peter/Bryant, Jennings (Hrsg.) (2006): Playing Video Games. Motives, Responses, and Consequences. Mahwah, NJ: Lawrence Earlbaum. Williams, Dimitri/Ducheneaut, Nicolas/Xiong, Li/Yee, Nick/Nickell, Eric (2006): From Tree House to Barracks. The Social Life of Guilds in World of Warcraft. In: Games and Culture 1.4. 338-361. Wright, Talmadge/Boria, Eric/Breidenbach, Paul (2002): Creative Player Actions in FPS Online Video Games. Playing Counter-Strike. In: Game Studies 2.2. Online: www.gamestudies. org/0202/wright/ (abgerufen am: 28.02.2007). Yee, Nick (2006): VoIP Usage. In: The Deadalus Project. Online: http://www.nickyee.com/ deadalus/archives/001519.php (abgerufen am: 28.02.2007).
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation? Markus Schubert, Nadin Ernst
Hintergrund Bereits seit den 1980er Jahren existieren Chats, mit deren Hilfe zwei oder mehr Personen in so genannten Chatrooms miteinander in Echtzeit kommunizieren können. Dabei handelt es sich um eine besondere Art der Kommunikation, die mit Ausnahme von Emoticons zur Visualisierung von Stimmungen ohne Bilder und gesprochene Sprache auskommt. Zudem bleibt der Gesprächspartner meist inkognito und agiert unter einer selbst gewählten Namensbezeichnung (Nickname). Neben der ältesten Form – dem Internet Relay Chat (IRC) – existieren mittlerweile viele Formen des Chats: javabasierte Webclients, Webchats und Instant Messaging. Von den Sozialwissenschaften ist diese Form der computervermittelten interpersonalen Kommunikation bisher jedoch nur unzureichend erfasst und analysiert worden. Schwerpunkte bisheriger Forschung waren insbesondere Nutzungsmotive sowie Aspekte von Identitäten und Rollenverhalten im Chat und die Messung dieser mit Hilfe reaktiver Verfahren. Darüber hinaus findet man in zahlreicher Form inhaltlich-semantische Textanalysen sowie psychologischklinische Untersuchungen zu Suchtpotenzialen. An der Universität Leipzig wurde im Rahmen eines Projektseminars zur Online-Forschung1 in einer Studie untersucht, was genau bei dieser Art von Online-Kommunikation mit den Nutzern passiert. Dabei lag der Fokus der Untersuchung auf dem Einfluss des Grades an Involvement – bezogen auf das Interesse an einem bestimmten Thema. Vor dem Hintergrund, auf Basis bestimmter Stimuli auftretende Wirkungen messen zu können, sollte eruiert werden, inwiefern und in welcher Form sich die Kommunikation in Chatrooms bei Low- und High-Involvementsituationen unterscheidet.
1
Den Teilnehmer(innen) des Projektseminars "Online-Forschung" an der Universität Leipzig im Wintersemester 2004/2005 sei an dieser Stelle für die Vor- und Nachbereitung sowie Durchführung der Studie gedankt.
182
Markus Schubert, Nadin Ernst
In diesem Beitrag sollen einige Erkenntnissen der Studie und die zum Einsatz gekommenen empirischen Methoden vorgestellt werden. Zugleich sollen Anregungen für ähnliche Versuchsanordnungen in der Erforschung von sozialen oder Chatroom-Situationen gegeben werden.
Theoretischer Bezugsrahmen Die Wirkungsperspektive – der dynamisch transaktionale Ansatz "Die Besonderheit des Internet ist die Möglichkeit jedes Netznutzers, selbst zum Sender von Botschaften [...] zu werden."2 Diese Deutung der wechselseitigen Beeinflussung von Medium und Rezipient impliziert das Modell des dynamischtransaktionalen Ansatzes, welches der vorliegenden Studie als Wirkungsperspektive zu Grunde liegt. Es ist mit Bezug auf Involvement und den Prozess seines Entstehens, des formal interaktiven Charakters der Chatkommunikation sowie deren prozessualen Charakters die gegenstandsadäquateste Möglichkeit der Orientierung auf dem Feld der Forschungsrichtungen und -strategien. Das Modell von Früh und Schönbach, welches an dieser Stelle nicht weiter explizit ausgeführt werden soll3, integriert Wirkungs- und Nutzenansatz, indem sowohl das Medium als auch der Rezipient als aktive und als passive Kommunikationsteilnehmer verstanden werden. Es versucht, "die zentralen Variablen im Wirkungsprozess interaktiv in ihrem komplexen Wechselverhältnis aufeinander zu beziehen und daraus neue Erklärungsmöglichkeiten abzuleiten."4
Das Involvement-Konstrukt In der vorliegenden Studie wird Involvement als Grad, mit dem eine Person mit dem medialen Inhalt interagiert, verstanden. Interaktion stellt hierbei die Gesamtheit kognitiver, affektiv-emotionaler und motivationaler Reaktionen, die während und nach der Rezeption eines bestimmten Inhaltes auftreten können, dar. Dazu werden mimisch-gestische, verbal-paraverbale und somatische Reaktion gezählt. Der mediale Inhalt ist in diesem Fall der Chattext.
2
Schwalm (1998: 33).
3
Vgl. Früh (1991).
4
Früh/Schönbach (1982: 85).
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
183
Mit besonderem Bezug auf die Einordnung in eine transaktionale Wirkungsperspektive ist Involvement also ein subjektives komplexes kognitiv-affektivmotivationales Konstrukt, das durch verschiedene Faktoren, wie z.B. Interesse, Aufmerksamkeit, Motivation und Wahrnehmung sowie persönlichkeitsbezogene, situationsbedingte und stimulusbedingte Faktoren beeinflusst wird. Dabei kann Involvement als eine Transaktion zwischen Rezipient (seinem Wissen, seinem Themeninteresse und seinem Aktivationsniveau) und dem Medium (besuchter Chatkanal und dessen Bewertung durch den Rezipienten) bezeichnet werden, die während der kommunikativen Phase auftritt. Wird ein bestimmter Grad von Involvement erreicht, sprechen wir von einer High-Involvement-Situation. Das ist dann der Fall, wenn der mediale Inhalt für eine Person eine bestimmte Wichtigkeit besitzt. Ein Thema hat dann eine bestimmte Wichtigkeit, wenn es für eine Person eine persönliche Bedeutung besitzt bzw. für die Person persönlich relevant ist. Die Person entwickelt während des Medienkontaktes Gedanken, die zu einer Verbindung zwischen dem Stimulus und ihrem individuellen Leben führen.5 Das zeigt sich schließlich darin, dass sich die Person engagiert mit dem Inhalt auseinandersetzt und Informationen bewusst verarbeitet, was sich wiederum in mimisch-gestischen, verbalparaverbalen und somatischen Reaktionen äußert.
Empirische Untersuchung Forschungsdesign und Messmethoden Aufgrund des komplexen und transaktionalen Verständnisses von Involvement kann es nur unter Verwendung mehrerer Methoden abgebildet werden, wobei "Nachteile" einer Methode durch "Vorteile" einer anderen ausgeglichen werden können. Deshalb kam im Rahmen der Untersuchung ein Methodenmix aus quantitativen und qualitativen Verfahren mit retrospektiver als auch periaktionaler Ausrichtung zum Einsatz. Für die Wirkungsmessung wurde ein experimentelles Untersuchungsdesign mit mehreren Testphasen gewählt. Jeder Proband durchlief zwei dieser Testphasen, wobei die Experimentalgruppe in einer nach außen geschlossenen Chatumgebung auf vorab instruierte Chatter traf und sich die Kontrollgruppe in einem frei gewählten, realen Chatraum im offenen Inter-
5
Vgl. Krugman: "Brain Wave Meassures of Media Involvement." (1971).
184
Markus Schubert, Nadin Ernst
net Relay Chat (IRC6) befand. Die Grundannahme war, dass die inszenierte Chatsituation der Experimentalgruppe, in der Themen7 diskutiert werden sollten, in die die Testpersonen einigermaßen hoch involviert waren, auch HighInvolvement-Reaktionen auftreten. Dagegen sollte die Situation im freien, unbekannten IRC eher Low-Involvement-Charakter haben. Das Experiment begann nach einer kurzen Aufwärmphase mit einer präkommunikativen Befragung, mit der verschiedene Dispositionen des Probanden (u.a. Vorwissen, Themeninteresse, bestehendes Internet- bzw. Chatinvolvement, die momentane Befindlichkeit sowie diverse Nutzungsinteressen) schriftlich abgefragt wurden. Danach entschied das Los, in welcher Reihenfolge der Proband die Phasen der Experimental- und Kontrollgruppe durchlief. Die Probanden, die sich in der inszenierten Chatroom-Situation der Experimentalgruppe befanden, chatteten mit sechs eingeweihten Teilnehmern, die den Gesprächsverlauf durch feste Leitfäden mit pro-thematischen, neutralen oder kontrathematischen Argumenten8 lenken sollten. Zudem existierte ein Administrator, der auf die Netiquette9 im Chat achten musste und alle Funktionen besaß, die einem Chatbetreiber sonst auch zur Verfügung stehen (z.B. die Möglichkeit, Personen aus dem Chat zu entfernen). 6
Der mittlerweile antiquiert wirkende IRC wurde aus forschungstechnischen Überlegungen den Browser- bzw. Webchats und den Instant-Messaging-Produkten vorgezogen, da mit der IRC-Software zum einen die Speicherung der Chat-Gespräche über ein Logfile möglich war. Zum anderen bot die Client-Server-Konstellation des IRC die Möglichkeit, in abgeschlossenen IRC-Umgebungen zu experimentieren, die nicht an das Internet angeschlossen waren und somit keinen Zugang unbefugter Personen zum inszenierten Chatraum ermöglichten.
7
In einer Vorbefragung zwei Wochen vor Beginn des Experiments wurde jeder Proband zu seinen momentanen Themeninteressen befragt. Mittels einer Faktorenanalyse konnten daraus drei Themengruppen (1: Wirtschaft/Technik/Autos/Sport, 2: Außenpolitik/Soziales/Bildung/ Kultur, 3: Kino/Musik/Prominente) errechnet werden, wobei sich die beiden letztgenannten u. E. am besten als Chatthemen eigneten. Um auch Bezüge zu gesellschaftlich relevanten Themen herzustellen, wurden die zum Zeitpunkt des Experiments aktuellen Diskussionen um die EU-Beitrittsverhandlungen der Türkei (Themengruppe 2) und die Diskussionen zur Deutschquote im Radio (Themengruppe 3) gewählt.
8
Beispiele für verschiedene Argumente: pro: Der Beitritt wäre ein unwahrscheinlich großer Kulturgewinn für die EU, so in Sachen Sprache und Religion. neutral: Ich interessier` mich nicht so für Politik und kenne mich da auch nicht aus. So ist mir das eigentlich egal. kontra: Ich kann mir die Türkei nicht als Teil Europas vorstellen. Die haben doch eine ganz andere Geschichte, andere Einflüsse und so.
9
"Die Netiquette gibt die Sitten und Gebräuche, die sich mit der Zeit für den zwischenmenschlichen Umgang im Internet eingebürgert haben, wieder." (http://www.infoquelle.de/Recht/ Online_Recht/Netiquette.cfm 28.02.2007) Für den Chatbereich existiert in Anlehnung an die Netiquette eine sog. Chatiquette, die spezielle Umgangsformen beim Chatten regelt.
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
185
Die Probanden der Kontrollgruppe sollten zu einem frei gewählten Thema bzw. in einem frei gewählten Chatroom in einer realen Chatroom-Situation im offenen IRC kommunizieren. Dazu wurde im IRC eine deutschsprachige Raumliste mit Angabe des Kanals, des Themas und der Anzahl der Nutzer generiert, die den Probanden zur Auswahl vorlag. Die Probanden erhielten die Anweisung, sich einen Chatraum auszusuchen, diesen zu betreten und mit den Chatteilnehmern ins Gespräch zu kommen. Dennoch bestand die Möglichkeit, den Raum zu wechseln, wenn nach dem Betreten festgestellt wurde, dass der Chat entweder inaktiv oder uninteressant war. Periaktional kamen verschiedene nichtreaktive Messverfahren zum Einsatz. So sollten die Probanden u.a. alles, was ihnen während der Testphase durch den Kopf geht, laut aussprechen. Im Gegensatz zur postkommunikativen, introspektiven und dadurch subjektiven Verbalisierung von Kognitionen, die immer die Möglichkeit der nachträglichen Rechtfertigung bzw. die Gefahr der Interpretation offen hält, soll das laute Denken weitgehend das wiedergeben, was jemand in einer Situation denkt und was sein Handeln mindestens teilweise steuert und beeinflusst.10 Durch die periaktionale Aufzeichnung des Lauten Denkens bietet sich die Möglichkeit, sämtliche Reaktionen des Individuums sekundengenau dem sofern vorhandenen Kontext zuzuordnen, was mit quantitativen und qualitativen Methoden der retrospektiven Betrachtung nicht möglich ist. Das Auftreten spontaner, emotional-affektiver oder motivational bedingter Handlungen kann so besser erklärt werden. In der vorliegenden Studie wurden vor diesem Hintergrund vor allem die Begründung einer Aktion, die Evaluationen von Meinungen und Texten, paraverbale Äußerungen, Textwiedergaben und Metaaussagen betrachtet. Für die Auswertung der Daten waren vor allem zwei Aspekte des Protokolls von Interesse: die Begründung einer Aktion und die Evaluation der medialen Inhalte. Bei ihrem Zustandekommen können wir das momentane motivationale und kognitive Involvement des Probanden ablesen. Neben der Methode des lauten Denkens wurden mimische und gestische Reaktionen11 des Probanden, seine paraverbale Äußerungen und der Gesprächsverlauf audiovisuell aufgezeichnet. Die in Logfiles gespeicherten Texte der 10
Vgl. Ericsson/Simon (1984).
11
Betrachtet man die Verhaltensebene eines menschlichen Individuums, wird es notwendig, äußerlich auftretende Reaktionen zu erkennen. Hier eignet sich die Methode der Beobachtung, im engeren Sinne die Mimik- und Gestikcodierung, welche als weitere perikommunikativ fokussierte Methode Anwendung fand. Hierbei wurde auf Basis eines selbst entwickelten standardisierten Codiersystems (CSMG) folgende Variablen untersucht: Suchen bzw. Beobachten, Nachdenken, Überraschung, Freude, Positive/negative Einschätzung, Sorge, Ärger und Zweifel.
186
Markus Schubert, Nadin Ernst
Chat-Gespräche wurden hinsichtlich der während der Chatphasen getätigten Aussagen der Versuchsperson einer inhaltsanalytischen Betrachtung unterzogen. Ein Hauptaugenmerk lag hierbei auf dem Kontextbezug der Aussagen hinsichtlich Inhalt und Bezug, pro/kontra-Position gegenüber dem Thema sowie Syntax und Semantik der Aussage. Nach den jeweiligen Experimentalphasen schloss sich eine perikommunikative Befragung an und hatte neben der Erfassung der Befindlichkeit insbesondere die Messung des Themeninteresses und des Nachwissens zum Gegenstand. In der letzten Phase des Experiments wurden, wie schon in den anderen Befragungselementen, die momentane Stimmung und die Befindlichkeit der Probanden eruiert. Des Weiteren sollte hier die körperliche und geistige Verfassung der Studienteilnehmer während des Experiments mit einer Normalsituation verglichen sowie Störvariablen während des Experiments angegeben werden. Die Dauer des Experiments belief sich insgesamt auf ungefähr eine Stunde.
Ergebnisse Datenbasis Am Experiment nahmen 9 weibliche und 11 männliche Probanden teil, die durch die Teilnehmer des Projektseminars rekrutiert wurden. Der Altersdurchschnitt betrug 23 Jahre (S=3,3), die jüngste Versuchsperson war 17, die älteste 33 Jahre. Die Hälfte der Teilnehmer besaß noch keine Erfahrung mit dem Chatten, sechs Personen hatten mittlere und vier Personen hohe Chaterfahrung. Die Interneterfahrung und -nutzung hingegen war normalverteilt.12 Für die Auswertung der Daten wurden sämtliche gesammelte Daten zeitcodiert auf Basis der Logfiles zusammengefügt und mit den Fragebogendaten ergänzt. So fußt die folgende Ergebnisdarstellung auf einem Datensatz mit 5.568 Fällen, wobei jeder Fall eine Nennung im Chat ist.
12
Auch wenn bei der Auswahl der Probanden für Experimentaldesigns nicht zwingend Wert auf ein verkleinertes Abbild einer Grundgesamtheit gelegt werden muss, so entsprach der Teilnehmerkreis dieser Studie zumindest soziodemographisch der Chat-Nutzerschaft.
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
187
Nutzung: Gesprächsverläufe im Chat Um den Verlauf der Chatgespräche gut analysieren und darstellen zu können, wurden die Testphasen zunächst aufgeteilt in eine Introphase (die erste Minute im Chat: der Chatter betritt den Chatraum und wird bestenfalls begrüßt), eine Anfangsphase (zweite bis sechste Minute: der Chatter nimmt am Gespräch teil oder beginnt selbst ein Gespräch), eine Mittenphase (7. bis 11. Minute) und eine Schlussphase (12. bis 16. Minute). Die Analyse dieser Phasen zeigt, dass die Probanden im inszenierten Chat im Vergleich zum freien Chat zwar weniger Anteile am Gesamtgespräch haben, aber ihre Wortmeldungen signifikant mehr Wörter enthalten (F=32,6; p<0,05). Vor allem Personen mit hoher Chaterfahrung verwenden für ihre Argumentation vergleichsweise die längsten Sätze, während Chatunerfahrene zwar in die Introphase mit langen Wortmeldungen einsteigen, in den weiteren Phasen dann aber schnell die Wortzahl halbieren, vermutlich um den Gesprächen überhaupt noch folgen zu können. Tab. 1:
Durchschnittliche Wortanzahl und prozentualer Anteil der Probandennennungen an Gesamt im Phasenvergleich
Anteil in % Freier Chat Wortzahl Anteil in % Inszenierter Chat Wortzahl
Intro 12,5 3,5 17,1 4,9
Anfang 20,3 4,8 15,5 7,2
Mitte 17,7 4,6 16,3 8,6
Schluss 22,4 3,6 16,0 7,2
Ziel des inszenierten Chats war es, zu prüfen, ob durch kontroverse Diskussionen über ein High-Involvement-Thema der Proband aktiver am Gespräch teilnimmt als in der Low-Involvement-Situation der freien Phase, und wie sich seine Argumentation im Laufe der Testphase verändert. Vergleicht man die Pround Kontra-Argumentationen des Probanden mit der Chatgruppe, zeigt sich vor allem zu Beginn der Chatphase eine starke Tendenz des Probanden, gegen die Wortmeldungen der Chatteilnehmer zu argumentieren. In der Phasenmitte ist das Verhältnis zwischen Pro- und Kontrameinungen relativ ausgeglichen, erst am Ende der Diskussion kontern die Probanden das dann zunehmend negative Meinungsklima mit Pro-Argumenten.
188
Markus Schubert, Nadin Ernst
Tab. 2: Meinungsklima im inszenierten Chat von pro (1) bis kontra (5) Chat-Meinungsklima Probandenargumente Kruskal-Wallis-Test
Intro 3,3 4,3 Ȥ = 2,3 p > 0,05
Anfang 3,2 3,1 Ȥ = 0,3 p > 0,05
Mitte 3,2 3,4 Ȥ = 0,3 p > 0,05
Schluss 3,5 3,0 Ȥ = 5,8 p < 0,05
Reaktion: Mimik, Gestik und MLD Obwohl sich die Gesprächspartner während der elektronischen Kommunikation im IRC nicht sehen können, spielen mimische, gestische und verbale Reaktionen beim Chatten eine große Rolle. Bei den Probanden konnten solche Reaktionen relativ häufig über die komplette Experimentalzeit hinweg beobachtet werden, wobei die gezeigten Mimiken und Gestiken überwiegend positiver Natur waren. Erst zum Ende der Testphasen kippten sie verstärkt ins Negative. Eine Korrelation der menschlichen Ausdrucksformen mit dem Meinungsklima im Chat ergab, dass sich die Mimik der Probanden teils entsprechend der Pro- und Kontra-Argumentation verhielt (r=0,24; p<0,05)13.
M im ik /G estik
Abb. 1:
Mimische und gestische Reaktionen von positiv (1) bis negativ (-1) 1
0,5 0 -0,5 -1 Freier Chat
Zeitverlauf
Inszenierter Chat
13
Für diese Berechnungen wurde der Datensatz aggregiert und reduziert, so dass gröbere Zeitabstände von ca. 25 Sekunden pro Fall entstanden. Diese Art der Verdichtung sollte es erlauben, bei eigentlich leicht zeitversetzten Abfolgen von Mimiken und geschriebenen Texten, Korrelationen zu berechnen.
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
189
Das Chatten wird als interpersonales Gespräch verstanden, bei dem Ersatzzeichen (Emoticons) das Geschriebene auch nonverbal unterstützen sollen. So war zu vermuten, dass dem Emoticon im Chat eine mimische Reaktion im Realen vorausgeht, um das fehlende Visuelle zu kompensieren. Die Analyse zeigte, dass auch Emoticons überwiegend in positiver (z.B. als Smilies) bzw. neutraler Form vor allem von chaterfahrenen Probanden verwendet wurden. Bei diesen Personen ergaben sich auch annehmbare Korrelationen in Bezug auf die reale Mimik. In der inszenierten Testphase waren die Erfahrenen im Chatverlauf entsprechend des Meinungsklimas mimisch hoch aktiv (r=0,24; p<0,05) und unterstützten die reale Mimik häufig mit entsprechenden Emoticons (r=0,48; p>0,05). Probanden mit weniger Chaterfahrung schafften es auf Grund der Informationsfülle im Chat oder ihrer Unerfahrenheit14 nicht, ihre reale Mimik mit entsprechenden Textzeichen am Bildschirm darzustellen (r<0,2; p>0,05).
Mimik/Gestik
Abb. 2:
Mimische und gestische Reaktionen von positiv (1) bis negativ (-1) mit positiven, neutralen und negativen Emoticons 1
0,5 0 -0,5 -1 Freier Chat Inszenierter Chat Emoticon
Zeitverlauf
Der Aufforderung, alle Gedanken laut auszusprechen, kamen die Probanden erstaunlich rege nach (in ca. 10 Prozent der Testphasendauer wurde laut gedacht). Die meisten Nennungen konnte man während des freien Chattens finden. Hier gab es hauptsächlich in der Anfangs- und Schlussphase Äußerungen zur Evaluation des Chatraums, der Chatteilnehmer und des Themas. Die Introphase war jeweils bestimmt von Aussagen zur Selektion des Kanals. Etwas anders sah 14
Zwar erhielten die Probanden vor Beginn des Experiments eine entsprechende Schulung und Instruktion, sie konnten dieses Neuwissen allerdings nur selten in der Testphase anwenden.
190
Markus Schubert, Nadin Ernst
dies in der inszenierten Situation aus, in der vor allem zu Beginn der Testphase auffällig viel evaluiert wurde. Die Eigendynamik der Inszenierung – die eingeweihten Teilnehmer produzierten in kurzen Abständen eine hohe Anzahl von Texten – führte dazu, dass durch kognitive Überlastung der Versuchspersonen nur noch sehr selten laut gedacht werden konnte.
Mimik/Gestik
Abb. 3:
Mimische und gestische Reaktionen von positiv (1) bis negativ (-1) mit der Summe aller Äußerungen der Probanden15 1
0,5 0 -0,5 -1 Freier Chat Inszenierter Chat Lautes Denken
Zeitverlauf
Wirkung: Befindlichkeit, Wissen und Interesse Mit Hilfe der periaktionalen Befragungen sollten neben der momentanen Befindlichkeit der Versuchspersonen auch deren Wissens- und Interessenszuwachs als zentrale Wirkungsvariablen des Involvementkonstrukts erfasst werden. Die subjektive Einschätzung der Befindlichkeit der Probanden verbessert sich im Vergleich zum Zeitpunkt vor dem Experiment, wobei das Befinden nach der inszenierten Chatsituation gegenüber dem freien Chat etwas stärker gestiegen ist (T=18,7; p<0,00). Die erwähnte Informationsfülle dieser Testphase führte jedoch dazu, dass die Aufmerksamkeit der Probanden stark abfiel (T=-25,3;
15
Auf einer Sekundärskala von 0 bis 15.
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
191
p<0,00), während der meist aktionsarme freie Chat16 kaum einen Einfluss darauf hatte (T=6,5; p<0,00). Dieser reduzierte jedoch umso stärker das Aktivationsniveau der Probanden (T=-35,4; p<0,00). Dagegen stieg die Aktiviertheit der Testpersonen während der inszenierten Situation an (T=35,3; p<0,00). Abb. 4:
Veränderung der Befindlichkeit im Testphasenvergleich (Veränderung des Mittelwerts auf einer Skala von 1 bis 5) Befinden
Freier Chat Aufmerksamkeit Inszenierter Chat
-1,0
Aktivierungsniveau
-0,5
0,0
0,5
1,0
Bei beiden vorselektierten Themen der inszenierten Chatphase konnte das Interesse der Versuchspersonen an diesen Themen nur minimal gesteigert werden (Türkei: T=2,9; p<0,00 | Radio: T=7,8; p<0,00). Etwas anders verhält es sich beim Wissen: nach der Chatdiskussion über das Thema zum EU-Beitritt der Türkei stieg das gefühlte Wissen der Probanden (T=17,8; p<0,00), während die Gespräche zur Deutschquote im Radio keine Wissenszuwächse produzieren konnten. Auch beim objektiveren Themenrecall schnitt das EU-Thema besser ab. Hier gab es in 50,8% der Fälle voll themenkonforme Recalls, während dies beim Radiothema nur in 34,3% der Fälle erreicht wurde (Ȥ = 530,2; p<0,00).
16
Die freie Chatphase wurde auch von den Probanden im Vergleich zur inszenierten Situation signifikant schlechter (langweilig, unnütz, unseriös etc.) eingeschätzt (T=68,3; p<0,00). Auch bei der Einschätzung der diskutierten Themen während der Testphasen schätzten die Testpersonen die Inszenierung signifikant besser (bedeutend, relevant, wertvoll etc.) ein als das freie Chatten (T=92,7; p<0,00).
192
Markus Schubert, Nadin Ernst
Abb. 5:
Veränderung des Themenwissens und -interesses im Themenvergleich (Veränderung des Mittelwerts auf einer Skala von 1 bis 5)
EU-Beitritt T ürkei
Interesse Wissen
Deutschquote im Radio
-1,0
-0,5
0,0
0,5
1,0
Zusammenfassung Die Untersuchung von Nutzung und Wirkung computervermittelter Kommunikation in Chaträumen stellt hohe Anforderungen an Methodik und Forschungsdesigns. In dieser Studie wurde versucht, durch einen Mix aus reaktiven und nonreaktiven Methoden die Frage zu beantworten, was während der Black-BoxSituation des Chattens mit den Nutzern passiert. Dazu wurden eine High- und eine Low-Involvement-Situation konstruiert, um experimentelle Vergleiche zwischen den verschiedenen Stimuli durchführen zu können. Dennoch muss eine solche experimentelle Anordnung mit inszenierten Situationen kritisch betrachtet werden. Trotz der Instruktion der eingeweihten Teilnehmer und der Vorgabe vorgefertigter Aussagen für Pro- und Kontra-Argumente kann der Gesprächsverlauf nicht generalisiert und standardisiert werden. Er bleibt immer dynamisch, da sich Kommunikator und Rezipient gegenseitig beeinflussen.17 So ist auch weitestgehend offen, welchen generellen Nutzen die Ergebnisse dieser Studie haben und ob sie auf die reelle Chatnutzung überhaupt übertragbar sein können. Festgehalten werden kann aber, dass die vorab beabsichtigten Stimulusverstärkungen in Form der hoch-involvierenden Themensetzung, der Gesprächsinszenierung mit Pro- und Kontra-Argumenten und der dadurch ausgelösten be-
17
So konnten in Einzelfällen z.B. starke Schweigespirale-Effekte beobachtet werden, als der Pro-Fraktion die vorgefertigten Argumente ausgingen und die Kontra-Fraktion mit verstärkten und überzogenen Negativargumenten nach und nach zum Meinungsführer wurde.
Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?
193
wussten Provokationen messbare Reaktionen beim Probanden erzeugten. Er reagierte abhängig von seinen Erfahrungen, seinem Vorwissen und seiner Persönlichkeit ähnlich wie im richtigen Leben. Er versuchte, aktiv und mit wortreichen Aussagen gegen negative und provokante Meinungen zu argumentieren, änderte, revidierte oder verteidigte seine eigene Meinung und gewann in diesem Diskurs teilweise auch Interesse am und Wissen über das Thema. Umso interessanter war es, dass sich diese High-Involvement-Situation in der anonymen Atmosphäre des Chats auch mimisch-gestisch und verbal ausdrückte. Begannen die Chatphasen größtenteils mit positiven Mimiken und einer Reihe verbaler Äußerungen, konnten mit zunehmender Dauer der Experimentalphasen entsprechend des rohen Meinungsklimas im Chat auch häufiger negative Mimiken und weniger verbale Äußerungen beobachtet werden. Verstärkend nutzten vor allem die chaterfahrenen Probanden Emoticons, um ihre Stimmung lesbar zu machen. Die Resultate der High-Involvement-Situationen (Änderung der Befindlichkeit, Aktivation und Aufmerksamkeit, Nachwissen, Themenrecall und postkommunikatives Themeninteresse) deuten darauf hin, dass sich die eingesetzten Methoden im verwendeten Forschungsdesign bewährt haben. Schwierig bleiben letztendlich nur die Darstellung und Analyse der dynamischen Prozesse innerhalb der Gespräche, die mit herkömmlichen statistischen Methoden meist nur auf Einzelfallebene durchführbar sind. Lösungen erweiterter Analysen bieten sich hier möglicherweise in neuronalen Modellen bzw. Gesprächs- und Verlaufsmusteranalysen.
Literatur Ericsson, K. A./Simon, H. A. (1984): Protocol analysis: Verbal reports as data. Cambridge, MA. Früh, Werner (1991): Medienwirkungen. Das dynamisch-transaktionale Modell. Theorie und empirische Forschung. Opladen. Früh, Werner/Schönbach, Klaus (1982): Der dynamisch-transaktionale Ansatz. Ein neues Paradigma der Medienwirkung. In: Publizistik 27. Krugman, Herbert E. (1971): Brain Wave Measures of Media Involvement. In: Journal of Advertising Research 11. 3-9. Schwalm, Carola (1998): Globale Kommunikation. Der Wandel sozialer Beziehungen durch die Kommunikation in Computernetzwerken. Berlin.
Onlinekommunikation als Netzwerk
Soziale Netzwerke und die Frage nach der Effizienz Harald Rau
Dieser Beitrag beschäftigt sich mit einer Frage, die insbesondere dann im Raum steht, wenn man die Qualität von Netzwerkbeziehungen beschreiben will. In diesem Zusammenhang ist es ein vergleichsweise leichtes Unterfangen, die Zahl von möglichen Verbindungen und das Wachstum der Konnektivität darzustellen und zu analysieren. Bei gleichem "Wert" oder vergleichbarer "Qualität" jeder einzelnen Verbindung im Netzwerk kann man den Gesamtwert oder Wertsteigerung parallel zur im Zeitverlauf steigenden Konnektivität beschreiben. Hierzu gibt es diverse Erklärungsmodelle, die jeweils vom Wachstum der Teilnehmerzahl im Netzwerk ausgehen und unterschiedliche Gesetzmäßigkeiten beschreiben. Was aber, wenn Wert oder auch Qualität der einzeln möglichen Verbindungen divergieren? Für kollaborativ erzeugte Webangebote ist dies regelmäßig der Fall. Jede Aussage und jeder Interpretationsversuch, der sich auf die Effizienz von Netzwerken bezieht, bewegt sich dann auf dünnem, nein, sehr dünnem Eis. Dieser Beitrag wird für dieses netzwerktheoretische Kernproblem keine finale Lösung anbieten können. Aber er wird vielleicht in einem Punkt mehr Klarheit und Transparenz schaffen, und so das Thema insbesondere für die künftige Forschung aufbereiten. Denn Hauptziel wird es auf den folgenden Seiten sein, jene Versuche ad absurdum zu führen, die ein Effizienzkriterium direkt mit dem messbaren Wachstum des Netzwerkes verknüpfen – so wie dies zum Beispiel Bender (2005, o.S.) als Vertreter des Massachusetts Institute for Technology getan hat. In einem weiter gefassten Rahmen begründen die folgenden Seiten auch eine Näherung an ein Konstrukt, das gerade die Sozialwissenschaften bereits lange vor einer Zeit beschäftigte, die sozialen Netzwerken (über den Faktor Virtualität) neue Dimensionen zuweist. Eine zentrale Frage dabei: Können theoretische Überlegungen aus einem Vor-Internet-Zeitalter auch auf die Regeln und Zusammenhänge beispielsweise einer "Second Life"-Plattform angewandt werden und vielleicht darüber hinaus auch kollaborativ erstellte Onlinemedien erklärbar machen?
198
Harald Rau
Netzwerke und ökonomische Größen Die Beschäftigung mit Netzwerken wird zunehmend ein Thema für eine interdisziplinäre Herangehensweise, wobei neben Erklärungsansätzen aus Technik und Technologie vor allem diejenigen der Soziologie und der Wirtschaftswissenschaften von hoher Relevanz für die aktuelle Diskussion sind. Der Titel dieses Beitrages impliziert die Beschäftigung mit "sozialen" Netzwerken. Das ist ein gleichermaßen spannendes wie schwieriges Unterfangen, da sich die Entwicklung virtueller Gemeinschaften im Internet mit Hilfe theoretischer Konzepte nach wie vor nur schwer abbilden und greifen lässt. Besonders schwierig wird es, wenn es darum geht, eben grundlegend ökonomische Größen wie Effizienz, Erfolg oder Nutzen in die Überlegungen einzubeziehen, wie dies, zumindest in der jüngeren Vergangenheit, einige jener Autoren getan haben (vgl. insbes. Mayfield 2003, o.S.; Mayfield 2006: 116ff.; Reed 2001, o.S.), die sich mit Netzwerkeffekten auch in einem sozialen Kontext beschäftigt und über Wertgrößen argumentativ auch eine "Bewertung" von wachsenden Netzwerken abgeleitet haben. Für den Ökonomen sind Variablen mit Wertbezug – beispielsweise Ertrag, Nutzen oder auch Effizienz – zentrale Begriffe, wobei die wirtschaftliche Betrachtungsweise stets die Verbindung zu einer Referenzgröße – im Regelfalle "Geld" – zieht. Für jene Medien des Internet, die in demokratisierten Prozessen entstehen, muss eine Bewertung unter publizistischem Blickwinkel hier noch deutlicher von einer rein betriebswirtschaftlichen Einschätzung unterschieden werden, als dies beispielsweise heute schon für jene (informatorischen) publizistischen Angebote der Fall ist, die sich realökonomischen Bedingungen unterwerfen (Tageszeitungen, privater Rundfunk).
Demokratisierung und Kommerzialisierung wirken ähnlich Es muss an dieser Stelle erlaubt sein, etwas weiter auszuholen, um den eigentlichen Ausgangspunkt für diesen Beitrag zu bestimmen. Es ist die Erkenntnis, dass die Demokratisierung von Medieninhalten ähnliche Wirkungen zeitigt, wie eine zunehmende Kommerzialisierung dieser Inhalte. Gerade wenn man die für Medien keinesfalls abgeschlossene Qualitätsdiskussion1 für demokratisiert erstellte Nonprofit-Projekte führen will, so zeigt sich, dass die Wirkung der Demokratisierung ähnliche Sprengkraft besitzt, wie die Auseinandersetzung mit 1
Zur Zusammenfassung und Vertiefung sei hier auf meine Publikation 2007b, und dort insbesondere auf Kapitel 2 verwiesen (Rau 2007b).
Soziale Netzwerke und die Frage nach der Effizienz
199
der Ökonomisierung oder genauer, der Kommerzialisierung publizistischer Angebote. Beide Ansätze bedingen im Grunde eine mit wachsender Teilnehmerzahl zunehmende Befriedigung von immer individuelleren Bedürfnissen und damit die Adressierung immer enger gefasster Zielgruppen einerseits (Segmentierung bis hin zu Individualisierung), andererseits aber wird im gleichen Atemzug die Bedienung eines kleinsten gemeinsamen Nenners unterstützt (Nivellierung bis hin zur Trivialisierung). Thiel hat das zweite Phänomen zum Beispiel für Wikipedia beschrieben: "Wikipedia organisiert das Weltwissen als Kompromiss und nimmt im Zuge seiner Demokratisierung seine Nivellierung in Kauf." (2005: 36). Der Publizistik ist diese Argumentation nicht grundlegend fremd: Eine zunehmende Ökonomisierung wurde im wissenschaftlichen Diskurs häufig mit einer damit einhergehenden Verschlechterung der Qualität und damit eines reduzierten gesamtgesellschaftlichen Nutzens gleichgesetzt.2 Demzufolge würde sich die publizistische Produktion stets vermeintlich mehrheitsfähigen Rezipientenerwartungen ("Massengeschmack") annähern. Das paradoxe Nebeneinander einer Vereinzelung und Individualisierung des Angebotes auf der einen und der Bedienung eines kleinsten gemeinsamen Nenners (der in saturierten Gesellschaften bei ökonomischer Aktivität immer kleiner wird), beschreibt im Übrigen auch McQuail in seiner Massenkommunikationstheorie. Er glaubt, dass die Zukunft der Massenkommunikation entweder durch soziale Fragmentierung oder Vereinheitlichung geprägt ist ('The future of mass communication is either socially fragmentating or unifying', McQuail 2002, Kapitel 10). Der Hintergrund dieses Paradoxons ist leicht erklärt, es ist die Tatsache, dass Medien – ob als kommerzielles oder in demokratischen Prozessen erstelltes Angebot – Akzeptanz und damit Aufmerksamkeit benötigen, um überhaupt als Medium klassifiziert werden zu können.3 Demzufolge werden auch 2
Vgl. beispielsweise die Auseinandersetzung um die Vokabel "Anpassungsjournalismus" in den frühen 1970er Jahren bei Kiock (1974), Holzer (1969) und (1972), Prokop (1972c) und (1972a) sowie weitere Beiträge in den Sammelbänden Massenkommunikationsforschung aus den Jahren 1972 (Prokop 1972b); vgl. zum zusammenfassenden Verständnis, ohne dass hier der Einschätzung und damit der Anpassungshypothese gefolgt wird, die Argumentationskette in Rau (2007b: 49f.).
3
Medienangebote, auch mit eigentlich rein publizistischem Auftrag, so wie sie beispielsweise die öffentlich-rechtlichen Fernsehsender bereitstellen, folgen einer Ökonomie der Aufmerksamkeit (zum Begriff vgl. Franck (1998), der in der Folge auch das in unmittelbarem Zusammenhang mit der Aufmerksamkeitsökonomie stehende Schlagwort vom "mentalen Kapitalismus" (vgl. Franck 2005) geprägt hat) und damit ebenfalls wie kommerzielle Angebote dem Streben nach Quote. Möglicherweise hat ja deshalb auch – nur um eine der Untersuchungen beispielhaft herauszugreifen – die Mainzer Studie zu den Nachrichtenfaktoren im deutschen Fernsehen (vgl. Ruhrmann et al. 2003) auf vielen Feldern nur geringe Unterschiede erkannt –
200
Harald Rau
Nonprofit-Medien, die zur Erreichung ihrer Rezipienten über das Web kommunizieren, in gewisser Weise "Marktmechanismen" nutzen, um den Grad der ihnen gewidmeten Aufmerksamkeit abzusichern. Auch der Aspekt der zunehmenden Ausprägung dann auch monetär-ökonomisch interessanter Marken im Web kann zur Diskussion der Parallelisierungsthese von Demokratisierung und Kommerzialisierung herangezogen werden.4 Denn auch in einer "Wahrnehmungsökonomie" im weitesten Sinne, lassen sich Markenbildungsprozesse erkennen, die mit denen in realökonomischen, sprich, auf gewinnmaximierendökonomisch agierende Subjekte abgestimmten, durchaus vergleichbar sind. Das Wikipedia-Konzept kann heute beinahe als typisches Beispiel einer solchen Markenbildung für in demokratisierten Strukturen erstellte Medieninhalte gelten. Dabei lassen sich die folgenden Voraussetzungen für die Ausprägung der Marke im Wikipedia-Projekt erkennen: • Unbegrenzter Zugang zu den Quellcodes, sowie Freiheit von wirtschaftlichen oder staatlichen Herrschaftsstrukturen. • Trennung von Fakten und Meinung (über die Unterscheidung von Begriffsund Diskussionsebene bei Wikipedia – steuerbar über die Registerkarten auf der jeweiligen Begriffsseite). • Demokratisierte Redaktion durch vollkommene Transparenz (Einsehbarkeit von Vorläuferversionen, Veränderungen, Anpassungen). • Attraktivität durch sozialisierte Serviceleistung mit hohem wahrgenommenem Wert beim Rezipienten. zwischen den handlungsleitenden Nachrichtenfaktoren privater Fernsehnachrichtenanbieter und denen, die für Auswahl und Präsentation von Nachrichten im öffentlich-rechtlichen Fernsehen empirisch nachgewiesen werden konnten. Die Kernproblematik der Kommerzialisierung liegt also im jedem publizistischen Angebot inhärenten Anspruch einer Wirksamkeit durch Wahrnehmung. Im Unterschied könnte man also konkretisierend statt von einer Ökonomie der Aufmerksamkeit von einer Wahrnehmungsökonomie sprechen. Nimmt man zu diesem Ansatz die bei Rau (2007a: 47ff.) näher beschriebenen Aspekte sozioökonomischer Vereinzelung und soziokultureller Kollektivierung zusammen, so blättert sich an diesen Begrifflichkeiten das gesamt Feld einer publizistisch orientierten Medienökonomie auf. 4
Z.B. die Veräußerung von StudiVZ, die über die Werbeformen von Google (insbesondere "Adsense") zunehmende ökonomische Attraktivität von Blogs, die Karriere der Websites Youtube und Myspace (2003 gegründet, 2005 von Rupert Murdoch für 580 Millionen Dollar erworben, 2006 auf drei Jahre vertraglich vereinbarte Partnerschaft von Google mit Myspace, die sich Google 900 Millionen Dollar kosten lässt). Das auch individualökonomische Potenzial zeigt sich auch darin, dass z.B. Musiker Karrieren allein über diese neue Form sozialer (virtueller) Netzwerke aufbauen und vorantreiben konnten – die klassischen "Gatekeeper" spielten eine nachrangige Rolle.
Soziale Netzwerke und die Frage nach der Effizienz
201
Ein genauer Blick auf die zusammengetragenen Voraussetzungen für die Ausbildung von Marken in einem Nonprofit-Umfeld, zeigt ein hohes Maß an Parallelität zu den Qualitätsmerkmalen moderner Publizistik.5 Die theoretischen Überlegungen in diesem Abschnitt sollten den Leser dafür sensibilisieren, ökonomische Größen wie Wert, Nutzen und Effizienz für die Bewertung von Netzwerken nur mit äußerster Vorsicht zu gebrauchen – insbesondere dann, wenn diese Inhalte zur Verfügung stellen, die in "demokratisierten" redaktionellen Prozessen gewonnen werden, da Qualität und demnach auch Nutzen ausschließlich über aktive Setzungen bestimmt werden können.6
Soziale Netzwerke als ein Konstrukt der Anthropologie Um sich der "Wertigkeit" einzelner Netzwerkbeziehungen und einer Gesamtbewertung von Netzwerken noch von einer anderen Seite zu nähern, soll hier eine Brücke zu einem Theoriekonzept geschlagen werden, das lange vor der Existenz des Internet entwickelt wurde und das auch die Bedeutung eines anthropologisch motivierten Zuganges hervorhebt: Die Theorie der Sozialen Netzwerke beschreibt soziale Interaktionen unterschiedlichen Typs. Auch wenn der Begriff selbst möglicherweise schon früher Verwendung fand, so lässt er sich in jedem Fall spätestens in den 1960er Jahren fest verorten. Verwendet wurde er unter anderem von Elizabeth Bott, die in England informellen Einflussgrößen für eheliche Arbeitsteilung auf die Spur kommen wollte (vgl. Bott 1964). Darüber hinaus wurde er von der englischen "Social Anthropology" um die Forscher J. Clyde Mitchell, A. L. Epstein und Bruce Kapferer (die heute der Manchester School (of Anthropology) zugeordnet werden) benutzt. Mitchell beispielsweise (vgl. 1969) verwendete ihn unter anderem, um lose Selbstorganisationen von Zuwanderergruppen unterschiedlicher Stämme in kolonialen britischen Industriestädten zu ermitteln und die Entstehung von Gruppen spezifischer Größenordnung zu erklären. Mitchell und die Manchester School werden hier insbesondere deshalb angeführt, weil sie den eigentlichen Kern des Erklärungsansatzes herausgearbeitet und damit einen Ausgangspunkt geschaffen haben, der angesichts der großen Zahl sozialer (und heute eben auch virtueller) Netzwerke 5
Wobei auch hier darauf zu verweisen ist, dass Qualität im Medienkontext immer ein diskussionswürdiges Konstrukt ist – eine Diskussion, die im Rahmen dieses Beitrages nicht einmal ansatzweise zu leisten ist.
6
Inwiefern sich die Problematik publizistischer Qualität durch bewusste Setzungen entzerren lässt ist in Kapitel 2 der "Ökonomie der Publizistik" (vgl. Rau 2007b: 49ff.) beschrieben.
202
Harald Rau
von besonderer Relevanz erscheint. Die Rede ist von der Erkenntnis, dass "soziale Netzwerke" nicht durch etwaige Zielsetzungen auf eine gemeinsame Basis reduziert werden. Stattdessen ist dieses begriffliche Konstrukt gerade deshalb für eine Argumentation im Zeitalter der Internetkommunikation wie geschaffen, weil der Begriff "soziales Netzwerk" eine Verknüpfung disparater Ziele der einzelnen Akteure und Gruppen bedingt. Genau hierfür mangelte es schon in den Hochzeiten der Manchester School an einem analytischen Begriff. Weil aber auch die unter dem unspezifischen Begriff Web 2.07 zusammengefassten Anwendungen gerade ein Kriterium vereint – nämlich die Zieldispersität der Anwender – passt die in den 1960er Jahren und im Verständnis der Manchester School etablierte Begrifflichkeit des sozialen Netzwerks nahezu ideal, um auch die Entwicklungen in den aktuellen im virtuellen Raum entstehenden Gemeinschaften zu erklären.
Die "Regel der 150 und die "Regel der Vielen" Mitchell (1969) stellte immer wieder auch die Frage nach der Größe sozialer Netzwerke. Die Erkenntnis aber, dass Gruppen offensichtlich eine optimale Größe um die Mitgliederzahl von 150 erreichen, wird heute meist mit einem anderen britischen Anthropologen verbunden: Robin Dunbar. Er stellte die These auf, dass die Zahl von 150 die maximale Anzahl von Individuen repräsentiert, mit denen ein Mitglied einer Gruppe soziale Beziehungen aufbauen und pflegen kann. Bleibt die Gruppengröße unter 150, so kann jedes Mitglied dieser Gruppe jedes andere Mitglied genau verorten – man kennt sich, weiß um verwandtschaftliche Beziehungen, kennt die Verbindungen. Mit steigender Gruppengröße nimmt die Transparenz des sozialen Netzwerkes aus Sicht des Individuums ab. 7
Web 2.0 ist ein noch immer unscharf verwendeter Begriff, der insbesondere Netzwerkeffekten basierende Anwendungen im World Wide Web abzudecken versucht. In Wikipedia, selbst als eine solche Anwendung zu identifizieren, wird unter anderem wie folgt definiert: "Hauptaspekt aus organisatorischer Sicht: Benutzer erstellen und/oder bearbeiten im Internet bereitgestellte Inhalte in zunehmendem Maße selbst. Typische Beispiele hierfür sind Wikis, Weblogs sowie Bild- und Video-Sharing-Portale. Der als Marketing-Schlagwort eingeführte Begriff hatte relativ großen Widerhall in den Medien. Web 2.0 existiert nicht wirklich (anders als z. B. eine bestimmte Software-Version), sondern bezeichnet am ehesten das Zusammenwirken verschiedener Technologien und eine vermutete bzw. kommerziell/werblich gewollte Entwicklungsrichtung. Die beteiligten technischen Mittel können im Einzelnen unbedeutend erscheinen. Daher wird auch kritisiert, der Begriff sei unscharf und nahezu beliebig verwendet ("Schlagwort"), um die Popularität von Angeboten oder Techniken zu fördern oder Trends wichtig oder gar revolutionär erscheinen zu lassen (vgl. Wikipedia, Schlagwort: "Web 2.0", Stand: 24.3.2007).
Soziale Netzwerke und die Frage nach der Effizienz
203
Dunbar glaubt, dass diese Restriktion unmittelbar vom Neokortex vorgegeben wird, das ist der evolutionsgeschichtlich jüngste Teil der Großhirnrinde und findet sich ausschließlich bei Säugetieren (vgl. Dunbar 1992; 1993). Wächst die Gruppengröße über die Zahl von 150, so würde dies zwingend eine Veränderung der Sozialstruktur nach sich ziehen. Es würden sich in stärkerem Maße Gesetze und Regeln ausprägen, um die Stabilität der Gemeinschaft abzusichern. Nach Dunbar beschreibt die Regel der 150 das kognitiv festgelegte Limit der Zahl an Individuen mit denen jeder Mensch stabile und tragfähige soziale oder interpersonale Beziehung eingegangen und aufrecht erhalten werden kann. Die Regel der 150 wird hier auch deshalb angeführt, weil sie für die Beschreibung auch virtueller Netzwerke immer wieder herangezogen wird und weil sie zwischenzeitlich für die demokratisierte Erzeugung von Webinhalten um eine "Regel der Vielen" erweitert wurde. Walter Bender vom MIT MediaLab (vgl. 2005, o.S.) hat ausgehend von dieser Regel der 150 für die computervermittelte Kommunikation diese "Rule of Many" abgeleitet. Dabei übernimmt er den klassifizierenden Begriff der Effizienz und wendet diesen nun auch auf Angebote an, die in Kollaboration vieler aktiver Individuen im Netzwerk entstehen. Neben die Gruppengröße (x-Achse) setzt er den kritisch zu hinterfragenden Begriff der Effizienz auf die y-Achse. Die Regel der Vielen für selbststeuernde soziale Netzwerke im Web steht dabei in engere Verbindung mit dem Konzept der "Neuen Konvergenz" und einem "being open" ("open source", "open communication", "open knowledge" – also in zunehmendem Maße freie Verfügbarkeit sowie die ebenso wie das Angebot unbegrenzte Nutzungsmöglichkeit von Quellen, Inhalten und Kommunikationssträngen), die im Denken des MIT die auf Negroponte zurückgehende "alte Konvergenz" eines "being digital" (Integration unterschiedlicher Dienste wie Telekommunikation, "Computing" und "Broadcasting") ablöst (vgl. Bender 2005, o.S.). Einer der wesentlichen Aspekte für das Zeitalter der neuen Konvergenz: Während im Sinne einer Massenkommunikation ausgewählt wenige die medialen Inhalte und damit Kommunikation für eine große Grundgesamtheit bestimmen, verändert sich mit dem zunehmenden Maß an Inhalten, die von Nutzern selbst verfasst und in der Auswahl gesteuert werden (Stichwort: "user generated content") im Web 2.0 das Verhältnis von Produzenten und Konsumenten. Massenkommunikation ist damit neu zu definieren – und folgt möglicherweise neuen Regeln. Folgt man nun der Argumentation von Bender (2005, o.S.), so nimmt zwar die Effizienz der sozialen Netzwerke ab einer Teilnehmerzahl von 150 (gemäß der "Regel der 150") ab, steigt aber exponentiell mit der unbegrenzten Zahl (aktiver) Teilnehmer (das Problem des "free riding", der passiven Nutzung der Netzwerkvorteile, ohne eigene Beiträge zu leisten, kann in der "Regel der Vielen" vernachlässigt werden, wenn die Teilnehmerzahl gen
204
Harald Rau
Unendlich strebt). Auf den ersten Blick, leuchtet die "Regel der Vielen" ein. Betrachtet man das Konzept jedoch näher, so ist mit der Größe "Effizienz" ein durch und durch problematisches Konstrukt gewählt und die Herangehensweise der MIT-Wissenschaftler nachgerade positivistisch und unreflektiert. Auf den vorangegangenen Seiten wurde auf die Bedeutung der Nivellierung und auf ein Anpassungsrisiko verwiesen. Hält man die Gültigkeit einer solchen These für möglich, wäre die Größe "Effizienz" zwingend zu ersetzen. Noch einmal zur Verdeutlichung: Allein die Möglichkeit einer massenkommunikativ wirksamen Ausprägung eines kleinsten gemeinsamen Nenners der Kommunikation zeigt doch, dass "Effizienz" in diesem Verständnis sozialer Netzwerke als Größe zu hinterfragen ist. Was dieser recht nahe liegende Ansatzpunkt zeigt: Es bedarf spätestens mit Web 2.0 einer Systematisierung sozialer Netzwerke – abhängig von ihrer Funktionalität und einer möglicherweise variierenden Aufgabenstellung.
Metcalfes Gesetz und Reeds Gesetz Eine weiterer kritischer Aspekt der "Rule of Many" liegt im vermuteten exponentiellen Anstieg der mit unendlicher Gruppengröße steigenden "Effizienz". Tauschen wir also zuerst die Größe "Effizienz" gegen "Wert", so lässt sich leichter argumentieren und theoretisch besser an bestehende Konzepte anknüpfen. Zwei dieser Konzepte, Metcalfes Gesetz und Reeds Gesetz, sollen hier kurz Erwähnung finden, da sie für die Netzwerkforschung elementar scheinen. Metcalfes Gesetz beschreibt einen leicht nachzuvollziehenden Zusammenhang: Beim Aufbau eines Netzes, bei dem jeder Teilnehmer wählen kann, mit einem beliebigen anderen zu kommunizieren, wird die Zahl der potenziellen Verbindungen, die jeder Teilnehmer bei einer Gesamtzahl von N Teilnehmern eingehen kann (N-1) betragen. Die zahl potenzieller Verbindungen beträgt dann N(N1) oder N2-N. Wenn nun jede Verbindung gleichwertig ist (den gleichen Wert besitzt), dann hängt der Wert für jeden der Teilnehmer von der Gesamtgröße des Netzes ab. Der Gesamtwert möglicher Verbindungen ("total value of potential connectivity") wächst weit stärker als das Netz selbst – nach der genannten Formel: proportional zu N2. Also: Der Gesamtwert eines Kommunikationsnetzwerkes wächst in quadratischer Potenz zur Anzahl von verbundenen Geräten oder Menschen. Wenn nun "a" der Wert pro hinzustoßendem Anwender und "b" der Wert der möglichen Verbindung zwischen zwei Anbietern ist, dann würde nach Metcalfe dessen Potenzgesetz einen rein linearen Wertzuwachs (aN) des Netzes dominieren – denn je größer N, desto stärker die Annäherung an den Term (bN2) bei aN (rein linearer Wertzuwachs) und aN + bN2. Mit Reed (2006:
Soziale Netzwerke und die Frage nach der Effizienz
205
o.S.) kann man diese theoretische Auseinandersetzung noch erweitern. In allen Netzen, die den Aufbau und die Ausprägung von kommunizierenden Untergruppen unterstützen, steigt der Wert des Netzes exponentiell mit der Netzgröße. Reed führt dazu den Begriff der "Group Forming Networks" ein – die Zusammenhänge lassen sich nun im Term (aN+b N2+c2N) beschreiben, wobei "c" für die Zahl möglicher Netzwerkgruppen steht. Kurz gesagt, die Zahl nichttrivialer "Untergruppen" eines Netzwerkes mit N Teilnehmern liegt bei (2N-N1), und das Wachstum ist durch die Größe 2N gekennzeichnet. Ein Netzwerk also, das einfache Gruppenkommunikation ermöglicht, hat eine potenzielle Zahl möglicher Gruppen, die exponentiell mit N wächst (vgl. Reed 2006: o.S.). Am Rande bemerkt: Wenn wir in der "Regel der Vielen" wie vorgeschlagen, die Größe "Effizienz" gegen "Wert" austauschen, müsste, wenn die Regel angewandt werden soll und tatsächlich exponentielles Wertwachstum vorliegt, Reeds Gesetz greifen und die beschriebenen Netzwerke im Web 2.0 die Bildung von Untergruppen ermöglichen. Nicht für alle Anwendungen, in denen Medieninhalte kollaborativ entstehen, ist das gegeben. Insofern ist nicht nur die Wahl der Größe "Effizienz" für die Regel der Vielen kritisch, sondern eben auch die Prognose eines exponentiellen Effizienzwachstums.
Soziale Netze im Web 2.0 verlangen nach Systematisierung Noch einmal ist das bekannte Fazit zu ziehen: Spätestens die Beobachtung unterschiedlicher Netzwerkkonzepte im Web 2.0 rufen nach Systematisierung. Mayfield (2003, o.S.) zählt zu denjenigen, die bereits einen interessanten Ansatzpunkt geliefert haben. Er beschreibt ein Ökosystem von Netzwerken, das zur näheren Bestimmung einzelner Netze als Ausgangspunkt Tätigkeiten oder Zielsetzungen wählt: • Publizieren ("Publishing" – linearer, proportional zur Zahl der Teilnehmer wachsende Wertigkeit). • Kommunizieren ("Communication" – Gültigkeit von Metcalfes Gesetz mit einem Wert, der proportional zur Zahl möglicher Links wächst). • Zusammenarbeiten ("Collaboration" – Gültigkeit von Reeds Gesetz, mit einem Wertwachstum, das neben der Zahl der Links die Zahl möglicher Untergruppen berücksichtigt). Das Interessante an diesem Ansatz: Mayfield (vgl. ausführlich auch 2006, S. 116 ff.) weist den Gesetzmäßigkeiten jeweils auch unterschiedliche "Netzwerkbezeichnungen" und Gruppengrößen zu. Gilt das Ziel "Publishing", handelt es
206
Harald Rau
sich in seiner Definition um "Politische Netzwerke", in denen ein Absender mehrere Tausend Rezipienten adressiert. Wenn das Netzwerkziel "Communication" lautet, handelt es sich um "Soziale Netzwerke" mit der optimalen Gruppengröße von 150. Für das Ziel "Collaboration" findet Mayfield die Bezeichnung "Kreatives Netzwerk", wobei die nun nebeneinander agierenden Gruppen ("Group Forming Network") die Zahl von zwölf Mitgliedern nicht überschreiten. Im Unterschied – auch um zur Präzisierung beizutragen – wird hier definiert: Sobald der Austausch im Netzwerk nicht allein eingleisig möglich ist, haben Netzwerke eine "sozial" wirksame Komponente und sind damit als "Soziale Netzwerke" einzustufen, die dann auch mit den zur Verfügung stehenden Theoriebausteinen analysiert werden können. Das Ökosystem von Netzwerken und damit die beschriebenen Zielsetzungen, leitet Mayfield für Weblogs ab, und in einem zentralen Schluss verwendet er den Begriff des "Sozialkapitals" zur Bewertung der Netzwerke.8 Ein bedeutender Schritt, denn nun wird ein Wert des Netzwerkes für die Gesellschaft impliziert und damit erstmals Qualität als eine wertende Größe eingeführt – ein durchaus problematisch zu sehender Akt. Denn das Dilemma, publizistische Qualität zu fassen, begleitet die Medienwissenschaft auch in das Zeitalter des Web 2.0 und ist keinesfalls gelöst. Auch partizipativ oder kollaborativ erstellte Medienangebote mit der Möglichkeit Veränderungen vorzunehmen, bergen das Risiko einer Anpassung (an einen kleinsten gemeinsamen Nenner) – wie auch immer diese dann bewertet wird. Im Grunde wäre "Anpassungsrisiko" ein anderer "Wertbegriff", der sich in die beschriebenen Gesetzmäßigkeiten einbringen ließe.
Soziale Netzwerke verlangen nach einer Werte-Diskussion Fazit: Wer sich auch immer mit dem Wert von Medien auseinandersetzt, kommt an einer "Werte"-Diskussion nicht vorbei – das gilt offensichtlich für alle Massenmedien – auch für jene, die gemeinschaftlich im sozialen Miteinander generiert werden – da am Ende auch erzeugte Vielfalt Wahrnehmung benötigt. Die Beschäftigung mit einer "Wahrnehmungsökonomie" (vgl. auch Franck 1998, der schon im Titel seines bemerkenswerten Essays von "Ökonomie der Aufmerksamkeit" spricht) und den handlungsleitend genutzten individuellen Kommunikationspräferenzen, wird zentral werden, um dann tatsächlich eine Aussage zum im Web 2.0 generierten Sozialkapital zu treffen. Castells (vgl. die Trilogie zum 8
Noch einmal zur Erinnerung: In der "Regel der Vielen" wurde mit "Effizienz" argumentiert, hier wurde dem entgegen die vergleichsweise neutrale Größe "Wert" eingesetzt.
Soziale Netzwerke und die Frage nach der Effizienz
207
Informationszeitalter 2001; 2002; 2003) untersucht aus der Sicht des Soziologen sehr differenziert, wie Informationstechnologie Kultur und die globale Gesellschaft in Gesamtheit beeinflussen und impliziert dabei die zunehmende Gestaltung moderner Gesellschaften um die bipolare Gegensätzlichkeit von Netz und Selbst. Mehr als zehn Jahre nach Erscheinen des ersten Bandes zum "Information Age" (Castells 1996, vgl. 2001), bleibt der "User" in diesem Spannungsfeld. Dieser Beitrag sollte vor diesem Hintergrund auch zeigen: Die Zukunft der Diskussion liegt zum einen in der Rückbesinnung auf sozioökonomische Erklärungsansätze und hier insbesondere in einer tiefen Beschäftigung mit Präferenzen die Individualentscheidungen (beispielsweise über Konsum von Medieninhalten oder eben auch über die Bereitschaft zur Partizipation) zugrunde liegen. Dabei wird es auch auf ein Urteil darüber ankommen, welche der erklärbaren Präferenzen auch handlungsleitend genutzt werden. Denn diese Frage hat in den Realitäten eines Web 2.0 an Relevanz gewonnen. Damit verweist dieser Beitrag zum Schluss ein weiteres Mal auf den noch immer nicht entschiedenen Diskurs um publizistische Qualität.
Literatur Bender, Walter (2005): Triangles and Curves: The Shapes of New Media, MIT Media Lab; Contribution to the "International Seminar on Journalism", October 1st, Tampere. Finland. Bott, Elizabeth (1964): Family and social network: Roles, norms, and external relationships in ordinary urban families; 2. Aufl. London: Tavistock. Castells, Manuel (2001): Das Informationszeitalter; Band 1: Der Aufstieg der Netzwerkgesellschaft. Leverkusen: Leske und Budrich Verlag. Original (1996): The Information Age: Economy, Society, and Culture, Volume 1: The Rise of the Network Society, Oxford and Malden, MA, Blackwell Publishers. Castells, Manuel (2002): Das Informationszeitalter, Band 2: Die Macht der Identität. Leverkusen: Leske und Budrich Verlag. Original (1997): The Information Age: Economy, Society, and Culture, Volume 2: The Power of Identity, Oxford and Malden, MA, Blackwell Publishers. Castells, Manuel (2003): Das Informationszeitalter; Band 3: Jahrtausendwende. Opladen: Campus Verlag. Original (1998): The Information Age: Economy, Society, and Culture, Volume 3: End of Millennium, Oxford and Malden, MA, Blackwell Publishers. Dunbar, Robin (1992): Neocortex size as a constraint on group size in primates. In: Journal of Human Evolution 22. 469-493. Dunbar, Robin (1993): Coevolution of neocortical size, group size and language in humans. In: Behavioral and Brain Sciences 16.4. 681-735. Franck, Georg (1998): Ökonomie der Aufmerksamkeit. München: Hanser. Franck, Georg (2005): Mentaler Kapitalismus. München: Hanser.
208
Harald Rau
Holzer, Horst (1969): Massenkommunikation. Freiburg. Holzer, Horst (1972): Massenkommunikation und Demokratie. Politökonomische Aspekte. In: Prokop (Hrsg.) (1972b). Kiock, H. (1974): Kommunikations-Marketing. Die Technik, journalistischer Anpassung, Schriftenreihe Gesellschaft und Kommunikation, Bd. 12. Düsseldorf. Mayfield, Ross (2003): The Network Ecosystem Model, verfügbar als Onlinedokument. Online: http://radio.weblogs.com/0114726/2003/02/12.html (abgerufen am: 11.04.2007). Mayfield, Ross (2006): Social Network Dynamics and Participatory Politics, in: Extreme Democracy, S. 116-132. Online: http://soy.dyndns.org/~peter/papers/Chapter%20TenMayfield.pdf (abgerufen am: 11.04.2007). McQuail, Denis (2002): McQuails Mass Communication Theory. London. Mitchell, J.C. (1969): Social Networks in urban situations: Analyses of personal relationships in Central African towns. Manchester: University Press. Prokop, Dieter (1972a): Massenkommunikation und Tauschabstraktion. In: Prokop (Hrsg.) (1972b): 347-355. Prokop, Dieter (Hrsg.) (1972b): Massenkommunikationsforschung 1: Produktion. Prokop, Dieter (1972c): Zum Problem von Produktion und Kommunikation im Bereich der Massenkommunikation. In: Prokop (Hrsg.) (1972b): 9-31. Rau, Harald (2007a): Metajournalismus. In: Rau (Hrsg.) (2007c): 31ff. Rau, Harald (2007b): Qualität in einer Ökonomie der Publizistik. Wiesbaden: VS-Verlag. Rau, Harald (Hrsg.) (2007c): Zur Zukunft des Journalismus. Berlin u.a.O.: Peter Lang Verlag. Reed, David P. (2001): The Law of the Pack. In: Harvard Business Review Februar 2001. 23-24. Reed, David P. (2006): Kommentierte Onlineversion von: "That Sneaky Exponential – Beyond Metcalfe's Law to the Power of Community Building". Online: http://www.contextmag. com/archives/199903/digitalstrategyreedslaw.asp (abgerufen am: 25.04.2007). Ruhrmann, Georg/Woelke, Jens/Maier, Michaela/Diehlmann, Nicole (2003): Der Wert von Nachrichtenwerten. Ein Modell zur Validierung von Nachrichtenfaktoren, Opladen. Eine übersichtliche Zusammenfassung der Studie ist als Onlinedokument verfügbar. Online: www.lfm-nrw.de/downloads/studie-nachrichtenwert.pdf (abgerufen am: 10.01.2007). Thiel, Thomas (2005): Wir sind Sprengstoff! In: Frankfurter Allgemeine Zeitung, 07.08.2005. Online: http://www.faz.net/s/RubE2C6E0BCC2F04DD787CDC274993E94C1/Doc~ E197429C5610645CAB70619D096D35BC5~ATpl~Ecommon~Scontent.html.
Von der Gaming zur Working Community: Was können virtuelle Arbeitsorganisationseinheiten von Computerspielgemeinschaften lernen? Jörg Müller-Lietzkow
Einleitung Zugegeben, die virtuelle Organisation (Arnold et al. 1995; vgl. insb. Davidow/Malone 1992; Mowshowitz 2002; Rüsch 2000; Sieber 1998) ist in der Forschung sehr tief durchdrungen worden. Auch zu virtuellen Teams (Lipnack/Stamps 1998) oder anderen virtuellen Arbeitsorganisationsformen (z.B. Telearbeit; Reichwald et al. 2000; Nilles 1976 oder Call Center; z.B. Schuler/Henn 1999) stapeln sich Monographien und Aufsätze (zur Übersicht MüllerLietzkow 2003: 59 u. 82ff.). Die Hauptphase der Forschung begann mit Byrne (1993; ergänzend auch 2000), Davidow/Malone (1992) und hatte ihr Hoch Ende der 1990er Jahre bzw. zu Beginn dieses Jahrzehnts. Warum sollte man also ein soweit erforschtes Gebiet erneut aufrollen? Virtuelle Organisationen werden in letzter Konsequenz als eklektisch erklärte Organisations- und Unternehmensformen verstanden, die die Potenziale moderner IuK-Technologien geschickt ausnutzen und entsprechend als latente oder aktivierte inter- oder intraorganisationale Netzwerke (im Sinne einer Community) fungieren. Prinzipiell erscheint es zunächst wenig vernünftig hier erneut anzusetzen, da der zu vermutende Erkenntnisgewinn zunächst gering ausfallen würde. Auf einen zweiten Blick aber zeigt sich, dass die Prognosen, die Mitte der 1990er Jahre noch als futuristisch galten, heute schon lange von der Realität weit übertroffen werden. Der "E-Lancer" in virtuellen Organisationsstrukturen (Malone/Laubacher 1999) ist keine Vision sondern vielfach schon eine Notwendigkeit, da spezifische Humanressourcen a) generell rar und b) nicht überall verfügbar aber vielfach für anspruchsvolle Projekte/Produkte benötigt sind. Zahllose Netzwerkadministratoren arbeiten z.B. als virtuelle Nomaden und steuern via Software (z.B. Citrix) entsprechende Installationen, administrieren Netzwerke und warten diese global. Virtuelle, internationale Teams, die sich vor allem via Voice- und Bildfunktionen oder Skype austauschen, sind ebenso Normalität, wie auch die Mitgliedschaft in virtuellen Communities (z.B. Xing in Deutschland). Wer sich nicht virtualisiert, wird virtualisiert durch die Arbeitswelt, könnte fast schon eine
210
Jörg Müller-Lietzkow
zynische Feststellung sein. Der arbeitende Mensch steht also unter einer neuen Art von Zwang – einem Zwang der dem (erweiterten) virtuellen Paradigma "Anytime-Anywhere-Anyhow" (O'Hara-Devereaux/Johanson 1994; erweitert Müller-Lietzkow 2003: 37f.) eine neue Bedeutung zukommen lässt – von einer Option zur Notwendigkeit. Notwendigkeiten bedeuten im Rekurs aber immer wieder auch eine gewisse Form neuen Zwangs, wie schon Etzioni (1961) in seiner Organisationstypenrasterung feststellt. Die negativen Folgen von Zwang sind hinlänglich bekannt. Vor allem die Frage der Motivation spielt dabei eine sehr große Rolle, geht man prinzipiell davon aus, dass motivierte Menschen grundsätzlich bessere Leistungen erbringen können als weniger oder schlecht motivierte und Zwang nicht gerade als Motivation fördernd gilt. Geht man weiterhin davon aus, dass Virtualisierung heute zumindest immer noch an technische, primär digitale Endgeräte gekoppelt ist, könnte also eine Frage lauten, ob und was man von motivierenden virtuellen digitalen Unterhaltungsumgebungen für die virtuellen Arbeitsumgebungen lernen kann? Vor allem: Gibt es dort Innovationspotenziale, die bisher nicht erkannt bzw. ausgereizt wurden? Wie relevant das Thema virtueller Organisationen aus Sicht der computervermittelten Kommunikation ist, lässt sich unmittelbar aus den Ausführungen bei Fischer (2005: 186ff.) ableiten. Kurz gesagt: Es geht heute nicht mehr um die Frage ob, sondern vor allem um die Verbesserung und Optimierung virtueller Organisationsstrukturen in den Unternehmen. Es bieten sich heute zur Beantwortung dieser Frage die mannigfaltigen netzwerkbasierten Computer- und Videospielgemeinschaften als Prototypen virtueller Organisationen bzw. virtueller Organisationsstrukturen an.1 Drei Gründe sprechen dafür: Erstens basieren digitale Spiele (synonym zu Computerund Videospielen hier verwendet) generell auf Freiwilligkeit und man benötigt dementsprechend intrinsische Motivation diese zu spielen. Zweitens bedeutet das Zusammenspiel bzw. auch das Spiel gegeneinander via virtuellen Interface, dass die computervermittelte n:m (z.B. im Teamplay) aber auch 1:1 (Singleplay) Kommunikation offensichtlich eine zentrale Rolle im motivierten Spielprozess beinhaltet und einen besonderen Stellenwert für die Spieler hat. Drittens werden die Spiele von Menschen mit Menschen gespielt – d.h. das Gegner oder Mitspieler mit künstlicher Intelligenz höchstens zusätzlich, nicht aber dominierend 1
Hier wird eigentlich im Schwerpunkt bewusst von Computerspielgemeinschaften gesprochen, da z.B. Online-Rollenspiele prinzipiell über diese gespielt werden. Videospielkonsolen, wie die Xbox und XBOX 360 aber auch Playstation 2 und PSP sind zwar prinzipiell netzwerkfähig, werden aber heute noch primär zu lokalen Spielerlebnissen genutzt. Allerdings bleibt zu erwarten, dass sich gerade dies in den nächsten Monaten aufgrund der Veröffentlichung der neuen Spielkonsolen Playstation 3 und Nintendo Wii signifikant ändern wird.
Von der Gaming zur Working Community
211
ins Spielgeschehen eingreifen. Die (computervermittelte) Kommunikation steht also klar im Mittelpunkt und Zusammenhang mit dem motivierenden und zu koordinierenden Spielerlebnis. Berechtigterweise kann man sich dann noch die Frage stellen, warum davon ausgegangen wird, dass die digitalen Spielumgebungen gute Anhaltspunkte für die Arbeitswelt geben. Dies erklärt sich aus dem Leistungsprinzip der Spiele. Digitale Spiele erfordern vom Spieler eine Leistung um entsprechende (Spiel-) Gratifikationen zu erhalten. Dabei kann es sich gerade bei E-Sport2 um Hochleistungen handeln, die nur durch entsprechendes Training oder bei OnlineRollenspielen3 um Dauerleistungen handeln, die nur durch Konstanz zu Erfolgen führen. Beides, Leistung und Konstanz sind aber typische Indikatoren der Arbeitswelt und daher liegt die Vermutung nah, dass entsprechende Transferund Lernpotenziale da sind. Nachgewiesen wurden diese Potenziale schon im Bereich E-Learning (Stichworte: Edutainment oder Serious Gaming; vgl. u.a. Kerr 2006: 129 ff.) und insbesondere durch die pädagogische Forschung zu Computer- und Videospielen (z.B. Prensky 2006; Wesener 2004). Basierend auf einer aktuellen Erhebung bei E-Sportlern sowie Erfahrungsberichten von Online-Rollenspielern (vgl. Taylor 2006) gliedert sich der Beitrag in vier Abschnitte: • Im ersten Abschnitt wird der Status Quo virtueller (Arbeits-) Organisationsformen skizziert. • Der zweite Abschnitt beschäftigt sich mit E-Sport und Online-Rollenspielen sowie deren Spiel- und Kommunikationsmechanismen und -techniken. • Im dritten Teil werden die identifizierten Kommunikationsmechanismen und -techniken vor dem Hintergrund einer modernen Arbeitsorganisationswelt auf Transfer- und Lernpotenziale hin analysiert. • Im abschließenden Fazit und Ausblick werden Perspektiven entwickelt, an welchen Stellen die noch junge Forschung zur Computervermittelten Kommunikation bei Computer- und Videospielen vor dem erarbeiten Hintergrund forciert werden sollte. Darüber hinaus soll ein kleiner Ausblick auf die zukünftigen Forschungsfragen virtueller Arbeitsorganisationsformen bei einer Integration von Spielen in die Arbeitswelt gegeben werden. 2
Unter E-Sport wird das wettkampfmäßige Einzel- oder Teambasierte Spielen von Computerund Videospielen verstanden. Dabei wird sowohl in Internetligen als z.B. auch bei LANParties via Netzwerk gespielt (Müller-Lietzkow 2006a; Müller-Lietzkow 2006b; Wagner 2006a; Wagner 2006b).
3
Häufig auch als Massively Multi Player Online Role Playing Games (MMORPG) bezeichnet.
212
Jörg Müller-Lietzkow
Ohne eine ausführliche Argumentation hier schon geführt zu haben, soll als zentrales Ergebnis festgehalten werden: Es ist offensichtlich, dass vor allem netzwerkbasierte Computerspiele zahlreiche Innovationspotenziale für die Gestaltung von Handlungs- und Kommunikationsstrukturen in virtuellen Arbeitsorganisationsprozessen bieten, die durch geschickten Einsatz zu Leistungssteigerungen aber auch Verbesserungen der Kommunikations- und Lernprozesse führen können (vgl. hierzu Castronova 2005).
Aktuelles Forschungsfeld digitale Spiele "Zuallererst lernen wir eine bestimmte Denkweise: die Fähigkeit, mit Simulationen umzugehen. Dies ist die Grundlage wissenschaftlichen Denkens. Man startet von einer Auswahl von groben Annahmen, man testet sie, verwirft sie und fängt von vorne an. Simulationen sind wirksame Hilfsmittel, um sich ein Bild von der Welt zu machen und verschiedene Modelle zu durchdenken. (…) Auf einer anderen Ebene lehren uns Spiele, verschiedene Identitäten anzunehmen, verschiedene Fähigkeiten anzuwenden und Probleme aus verschiedenen Perspektiven zu betrachten. Multiplayer-Spiele fördern Teamwork über räumliche Grenzen hinweg. Alles Fähigkeiten, die man in der Arbeitswelt von Zukunft benötigt." (Jenkins 2007: 20) Die Anzahl der Computer- und Videospieler steigt global stetig an. Immer mehr Menschen sind bereit, hier einen erheblichen Anteil Ihrer Freizeit zu investieren. Allein in Deutschland spielen schätzungsweise ca. 20-25 Mio. Menschen mehr oder wenig regelmäßig Computer- und Videospiele (Datenbasis: TNS Infratest Mai 2006; Müller-Lietzkow et al. 2006). Die intensiv und regelmäßig spielen, widmen dieser interaktiven Mediennutzung entsprechende Zeitressourcen. Vor dem Hintergrund ist davon auszugehen, dass entsprechende Transfer- oder Lernprozesse möglich sind, wie auch obiges Zitat des berühmten Medienwissenschaftlers Henry Jenkins belegt (vgl. insb. Wesener 2004: 129ff.). Bisherige Untersuchungen konzentrieren sich dabei vor allem auf den vermuteten Zusammenhang über den Transfer von Gewalt in Spielen auf Gewalt in der Realität. Studien belegen bis heute lediglich einen kurzfristigen Affekt (im Sinne der Arousal-Theorie, vgl. Mendelsohn 1966; siehe auch Bosshart 2002) aber keine dauerhafte Wirkung oder gar das Auslösen gewalthaltiger Handlungen (vgl. insb. Ladas 2002). Weit weniger prominent, aber zunehmend empirisch bestätigt (vgl. Herz 2002), wird hingegen, dass digitale Spiele und deren Technologien auch in anderen Lebensbereichen einsetzbar sind. Unter dem etwas unglücklichen Label
Von der Gaming zur Working Community
213
"Serious Gaming" werden entsprechende Applikationen und Anwendungen subsummiert. Eine ganze Reihe dieser so bezeichneten Anwendungen verliert aber entweder weitestgehend den Spielcharakter oder hinter diesem werbewirksamen Label werden entsprechende Edutainment und Lernspiele zusammengefasst, ohne im Kern wirklich neuartig zu sein (vgl. auch Cohen et al. 2006; Gibson et al. 2007). Anders herum geht hingegen der amerikanische Wissenschaftler Edward Castronova in seinem Buch "synthetic worlds" (2005) sehr weit. Er beschreibt mit "synthetic worlds" Onlinespielwelten und gruppiert sie als "new technologies" und "worlds as lifestyle" (2005: 254). Aus dieser Erkenntnis leitet er eine ganze Reihe von Feldern ab (Wissenstechnologie; Sicherheitstechnologie; politische Analyse Technologie; Mobilisierungstechnologie; Ökonomisches Aktivitätsfeld und Beziehungsmanagement). Egal, ob man sich nun dem breiten Verständnis von Castronova oder dem engeren oben beschriebenen Verständnis "Serious Gaming" der Thematik nähert, herrscht offensichtlich Konsens darüber, dass digitale Spiele neben der reinen Spielfunktion besondere Zusatzpotenziale besitzen.4
Warum Spiele im Arbeitskontext? Wie in der oben vorgestellten Untersuchung gezeigt werden konnte, sind zwar auch in klassischen Industrien schon heute virtuelle Strukturen erkennbar, aber die Potenziale werden häufig nur unzureichend ausgenutzt. Eine rein strukturelle Betrachtung reichte also nicht. Digitale Spiele finden fast ausschließlich im virtuellen Raum statt und die Spielziele sind auch nur dort realisierbar. Aufgrund dieser Überlegung erscheint die Fragestellung naheliegend, ob man von Spielen und Spielern etwas für die Optimierung der Nutzung virtueller Strukturen lernen kann (vgl. auch Johnson 2006). Dabei basiert die Nutzung digitaler Spiele generell auf Regeln (Juul 2005) aber auch Freiwilligkeit und man benötigt intrinsische Motivation diese zu spielen – also die Gewinnpotenziale im virtuellen Raum zu aktivieren. Das Zusammenspiel bzw. auch das Spiel gegeneinander via virtuelles Interface, bedeuten dabei dass die computervermittelte n:m (z.B. im Teamplay) aber auch 1:1 (Singleplay) Kommunikation offensicht4
Bewusst ausgelassen wird hier eine erweiterte Diskussion über Problemlösungspotenziale von Spielern (vgl. Kraam-Aulenbach 2002). Dies würde a) den Rahmen sprengen und b) den Fokus von der Frage der Zusammenarbeit in virtuellen Arbeitsumgebungen weg lenken. Im Rahmen einer umfassenderen Folgeuntersuchung sollte diese Diskussion aber durchaus geführt werden.
214
Jörg Müller-Lietzkow
lich eine zentrale Rolle im motivierten Spielprozess beinhaltet. Teamspiele erfordern darüber hinaus eine koordinierte Zusammenarbeit der Teamspieler. Immer beliebter werden dabei jegliche Formen des Spiels mit und oder gegen menschliche Gegner, d.h. das Gegner oder Mitspieler mit künstlicher Intelligenz höchstens zusätzlich, nicht aber dominierend ins Spielgeschehen eingreifen. Stark ausgeprägt sind diese Spielformen bei Onlinespielen jeglicher Art. Die globale Umsatzkurve (gemessen in Mrd. Dollar US; vgl. Abb. 4) veranschaulicht diesen Trend beeindruckend.
Untersuchungsfähige Spieltypen: E-Sport und MMORPGs Die nachfolgenden Überlegungen verdichten sich noch schärfer, wie aufgrund der hohen Nutzerzahlen begründbar, auf die zwei Onlinebasierten Spielformen eSports als wettkampforientiertes Computer- und Videospielen sowie MMORPGs5, deren Spielkern in der eigenständigen und/oder gruppenorientierten Erforschung persistenter Welten liegt. Sowohl bei eSportlern als auch MMORPG-Spielern handelt es sich im Normalfall um erfahrene Spieler (Müller-Lietzkow 2006b; Yee 2006)6). Die Logik dahinter ist, dass a) bei Onlinespielen die computervermittelte Kommunikation elementar und b) die Notwendigkeit zur Kooperation oder Konkurrenz mit menschlichen Gegnern gegeben ist. Damit liegen diese zielorientierten Spielformen sehr nahe an Realitäten der Arbeitswelt, wie auch Castronova (2005), Yee (2006) oder Dibell (2006) feststellen. Darüber hinaus können vor allem bei MMORPGs elementare Wirtschaftsprozesse des Handeln, Kaufen und Verkaufens und der Wertschöpfung durch entsprechendes Ressourcenmanagement beobachtet werden. eSports erfüllt zusätzlich die Funktion des konzentrierten und fokussierten Wettbewerbs, der hohen zeitkritischen Herausforderung, Reaktionsschnelligkeit und der Notwendigkeit sich auf menschliche Intelligenz als Gegner einzulassen. Die Ergebnisse zum eSport basieren auf Erhebungen im Herbst 2005 (n=205, Müller-Lietzkow 2006b) und Herbst 2006 (n=530, Schliee 2007) bei 5
Zur Definition von eSport vgl. auch Wagner (2006a; 2006b).
6
Yee (2006) zeigt, dass im Schnitt über 60% der MMORPG Spieler schon vorher Rollenspiele und Brettrollenspiele genutzt haben. Müller-Lietzkow (2006b) konnte feststellen, dass gute eSportler meist eine 3-5 Jährige Gameserfahrung mitbringen, bevor sie sich dem eSport intensiv zugewandt haben (ca. 70%). Die meisten eSportler spielen seit Mitte der 1990er Jahre.
Von der Gaming zur Working Community
215
eSportlern.7 Für den Bereich der MMORPGs wurde auf empirische Untersuchungen aus dem Daedalus-Projekt (Yee 2003-2006)8) zurückgegriffen. Darüber hinaus wurde zu Vergleichszwecken auf Untersuchungen der dänischen Forschungsgruppe Game Research (2002a; 2002b) sowie eine Untersuchung von Jansz/Martens (2005) zurückgegriffen.9 Diese Untersuchungen bestätigten im Großen und Ganzen vor allem die Ergebnisse der Erhebungen zum eSport. In den zur Kontrolle genutzten Studien sind aber vor allem nur wenige Auskünfte zu Fragen der Motivation und entsprechenden Transferpotenzialen abgebildet. Die nachfolgende Übersicht fasst die vermuteten Transferpotenziale zusammen.
7
Bei den Untersuchungen von Schliee (2007) und Müller-Lietzkow (2006a; 2006b) wurden ausschließlich eSportler aus Deutschland befragt. Um eine entsprechende Streuung zu erreichen wurden die Fragebögen über die populärsten eSportportale gestreut. Schliee hat dabei mit dem Befragungstool von Unipark gearbeitet. Müller-Lietzkow hat einen traditionellen Fragebogen verwendet.
8
Die Ergebnisse von Yee (2003-2006) werden hier in Einzelberichten (ohne Seitenangaben) seit 2003 veröffentlicht (derzeit 19 Stück, Stand 5.3.2007). Die Stichprobengrößen schwanken dabei erheblich und werden häufig geschlechtsspezifisch getrennt. Auch können diese nur als begrenzt repräsentativ gesehen werden, da Yee leider nicht angibt, wen er genau befragt. D.h. die Stichproben verzerren in gewissen Rahmen. Dies schmälert aber aufgrund der Grundgröße (zwischen 500 und 2000) nicht die Aussagekraft.
9
Ebenfalls ergänzend finden sich einige Untersuchungen zum Sozialverhalten von Spielern bei Beck/Wade (2004: 181-186).
216
Jörg Müller-Lietzkow
Abb. 5:
Transferpotenziale der zentralen Untersuchungsfelder eSport und MMORPGs MMORPGs
• Beispiele: WoW; Everquest; Second Life; Matrix Online; Power of Politics … • Empirische Forschung: − Motivationsforschung (Yee 2003-2006) − Eigenerfahrungen (z.B. Taylor 2006) − Clanmanagement (unter Clans werden größere, fest organisierte Gruppen von Spielern verstanden) − Sozialstrukturforschung (z.B. Castronova 2005; Williams 2004) − Verhaltensweisen (z.B. Game Research) • Vermutete Transfer- und Lernpotenziale: − Community-Bildung und Clanmanagement − Wirtschaftsprozesse in virtuellen Strukturen (V-Commerce)
eSport • Beispiele: CounterStrike; FIFA; Live for Speed; Warcraft III; … • Empirische Forschung: − Zeitinvestitionen (z.B. MüllerLietzkow 2006a; 2006b) − Typologien (z.B. Game Research 2002a; 2002b) − Lan-Partys (z.B. Jansz/Martens 2005) − Training (z.B. Müller-Lietzkow 2006/200710) − Motivation (z.B. Schliee 2007) • Vermutete Transfer- und Lernpotenziale: − Alternative Kommunikationskanalnutzung in zeitkritischen Situationen − Teammanagement − Motivation und kompetitive Einstellung − Selbstorganisation
− Management-Skills bei "virtuellen" Mitarbeitern − Kontinuierliche Problemlösung in virtuellen Teams 10
Die Untersuchung wurde nicht in Form einer Publikation verfasst. Ergebnis dieser Befragung von ca. 350 Spielern der Electronic Sports League sind vor allem Einstellung, Nutzungsdauer, Regelmäßigkeit und Inhalte des Trainings. Entsprechende Anschlussforschung ist in Planung.
Von der Gaming zur Working Community
217
Analyse und Interpretation der Spielmechanismen und Potenziale Die vorliegende Untersuchung stellt natürlich nur einen ersten noch empirisch weiter zu vertiefenden Anfang dar und ist somit als "early stage research" einzustufen. Offensichtlich ist vor dem Hintergrund der hier im Kern der virtuellen Organisation thematisierten Felder eLearning, virtuelle Zusammenarbeit und virtuelles Business zunächst die naheliegenden Transferpotenziale zu identifizieren. Anders formuliert geht es einerseits um inhaltliche, die in den Spielen selber begründet liegen (Lernspiele, Edutainment) und andererseits, hier behandelt um organisatorische Transferpotenziale. Die organisatorische Frage splittet sich dann noch in die Frage der Koordination interaktiver virtueller Handlungen und deren Motivation, wo nach obiger Zusammenfassung digitale Spiele offensichtlich Stärken ausweisen. Bezogen auf die vorgestellte Untersuchung zu den klassischen Industrien sollen noch einige Einzelbeobachtungen ausgeführt werden, die sich auf eLearning, virtuelle Teams und virtuellen Kommerz beziehen. Ausgelassen wird die virtuelle Organisation, die im Rahmen des Fazits unter dem Stichwort der Führung (Leadership) in virtuellen Organisationsstrukturen wieder Eingang findet.
Virtuelle Zusammenarbeit (virtuelle Teams und Communities) Wie erwähnt, stehen neben inhaltlichen vor allem organisatorische Transferpotenziale auf dem Prüfstand. Bezogen auf das Individuum können vor allem Teamfähigkeiten durch digitale Spiele geschult werden (also nicht nur Führung, sondern auch "Mitspielerfähigkeiten"). Dies hängt einerseits mit der Notwendigkeit von Spielteams ab, in zeitkritischen Situationen adäquat zu handeln und zum anderen von Teamsteuerungsfähigkeiten ab (vgl. auch Baumann 2004). Für die Grundprinzipien spielt dabei die Teamgröße eine sekundäre Rolle, denn ansonsten würden Clans (deren Größe schnell einige hundert Spieler annehmen können) bei MMORPGs nicht steuerbar sein. Interessant in diesem Zusammenhang wäre vor allem die Frage, wie die Kombination aus Motivation und Koordination hier ausfällt. Leider gibt es hierzu weder Ergebnisse bei Yee noch bei Schliee und Müller-Lietzkow.
218
Jörg Müller-Lietzkow
Einige weitere Ergebnisse in Stichpunkten: • Die Beherrschung von Voice-Kommunikation (Teamspeak) ist Grundvoraussetzung von erfolgreichen Counterstrike11-Teams. Teamspeak wäre – gerade bei zeitkritischen Teamprozessen eine gute Alternative (VoIP12). Gerade bei international agierenden Unternehmen wäre es wünschenswert, die Palette der Kommunikationskanäle stringent aber auch effektiv zu nutzen. Auch wäre ggf. eine Code- und Kurzsprachkommunikation hier überlegenswert. • Counterstrike-Teams trainieren viel zusammen. Das Training wird dennoch über die virtuellen Communities organisiert und findet nicht an einem Ort statt.13 Die Spieler kommen prinzipiell erst zu entsprechenden Finalspielen zusammen. Geht man davon aus, dass auch virtuelle Teams in der Arbeitswelt nicht selten nur zu besonderen Anlässen zusammenkommen, sollten diese nicht erst bei konkreten Projekten das Zusammenspiel trainieren. Es wäre gut, wenn bestimmte Routinen hier schon im Vorfeld eintrainiert würden. • MMORPGs bringen die Option mit sich, in entsprechend großen virtuellen Teams und Subteams zu agieren. Die Clans sind faktisch virtuelle Organisationen in der riesigen Spielwelt die eine einzige virtuelle Community ist. Hier treffen alle drei Organisationaggregationsebenen (Team, Organisation, Community) aufeinander. Das Navigieren in diesen ist nicht immer einfach. Dennoch schaffen es Spieler leicht, hier nicht den Überblick zu verlieren. Dabei helfen soziale Bindungen und klare Clanstrukturen sowie Spielregeln. Transferiert man diese organisationale Kompetenz auf Arbeitswelten, stellt sich heraus, dass es auch in virtuellen Organisationsstrukturen elementar für den Erfolg ist, dass die Hierarchieebenen nicht gebrochen werden. Es macht also Sinn, sich hier auf entsprechende "Spielregeln" zu vereinbaren. Diese Regeln sollten vor allem der Zielerreichung, wie bei Spielen dienlich sein.
11
Counterstrike ist ein anspruchsvolles Taktik-Action-Spiel, welches aus der so genannten EgoShooter-Perspektive gespielt wird.
12
Voice over Internettranfer Protocol (VoIP).
13
Dabei spielen die Spieler sowohl allein als auch miteinander entsprechende Trainingssession. Viele empfinden aber das kollektive Spielen als anspruchsvoller.
Von der Gaming zur Working Community
219
Virtueller Kommerz Im Jahr 2007 hat sich E-Business global in vielen Bereichen durchgesetzt. Allerdings haben die Transformationen tradierter Geschäftsmodelle in Internet in den klassischen Industrien nicht zwangsläufig eine fundamentale Veränderungen bzw. neue Opportunitäten erzeugt. Vor allem gelang es bisher kaum, aus diesen Erfahrungen im E-Business rekursiv kommerzielle Erfolge zu generieren. Spiele sind hier hingegen an der Spitze der Entwicklung. Ganz aktuell interessieren sich die Nutzer vor allem für die virtuelle Simulationswelt Second Life. Aber auch in anderen MMORPGs hat die Kommerzialisierung deutlich zugenommen. Die aus Industriesicht sicherlich interessanteste Komponente stellt dabei die Kapitalisierung virtueller Gegenstände und Währungen dar. Das entscheidende, was die auf in der Geschäftswelt hier von den Spielwelten gelernt werden kann ist also, wie man durch entsprechende Immersion und das Generieren neuer rarer virtueller Gegenstände Werte schaffen kann. Ebenfalls einige weitere Ergebnisse in Stichpunkten: • Neben dem Schaffen von Werten bieten virtuelle Spielwelten sehr viel mehr Optionen zur Überprüfung der eigenen Position. Entsprechend können hier zahlreiche neue Formen des Tauschhandels ausgeführt werden. Bartering in MMORPGs ist vergleichbar mit dem Leistungsaustausch von Dienstleistungen. Aus dieser Position heraus lässt sich überlegen, ob beispielsweise zukünftig interne Verrechnungssysteme anders gestaltet werden können. Dasselbe gilt für im Netzwerk agierende Partner im Rahmen von E-Business Geschäftsmodellen. • Strategiespiele und Simulationen erlauben die Wiederholung von kritischen Situationen bei z.B. ökonomischen Transaktionen. Diese Übungsszenarien sind ideal zu Ausbildungszwecken geeignet. Das bedeutet aber nicht, dass man zu einem Ausgangspunkt zurückgehen kann, wie dies bei traditionellen Spielen gegen künstliche Intelligenz der Fall ist. Durch den Rückschritt bei Onlinespielen stellen sich neue, aber ähnliche Aufgaben. Hierdurch gewinnen Spieler durch angepasste Steigerung eine größere Handlungskompetenz. Diesen Effekt könnte man sehr gut nutzen, um Mitarbeiter besser auf entsprechende Verhandlungssituationen vorzubereiten. Aktuell in der Diskussion sind auch die Marketingpotenziale von virtuellen Spielwelten, wie Second Life. Hierzu ist die Datenlage aber noch zu gering, als dass valide Aussagen möglich erscheinen. Darüber hinaus sollte man Transferpotenziale nicht mit der traditionellen Medienfinanzierung durch Werbung an dieser Stelle verwechseln. Allerdings können hier sehr viel präzisere Konsu-
220
Jörg Müller-Lietzkow
mentendaten kostengünstig erhoben werden, was zumindest auf die Werbewirkungsforschung erheblichen Einfluss haben dürfte.
E-Learning Unter E-Learning werden heute weitestgehend Online-Applikationen zur Wissensvermittlung verstanden. E-Learning kann dabei allein oder in virtuellen Klassenräumen stattfinden. Im Mittelpunkt steht die Wissensvermittlung mit Hilfe digitalisierbarer Informationen. Vielfach wird aber gerade bei dieser Form der Wissensvermittlung der "Faktor Mensch" vernachlässigt. Motivation ist aber bekanntlich der Schlüssel für gute Lernerfolge. U.a. können Wettbewerbssituationen die "Lust auf Mehr" erheblich steigern. Computer- und Videospiele regen gerade diese Motive an. Es zeigt sich empirisch, dass die Kombination aus Wettbewerb aber auch gemeinschaftlicher Problemlösung bei digitalen Spielen z.B. der wichtigste Grund für eSport ist. Gerade die guten Spieler (1/4 der Stichprobe bei Müller-Lietzkow und auch ca. 30% bei Schliee) tendieren deutlich zu einer wettbewerbsorientierteren Perspektive. Gesucht sind eben auch vielfach in Arbeitsprozessen diejenigen, die eine solchen Einstellung präferieren. Insofern könnten durch solche Spiel-eLearningapplikationen neben Wissensinhalten auch solche Motive erforscht werden. Nochmals einige weitere Ergebnisse in Stichpunkten: • Es zeigt sich, dass der verbreitete Irrglaube "Viel hilft viel" zu weniger Erfolg im eSport führt als konzentriert und vergleichsorientiert zu spielen. Dies lässt sich auch auf E-Learning übertragen. Ob in virtuellen Klassenräumen oder auch bei Einzellernprogrammen: Vielfach fehlt es an einer angemessenen Konzentration. Auch das häufig betonte Paradigma der eigenständigen Lerngeschwindigkeit sollte nicht losgelöst von der Erkenntnis des Prinzips von Belastung und Erholung14 gesehen werden, was gute eSportler kennzeichnet. • Die Konzentration auf einzelne "Moves" (Spielbewegungen) und "Elemente" (Spielzüge) steigert die Leistungsfähigkeit deutlich mehr als "pures Spieltraining", wie sich bei den eSport-Untersuchungen zeigte. eLearning sollte der Fokussierung im virtuellen Raum mehr Rechnung tragen. Dabei gemeint ist insbesondere, dass die Lerneinheiten detailliert aber konzentriert 14
Dieses Prinzip bezieht sich übrigens auf alle Sportarten und nicht nur eSports.
Von der Gaming zur Working Community
221
auf einzelne Inhalte aufgebaut werden sollten. Die Wiederholungen müssen ein "Einschleifen von Engrammen" (vgl. Zimbardo 1988)ermöglichen.
Fazit, Forschungsfragen und Ausblick Die Überschrift dieses Aufsatzes lautete "von der Gaming zur Working Community" und bezog sich vor allem auf die Organisationsform der virtuellen Organisation. Offensichtlich wird, dass vor allem Onlinespiele, bei denen Menschen miteinander als Community interagieren besonders geeignet sind über Transferpotenziale nachzudenken. Die Computervermittelte Kommunikation spielt dabei vor allem insofern eine Rolle, als dass die Kompetenz und Nutzung von Media Richness (vgl. Reichwald et al. 2000: 56ff.) hier zu einer Schlüsselfunktion wird. Grundsätzlich, dies bestätigte die kurze Untersuchung, sind es also sowohl inhaltlich wie eben auch organisationale Kompetenzen, die durch Lernen hier von der Gaming zur Working Community transferiert werden können. Zwischen diesen beiden Dimensionen verläuft aber keine trennscharfe Linie, sondern entsprechende Interdependenzen führen zu einer entsprechenden Dimensionsverschränkung. Bei den inhaltlichen Kompetenzen sollte allerdings in einem erweiterten Rahmen gedacht werden, der vor allem die Komplexität inhaltlicher Angebote und Explorationsoptionen berücksichtigt. Die bisherigen Überlegungen sind aber eher Anfang als Ende. Wie schon Beck/Wade explizit in ihrem Buch "Got Game" beschreiben, ist zu erwarten, dass in Spielen erworbenes strategisches und taktisches Wissen auch auf Managementebene klare Auswirkungen haben kann und wird (vgl. 2004: 153ff.). Beck & Wade sprechen von einem ausgewogenen Risikoverständnis, "think different" und "go meta" (S. 155 f.). Think different meint dabei dass Spieler a priori in (virtuellen) Netzwerkstrukturen, globaler und Echtzeitorientiert denken. Hinzu kommt eine starke Orientierung zum Wettbewerb (S. 156). Go meta drückt aus, dass sich Spieler am liebsten "selbst über die Schulter schauen" und diese Perspektive auch durchaus im realen Leben anwenden können: "With distance and control added to your point of view, you achive more." (S. 167). Den Vorteil einer solchen 3D-Selbstperspektive sehen die Autoren vor allem im kontrollierten Verhalten der Akteure. Darüber hinaus schreiben sie den Spielern stark verbesserte "Leadership"-Potenziale zu (vgl. S. 167 ff.). Diese Leadership Potenziale identifiziert auch Yee (Yee 2006: 8f.) eindeutig für Clanführer in
222
Jörg Müller-Lietzkow
Online-Rollenspielen (z.B. World of Warcraft etc.).15 Diese LeadershipPotenziale haben auch indirekt wieder Auswirkungen auf die Gestaltung virtueller Organisationsstrukturen. Insofern ist davon auszugehen, dass die Generation der Spieler, die nach und nach in Führungspositionen gelangen, die Potenziale im Sinne des Virtuality based View deutlich besser ausreizen können, als die heutigen Manager, die nicht spielen. Die aus der vorliegenden Untersuchung ableitbaren Forschungsfragen konzentrieren sich aus Sicht der Computervermittelten Kommunikation vor allem auf drei zentrale Bereiche: • Welche Erfahrungswerte aus reichhaltiger Kommunikation (bzw. Media Richness) bei Computer- und Videospielen können Kommunikationsprozesse in Arbeitsabläufen optimieren helfen? Gibt es entsprechende Applikationen und Routinen (z.B. Teamspeak), die die Kooperation virtueller Teams stärken. Auf einer theoriebasierten Ebene kann man fragen, ob dies im Zusammenhang mit einer erweiterten oder gar neuen Media-Richness-Theorie verbunden werden kann? • Virtueller Kommerz, der auf Basis von sowohl "Bartering" (Tauschgeschäften) als auch Realtransaktionen fungiert. Rollenspiele zeigen schon heute, wie durch "geschicktes Sammeln" ein höheres individuelles Wohlstandsniveau erreicht werden kann. Dieser Transfer ist z.B. denkbar in so genannten B2B-Bereichen. Warum sollten zukünftig nicht virtuell organisierter Leistungsaustausch jenseits dessen, was heute unter E-Business verstanden wird in Kombination mit Web 2.0-Lösungen aus dem Bereich der Spiele gelernt werden? • Abschließend sollte man sich Fragestellung widmen, die klären, ob ggf. zukünftige Investitionen im Rahmen der Usability-Forschung bzgl. MenschMaschine-Schnittstellen in Kooperation mit Spieleunternehmen stattfinden sollen. Unabhängig dieser Betrachtungsperspektive wird es in naher Zukunft durchaus nicht mehr ungewöhnlich sein, dass große Managemententscheidungen ggf. entsprechend in Simulationen durchspielen bevor die realen Entscheidungen getroffen werden. Spiele bieten die Option sich sehr viel intensiver mit den Wirkungen der eigenen Handlungen a priori auseinanderzusetzen. Zum Schluss merken Beck/Wade (2004) noch an, dass man sich dessen bewusst sein sollte, 15
Die Leadership-Frage stellt sich übrigens auch schon einer der Pioniere der Untersuchung virtueller Organisationen, Byrne (2000).
Von der Gaming zur Working Community
223
dass sich die Spiele und Spieler sehr schnell weiterentwickeln (S. 179 f). Will man die Vorteile dieser Entwicklungen, insbesondere auch in virtuellen Organisationen bei virtueller Arbeitsorganisation nutzen, bleibt nur die Option sich aktiv über den neusten Entwicklungsstand auf dem laufenden zu halten. Die Halbwertszeit des Wissens ist nicht zuletzt aufgrund der schnellen Weiterentwicklungen auch bei Spielen gering. Daraus leitet sich ein hoher Forschungsbedarf ab, der noch stärker auf die Leadership-Perspektive im Kanon des dargestellten Virtuality based View abzielt.
Literatur Arnold, O./Faisst, W./Härtling, M./Sieber, P. (1995): Virtuelle Unternehmen als Unternehmenstyp der Zukunft, in: Handbuch der modernen Datenverarbeitung, Nr. 185. Baumann, Tobias (2004): Effective Teamwork in online Games. Middlesex: SAE College. Beck, John C./Wade, Mitchell (2004): Got Game – How the Gamer Generation is Reshaping Business Forever. Boston Mass.: Harvard Business School Press. Bosshart, Louis (2002): Stichwort: Harold Mendelsohn. In: Holtz-Bacha/Kutsch (Hrsg.) (2002): 308-309. Byrne, James A. (1993): The virtual Corporation. In: Business Week, 08.03.1993. 36-41. Byrne, James A. (2000): Management by Web. In: Business Week, 28.08.2000. 44-52. Castronova, Edward (2005): Synthetic Worlds – The Business and Culture of Online Games. Chicago: University of Chicago Press. Cohen, Steve/Portney, Kent E./Rehberger, Dean/Thorsen, Carolyn (2006): Virtual Decisions – Digital Simulations for Teaching Reasoning in the Social Sciences and Humanities. New Jersey: LEA. Davidow, William H./Malone, Michael S. (1992): The virtual Corporation. New York: Harper Collins. Devlin, M./Larson, R./Meyerson, J. (Hrsg.) (2002): The Internet and the University: 2001 Forum. Boulder, CO: EDUCAUSE. Dibell, Julian (2006): Play Money. New York: Basic Books. Etzioni, Amatai (1961): A Comparative Analysis of Complex Organizations – On Power, Involvement, and Their Correlates. New York. Fischer, Oliver (2005): Computervermittelte Kommunikation – Theorien und organisationsbezogene Anwendungen. Köln: Pabst Science. Game Research (2002a): Online Gaming Habits, White Paper. Dänemark. Game Research (2002b): Pro Gamers In-depth, White Paper. Dänemark.
224
Jörg Müller-Lietzkow
Gibson, David/Aldrich, Clark/Prensky, Marc (2007): Games and Simulations in Online Learning – Research and Development Frameworks. Hershey: INFOSCI. Herz, J. C. (2002): Gaming the System: What Higher Education Can Learn from Multiplayer Online Worlds. In: Devlin et al. (Hrsg.) (2002): 169-191. Holtz-Bacha, Christina/Kutsch, Arnulf (Hrsg.) (2002): Schlüsselwerke für die Kommunikationswissenschaft. Wiesbaden: Westdeutscher Verlag. Jansz, Jeroen/Martens, Lonneke (2005): Gaming at a LAN event: the social context of playing video games. In: New Media & Society 7.3. 333-355. Jenkins, Henry (2007): Convergence Culture – Where Old and New Media collide. New York: New York University Press. Johnson, Steven (2006): Die neue Intelligenz. Warum wir durch Computerspiele und TV klüger werden. Berlin: KiWi. Juul, Jesper (2005): half-real – Video Games between Real Rules and Fictional Worlds. Cambridge: MIT Press. Kerr, Aphra (2006): The Business and Culture of Digital Games. London: SAGE. Kraam-Aulenbach, Nadine (2002): Interaktives Problemlösendes Denken im vernetzten Computerspiel, Dissertation. Wuppertal. Ladas, Manuel (2002): Brutale Spiele(r)? – Wirkung und Nutzung von Gewalt in Computerspielen. Frankfurt a. M.: Peter Lang. Lipnack, Jessica/Stamps, Jeffrey (1998): Virtuelle Teams – Projekte ohne Grenzen. Wien/ Frankfurt: Überreuter. Malone, Thomas W./Laubacher, Ralph J. (1999): Vernetzt, klein und flexible – die Firma des 21. Jahrhunderts. In: Harvard Business Manager 21.2. 28-36. Mendelsohn, Harold (1966): Mass Entertainment. New Haven: College and University Press. Mowshowitz, Abbe (2002): Virtual Organization – Toward a Theory of Societal Transformation, Stimulated by Information Technology. Westport, CT: Quorum Books. Müller-Lietzkow, Jörg (2003): Virtualisierungsstrategien in klassischen Industrien – State-of-the-art in Zeiten des Hyperwettbewerbs. Hamburg: Dr. Kovác. Müller-Lietzkow, Jörg (2006a): Leben in medialen Welten – eSport als Leistungs- und Lernfeld. In: merz Wissenschaft 50.4. 28-33. Müller-Lietzkow, Jörg (2006b): Sport im Jahr 2050: E-Sport! Oder: Ist E-Sport Sport? In: merz Wissenschaft 50.6. 102-112. Müller-Lietzkow, Jörg/Bouncken, Ricarda B./Seufert, Wolfgang (2006): Gegenwart und Zukunft der Computer- und Videospielindustrie in Deutschland. Dornach bei München: Entertainment Media. Nilles, Jack M./Carlson, F. R./Gray, P./Hanneman, G. J. (1976): The Telecommunications - Transportation Trade off. New York: Wiley & Sons. O'Hara-Devereaux, Mary/Johansen, Robert (1994): Global Work – Bridging Distance, Culture and Time. San Francisco, CA: Wiley.
Von der Gaming zur Working Community
225
Prensky, Marc (2006): "Don't Bother Me Mom – I'm Learning!". St. Paul: Paragon House. Reichwald, Ralf/Möslein, Kathrin/Sachenbacher, Hans/Englberger, Hermann (2000): Telekooperation – Verteilte Arbeits- und Organisationsformen, 2. Auflage. Berlin/ Heidelberg: Springer. Rüsch, Tilmann (2000): Entfaltung des Leistungspotenzials von virtuellen Unternehmen – Einsatzbedingungen und Strategien zur Prävention von Schnittstellenproblemen. München: VVF. Schliee, Marcel (2007): Nutzungsforschung eSport: Motive der wettbewerbsorientierten Nutzung von Computer- und Videospielen, Magisterarbeit. In: e-Journal Gamesscience.de (in Vorbereitung). Schoder, R./Axelsson, A.-S. (Hrsg.) (2006): Avatars at Work and Play: Collaboration and Interaction in Shared Virtual Environments (Computer Supported Cooperative Work). Berlin und andere. Schuler, Helga/Henn, Harald (1999): Call Center – der neue Dienst am Kunden. In: Harvard Business Manager 21.3. 90-102. Sieber, Pascal (1998): Virtuelle Unternehmen in der IT-Branche – Die Wechselwirkung zwischen Internet-Nutzung, Strategie und Organisation. Bern/Stuttgart/Wien: Haupt. Taylor, T. L. (2006): Play between Worlds – Exploring Online Game Culture. Cambridge: MIT Press. Wagner, Michael G. (2006a): On the scientific relevance of eSports. Proceedings of the 2006 International Conference on Computer Game Development. Las Vegas, NV. Wagner, Michael G. (2006b): Virtueller Wettbewerb. In: merz Wissenschaft 3. 43-46. Wesener, Stefan (2004): Spielen in virtuellen Welten – Eine Untersuchung von Transferprozessen in Bildschirmspielen. Wiesbaden: Verlag für Sozialwissenschaft. Williams, Dimitri (2004): Trouble in Tiver City: The social life of video games, dissertation. Michigan. Yee, Nick (2003-2006): Daedalus-Projekt - 19 Ausgaben als PDF-Dokumente. Online: http://www.nickyee.com/daedalus/ (abgerufen am: 01.03.2007). Yee, Nick (2006): The Psychology of Massiveley Multi-User Online Role-Playing Games: Motivations, Emotional Investment, Relationships and Problematic Usage. In: Schoder/Axelsson (Hrsg.) (2006): 187-208. Zimbardo, Philip G. (1988): Psychology and Life, 12. Aufl. Glenview, Illinois: Scott Foresman & Company.
Onlinekommunikation aus politischer Sicht
Innovation oder Konvergenz im Online-Wahlkampf? Deutsche Partei-Websites zu den Bundestagswahlen 2002 und 2005 Eva Johanna Schweitzer
Innovation vs. Konvergenz: Paradigmen im Online-Wahlkampf In den vergangenen zehn Jahren haben sich empirische Analysen von Parteiund Kandidaten-Websites zu einem aufstrebenden Feld der kommunikationswissenschaftlichen Wahlforschung entwickelt. Im Mittelpunkt des Erkenntnisinteresses steht dabei die Frage, ob die Politikvermittlung im Internet unter den spezifischen Präsentationsmerkmalen des Mediums (Aktualität, Interaktivität, Hypertextualität, Multimedialität, Speicherkapazität) neuen Gesetzmäßigkeiten folgt oder umgekehrt bisherige Muster der Kampagnenführung aus dem OfflineBereich widerspiegelt (vgl. zuletzt Xenos/Foot 2005). Zu dieser Problematik lassen sich in der Fachliteratur nunmehr zwei idealtypische Positionen unterscheiden: Anhänger der sog. Innovationsthese gehen davon aus, dass Parteien und Kandidaten als strategisch handelnde Akteure eine weitgehende Integration der Online-Kommunikation in ihre Wahlkampfplanung leisten und dabei die medienspezifischen Möglichkeiten des World Wide Web (u.a. direkte Wähleransprache, Online-Fundraising, E-Volunteering) umfassend ausschöpfen (vgl. z.B. Rash 1997). Jene Annahme gründet auf der Überlegung, dass die stetig wachsende Zahl an Internetnutzern, der zunehmende Konkurrenzdruck unter alternativen Anbietern und die logistischen Vorzüge des Netzwahlkampfes entscheidende Neuerungsanreize darstellen, um die Beschränkungen der OfflineKampagne durch ein professionelles e-campaigning zu kompensieren. Hiermit verbunden ist zudem die demokratietheoretische Hoffnung, dass die Etablierung der computervermittelten politischen Kommunikation zu einer größeren Chancengleichheit zwischen einflussreichen und einflussarmen bzw. finanzstarken und finanzschwachen Akteuren führt, die Responsivität der politischen Elite gegenüber der Öffentlichkeit und Wählerschaft erhöht und ebenso zu einer stärkeren Sachorientierung des Wahlkampfes beiträgt, da die Internetkampagne nicht mehr den journalistischen Aufmerksamkeits- und Selektionsregeln unterliegt.
230
Eva Johanna Schweitzer
Dieser optimistischen Einschätzung widersprechen jedoch umgekehrt Anhänger der sog. Konvergenz- oder Normalisierungsthese (vgl. z.B. Margolis/Resnick 2000). Sie vertreten die Ansicht, dass Parteien und Kandidaten die medienspezifischen Möglichkeiten der computervermittelten Kommunikation weitgehend ungenutzt lassen und stattdessen in der Übertragung bisheriger Kampagnenprinzipien auf das Internet einer Angleichung von Online- und Offline-Wahlkampf Vortrieb leisten. Jener Vermutung liegt die Argumentation zugrunde, dass die Betreuung eines professionellen Webauftritts einen erheblichen finanziellen und personellen Zusatzaufwand bedeutet, der angesichts der unverändert geringen Reichweiten der politischen Internetangebote gerade für kleinere Gruppierungen kaum gerechtfertigt erscheint. Darüber hinaus glichen sich Online- und Offline-Wahlkämpfe sowohl in der politischen Zielsetzung als auch im gesellschaftlichen Kontext ihrer praktischen Durchführung, so dass Parallelen in der beiderseitigen Ausgestaltung zu erwarten seien, die sich aus den übergeordneten Rahmenbedingungen der modernen Politikvermittlung ergeben. In der Konsequenz wären daher vor allem demokratietheoretische Befürchtungen an den Online-Wahlkampf zu richten, dergestalt, dass existierende Macht- und Statusunterschiede im Internet fortbestünden, staatsbürgerliche Vereinigungen weiterhin einer unidirektionalen Top-Down-Kommunikation zwischen Organisationsspitze und Mitgliederbasis bzw. Öffentlichkeit verhaftet blieben und die Diskreditierung des politischen Gegners auch im World Wide Web die argumentative Auseinandersetzung der Kontrahenten bestimme. Zur empirischen Überprüfung dieser Thesen greift die Forschung nun auf quantitative Inhalts- und Strukturanalysen zurück, die Partei- resp. KandidatenWebsites hinsichtlich ihrer formalen Konzeption und ihrer thematischen Ausrichtung untersuchen und klassischen Kampagnenformaten gegenüberstellen (vgl. im Überblick Gibson 2004). Die Aussagekraft jener Studien wird jedoch zumeist durch drei methodische Defizite erheblich eingeschränkt: Erstens konzentriert sich die Mehrzahl der einschlägigen Erhebungen infolge der amerikanischen Forschungsdominanz primär auf Kandidaten- anstelle von ParteiWebsites. Eine gesicherte Verallgemeinerung der erhaltenen Ergebnisse auf Wahlsysteme mit starker verfassungsrechtlicher Stellung der politischen Organisationen ist hierdurch nur bedingt möglich. Zweitens existieren bislang kaum kombinierte Inhalts- und Strukturanalysen, die die diskursive Schwerpunktsetzung der Internetkampagnen ebenso berücksichtigen wie deren formale Gestaltung. Die meisten Untersuchungen betrachten vielmehr selektiv nur eine der beiden Analysedimensionen – zumeist die Strukturebene des Webauftritts – und verkürzen damit den Geltungsbereich der Studie in empfindlicher Weise. Drittens liegen gegenwärtig kaum Längsschnitterhebungen vor, die den OnlineWahlkampf über mehrere Messzeitpunkte hinweg beobachten, um so Auf-
Innovation oder Konvergenz im Online-Wahlkampf?
231
schluss darüber gewinnen zu können, ob Innovation bzw. Konvergenz punktuelle Zustände oder übergreifende Entwicklungsprozesse der Webkampagne darstellen. In der Frage, welches Grundparadigma damit am ehesten Gültigkeit für die computervermittelte politische Kommunikation besitzt, lässt sich auf der Basis des jetzigen Wissensstandes folglich kaum eine eindeutige Entscheidung treffen. Das Ziel der vorliegenden Studie ist es daher, den Limitationen der bisherigen Forschung durch eine kombinierte Inhalts- und Strukturanalyse nationaler Partei-Websites zu den Bundestagswahlen 2002 und 2005 zu begegnen, die die genannten Thesen für den deutschen Online-Wahlkampf anhand eines Längsschnittvergleichs überprüft. Hierzu werden aufbauend auf den wenigen publizierten Longitudinalbefunden zum internationalen e-campaigning sechs Vorannahmen zur erwarteten Entwicklung der deutschen Internetkampagnen formuliert (Abschnitt 2), die den weiteren Aufbau der Untersuchung (Abschnitt 3) und die nachfolgende Ergebnisdiskussion (Abschnitt 4 und 5) leiten. Ein bilanzierendes Fazit (Abschnitt 6) fasst anschließend die wesentlichen Erkenntnisse der Studie zusammen und setzt diese zur übergeordneten Fragestellung in Beziehung.
Innovations- und Konvergenzprozesse in empirischen Längsschnittstudien Zur diachronen Beschreibung von Innovations- und Konvergenzprozessen im Online-Wahlkampf liegen nach Kenntnis der Autorin nunmehr fünf Längsschnittstudien vor (Greer/LaPointe 2004; Kamarck 2002; Sadow/James 2000; Schneider/Foot 2006; Williams/Gulati 2006). Diese wurden ausschließlich in den USA durchgeführt und setzen sich daher primär mit KandidatenHomepages in Gouverneurs-, Kongress- oder Präsidentschaftswahlen auseinander. Im Zentrum ihres Vorgehens steht dabei jeweils eine zeitvergleichende Struktur- und/oder Inhaltsanalyse der betrachteten Websites für zwei Wahlperioden, die die Entwicklung der Internetkampagnen anhand von sechs Indikatoren nachzeichnet. Auf der Strukturebene beinhaltet dies (a) Art und Umfang der dargebotenen Informationen zur politischen Organisation, den spezifischen Kandidaten und Themen; (b) das Ausmaß der zugelassenen Interaktivität, gemessen an der Existenz oder Nicht-Existenz verschiedener dialogorientierter Homepage-Optionen wie Diskussionsforen, Chats oder Weblogs; sowie schließlich (c) den technisch realisierten Grad der Serviceorientierung, ermittelt über die Einbindung unterschiedlicher navigationsbezogener oder multimedialer Elemente.
232
Eva Johanna Schweitzer
Die Inhaltsanalyse berücksichtigt darüber hinaus die argumentative Ausrichtung der Internetauftritte, die über eine Codierung der täglich erscheinenden Online-Nachrichten auf der jeweiligen Startseite erhoben wird. Als Entwicklungsindikatoren auf Aussagen- und Beitragsebene dienen hier in Anlehnung an klassische Studien zu Formaten des Offline-Wahlkampfes (a) der Umfang der thematischen Kampagnenzentrierung (Metakommunikation), (b) das Ausmaß der Kandidatenorientierung (Personalisierung) sowie (c) der Anteil an diskreditierenden Äußerungen über den politischen Gegner (Negative Campaigning). Gemäß der Konvergenzthese sollten dabei die Indikatoren der Strukturebene eine schwache (Präsenz von weniger als der Hälfte aller verzeichneten WebsiteElemente in den drei genannten Kategorien), die Indikatoren der Inhaltsebene hingegen eine starke Ausprägung (Präsenz in mehr als der Hälfte aller Beiträge bzw. Aussagen) aufweisen, wobei die angeführte Grenzwertkonvention von 50% als ein äußerst konservatives Maß gelten kann. Begründet wird die angenommene Indikatorenausprägung mit der postulierten Angleichung des Onlineund Offline-Wahlkampfes, die zu einer erwarteten Vernachlässigung der medienspezifischen Präsentationsqualitäten des Internets (Informationsdichte, Interaktivität und Serviceorientierung) sowie zu einer parallelen Adaption traditioneller Kommunikationsmuster aus dem webexternen Politikbereich (Metakommunikation, Personalisierung, Negative Campaigning) führen sollte. Für die Innovationsthese wird demgegenüber eine umgekehrte Verteilung der genannten Indikatoren vermutet, dergestalt, dass die Merkmale der Strukturebene nun eine starke (Präsenz von mehr als der Hälfte aller verzeichneten Website-Elemente in den drei Kategorien), die Kennzeichen der Inhaltsebene hingegen eine schwache Ausprägung (Präsenz in weniger als der Hälfte aller Beiträge bzw. Aussagen) erfahren. Dies spräche für die theoretisch verfochtene Position, dass die Ausrichtung des Internetwahlkampfes an den besonderen Vermittlungseigenschaften der Online-Kommunikation auch auf der Inhaltsstufe eine Ablösung von klassischen Offline-Strategien bedingt. In den Längsschnittstudien zum amerikanischen e-campaigning kann diese Annahme weitestgehend bestätigt werden: Die untersuchten KandidatenWebsites auf regionaler und nationaler Ebene des Wahlsystems ließen in der formalen Gestaltung eine Steigerung an Informationsdichte, Interaktivität und Serviceorientierung sowie in der inhaltlichen Dimension eine Abnahme der Metakommunikation zugunsten einer höheren Sachthemenorientierung und einen gering verbleibenden Anteil an Personalisierung erkennen. Allein mit Blick auf das Ausmaß des Negative Campaigning wiesen die genannten Studien mehrheitlich einen Konvergenzprozess aus, der sich in einem verstärkten Angriffswahlkampf gegenüber den politischen Kontrahenten niederschlug.
Innovation oder Konvergenz im Online-Wahlkampf?
233
Legt man diese Befunde nun als Orientierungsmaßstab auch der Analyse deutscher Partei-Websites zugrunde, so wäre hier zunächst eine analoge Innovationsbewegung des Online-Wahlkampfes zu vermuten. Jene sollte sich im Zeitverlauf in einer Zunahme an Informationsdichte (H 1), Interaktivität (H 2) und Serviceorientierung (H 3) sowie in einer Abnahme an Metakommunikation (H 4) und Personalisierung (H 5) konkretisieren. Für den Indikator des Negative Campaigning ist hingegen eine inhaltliche Angleichung an den OfflineWahlkampf zu erwarten, die sich in den Partei-Nachrichten in einem konstant hohen oder steigenden Anteil an diskreditierenden Äußerungen manifestiert (H 6). Ob und inwieweit diese Annahmen dabei im Einzelnen zutreffen, soll im Folgenden anhand einer zeitvergleichenden Inhalts- und Strukturanalyse überprüft werden.
Anlage der Untersuchung Die vorliegende Untersuchung knüpft an eine Pilotstudie aus dem Jahr 2002 an, die die Homepages von SPD, CDU, Bündnis 90/Die Grünen und FDP im Rahmen des damaligen Bundestagswahlkampfes analysierte (vgl. hierzu auch Schweitzer 2006). Zum beabsichtigten Längsschnittvergleich wurde die methodische Vorgehensweise jener Ersterhebung für die Neuwahl 2005 übernommen und dort auf alle Internetpräsenzen der antretenden Parteien (N=32) ausgedehnt. Im Detail beinhaltete dies sowohl eine formale als auch eine inhaltliche Auswertung der in den letzten vier Wochen vor dem Wahltermin abgespeicherten Homepages. Die Strukturanalyse überprüfte in diesem Zusammenhang insgesamt 69 Website-Elemente in den drei Funktionsgruppen Information, Interaktivität und Serviceorientierung auf ihre An- bzw. Abwesenheit.1 Für jede Kategorie wurde hierbei ein parteispezifischer Indexwert zwischen 0 (keine Ausprägung) und 1 (vollständige Ausprägung) berechnet, der aus der Division der in den einzelnen Gruppen codierten und den insgesamt dort verzeichneten HomepageOptionen resultierte. Jener Quotient wurde mit den korrespondierenden Maßzahlen aus der Bundestagswahl 2002 verglichen. Die Inhaltsanalyse erfasste demgegenüber die täglich erscheinenden Online-Nachrichten auf den jeweiligen Startseiten der Parlamentsparteien. Diese wurden in den letzten vier Wochen vor dem Wahltermin täglich ausgedruckt, archiviert und schließlich einer manuellen 1
Die separate Aufschlüsselung der berücksichtigten Website-Merkmale muss an dieser Stelle aus Platzgründen entfallen. Eine entsprechende Übersicht kann jedoch von der Autorin bezogen werden.
234
Eva Johanna Schweitzer
Codierung unterzogen.2 Im Mittelpunkt der Erhebung standen hier neben den formalen Kennzeichen der Beiträge (wie z.B. Textlänge, Autor, Stilform) vor allem ihre jeweilige Themensetzung sowie das Aussagen- und Urhebergefüge.
Befunde der Strukturanalyse Um die formale Entwicklung der Internetkampagnen in den Bundestagswahlen 2002 und 2005 leichter veranschaulichen zu können, wurde für die in beiden Jahren betrachteten Partei-Homepages (SPD, CDU, Bündnis 90/Die Grünen und FDP) jeweils der Saldo der Indexwerte in den Kategorien Information (H 1), Interaktivität (H 2) und Serviceorientierung (H 3) gebildet (vgl. Abb. 1). In der Gruppe der aufgeführten Bundestagsparteien zeigte sich dabei insgesamt eine mit den Ausgangsvermutungen konforme Steigerung der spezifischen WebsiteLeistung: Die im Parlament vertretenen Fraktionen bauten zur Bundestagswahl 2005 insbesondere ihr Angebot an Hintergrundmaterialien zum Wahlverfahren, zur Partei, den im Mittelpunkt stehenden Kampagnenthemen und ihren Kandidaten aus, ergänzten interaktive Optionen in der Form von Online-Umfragen oder Weblogs und integrierten verstärkt multimediale Elemente, wie z.B. Audio- oder Videostreams im Rahmen von Podcasts. Im Zeitverlauf entsprach diese Veränderung damit auf der formalen Ebene den in den USA bereits beobachteten Innovationsprozessen des Online-Wahlkampfes. Jene Anpassungsbewegung erfolgte allerdings nicht gleichförmig. Im unmittelbaren Parteivergleich wurden vielmehr individuelle Unterschiede im Ausmaß und in der Intensität der konzeptionellen Weiterentwicklung sichtbar, die sich vermutlich auf die Kürze der Kampagnenplanung im Vorfeld der Neuwahl 2005 sowie auf grundlegende programmatische Unterschiede in der strategischen Anlage zurückführen lassen. Darüber hinaus offenbart der Blick auf die absoluten Indexwerte des Jahres 2005 eine erhebliche Professionalitätskluft zwischen großen und kleinen Parteien: Während die im Bundestag vertretenen Gruppierungen meist mehr als die Hälfte aller verzeichneten Homepage-Elemente in den drei genannten Funktionsklassen aufwiesen, realisierten die politischen Vereinigungen außerhalb des Parlaments im Durchschnitt kaum mehr als ein Drittel aller Standardoptionen. Da die Indexwerte der Bundestagsfraktionen zudem im Untersuchungszeitraum deutlich anstiegen, ist ferner davon auszugehen, dass die bestehende Kluft zwi2
Zur Berechnung der Intracoderreliabilität umfasste die Inhaltsanalyse die wiederholte Codierung einer fünfprozentigen Zufallsstichprobe des Untersuchungsmaterials. Der entsprechende Reliabilitätskoeffizient beträgt .89 nach Holsti.
235
Innovation oder Konvergenz im Online-Wahlkampf?
schen großen und kleinen Parteien langfristig eine scherenartige Vergrößerung anstelle einer graduellen Einebnung erfuhr. Dies entspricht den demokratietheoretischen Befürchtungen der Konvergenzthese. Abb. 1:
Saldo der Strukturwerte für die Bundestagswahlen 2002 und 2005 0,30
Saldo
0,20 0,10
k. A.
k. A.
k. A.
0,00 -0,10 -0,20
Absolute Werte für 2005
SPD
CDU
CSU
Grüne
FDP
Linke
Andere (Mw.; N=26)
Gesamt
Information
0,81
0,81
0,76
0,76
0,81
0,90
0,33
0,74
Interaktivität
0,38
0,56
0,44
0,50
0,75
0,38
0,13
0,45
Service
0,69
0,67
0,67
0,81
0,84
0,67
0,30
0,66
Befunde der Inhaltsanalyse Im letzten Monat vor der Neuwahl 2005 wurden insgesamt 451 OnlineNachrichten codiert. Diese setzten sich gemäß der ersten inhaltlichen Grundhypothese (H 4) bei allen Parlamentsparteien und in allen Wochen des Untersuchungszeitraums mehrheitlich (59,6%) mit dem Wahlkampf, insbesondere mit dem TV-Duell, der Kampagnenplanung und den öffentlichen Auftritten der Spitzenkandidaten auseinander, während sachpolitische Themen aus den Bereichen Wirtschaft, Finanzen oder Bildung durchgängig in den Hintergrund traten. Im Vergleich zur Bundestagswahl 2002 stieg dabei der Anteil an Metakommunikation nochmals um 10% von einst 49% an, so dass hier eine deutliche Konvergenzbewegung des e-campaigning zu verzeichnen ist (vgl. Abb. 2). Gleiches gilt jedoch nicht für den Bereich der Personalisierung (H 5): Sowohl in der Bundestagswahl 2002 als auch in der Bundestagswahl 2005 befassten sich nur rund 3% aller Beiträge mit der Erscheinung oder den Charaktereigenschaften der Spitzenkandidaten. Diese wurden darüber hinaus in der Neuwahl 2005 nur
236
Eva Johanna Schweitzer
in annähernd jeder fünften Äußerung (18,9%) als Aussagengegenstand aufgegriffen und in weniger als einem Drittel (28,3%) aller 1289 codierten Stellungnahmen als Urheber selbst zitiert. Im Vergleich zur Bundestagswahl 2002 konnte damit weder auf der Themen- noch auf der Aussagen- oder Urheberebene ein Trend zur Personalisierung nachgewiesen werden. Abb. 2:
Inhaltliche Ausrichtung des Online-Wahlkampfes
Metakom munikation Personalisierung auf Themenebene 2002 Personalisierung auf Aussagenebene
2005
Personalisierung auf Urheberebene Negative Cam paigning 0
20
40
60
80
100
Anteil in %
Die Internetkampagne konzentrierte sich stattdessen, wie schon drei Jahre zuvor, auf die von anderen Parteimitgliedern geführte kollektive Diskreditierung des politischen Gegners, wobei vor allem die wechselseitige Kritik von SPD und CDU/CSU im Vordergrund stand (vgl. im Detail Schweitzer 2006). Gemäß der letzten Forschungshypothese (H 6) blieb dabei der aussagenbezogene Gesamtanteil an Negative Campaigning im deutschen Online-Wahlkampf auf einem konstant hohen Niveau (jeweils 56,6%), auch wenn individuelle Unterschiede in der strategischen Ausrichtung zwischen den politischen Kontrahenten zutage traten (vgl. ebd.). Für die inhaltliche Dimension des e-campaigning lassen sich damit in der Zusammenschau nur zwei (H 5 und H 6) der drei Grundannahmen bestätigen.
Zusammenfassung und Fazit Innovation oder Konvergenz – welche dieser beiden Kernthesen kann nun für den deutschen Online-Wahlkampf Gültigkeit beanspruchen? Berücksichtigt man die teils widerstreitenden Befunde der Inhalts- und Strukturerhebung für die Gruppe der Parlaments- und Nicht-Parlamentsparteien so scheint eine Differen-
237
Innovation oder Konvergenz im Online-Wahlkampf?
zierung der Schlussfolgerungen bezüglich der gewählten Analysedimension und der jeweiligen Akteurskategorie notwendig (vgl. Abb. 3): Abb. 3: Interpretationsmatrix Akteursdimension
Parlamentsparteien
Innovation
Konvergenz
NichtParlamentsparteien
Konvergenz
?
Strukturebene
Inhaltsebene
Analysedimension
Für die Bundestagsfraktionen liegt demnach im Zeitverlauf eine Innovationsbewegung auf der Strukturebene des Online-Wahlkampfes vor, die sich insgesamt in einer Zunahme der homepagespezifischen Informationsdichte (H 1), Interaktivität (H 2) und Serviceorientierung (H 3) manifestiert. Hinsichtlich der nicht im Parlament vertretenen Gruppierungen ist aufgrund der gering verbleibenden Strukturwerte hingegen eine Konvergenzbewegung in der formalen WebsiteGestaltung anzunehmen, die ferner eine anhaltende Professionalitätskluft zwischen großen und kleinen Parteien bedingt. Darüber hinaus lässt sich eine Angleichung an die Offline-Kampagne auch für die inhaltliche Dimension des parlamentarischen Internetwahlkampfes postulieren: Die untersuchten Online-Nachrichten auf den Startseiten der Bundestagsfraktionen wiesen hier zwar einen niedrigen Grad an Personalisierung auf der Themen-, Aussagen- und Urheberebene auf (H 5), waren jedoch umgekehrt durch eine deutliche Zunahme an Metakommunikation (H 4) und einen konstant hohen Anteil an Negative Campaigning (H 6) gekennzeichnet. Dies stimmt mit den theoretischen Überlegungen der Konvergenzthese weitestgehend überein. Allein für die Inhaltsebene der außerparlamentarischen Gruppierungen lässt sich zum jetzigen Zeitpunkt keine entsprechende Bilanzierung formulieren, da jener Analysebereich nicht in die vorliegende Untersuchung miteinbezogen werden konnte. Jenes Desiderat wäre in der weiteren Forschung ebenso aufzugreifen, wie die Frage, ob die skizzierte Differenzierung zwischen Innovation und Kon-
238
Eva Johanna Schweitzer
vergenz auch für andere Formate der computervermittelten Wahlkampfkommunikation, z.B. für Kandidaten- oder Kampagnen-Websites, zu beobachten ist.
Literatur Gibson, Rachel K. (2004): Web Campaigning from a Global Perspective. In: Asia Pacific Review 11.1. 95-126. Gibson, Rachel K./Römmele, Andrea/Ward, Stephen J. (Hrsg.) (2004): Electronic Democracy. Mobilisation, Organisation and Participation via new ICTs. London: Routledge. Greer, Jennifer D./LaPointe, Mark E. (2004): Cyber-Campaigning Grows Up. A Comparative Content Analysis of Websites for US Senate and Gubernatorial Races, 1998-2000. In: Gibson et al. (Hrsg.) (2004): 116-132. Holtz-Bacha, Christina (Hrsg.) (2006): Die Massenmedien im Wahlkampf. Die Bundestagswahl 2005. Wiesbaden: VS Verlag für Sozialwissenschaften. Kamarck, Elaine C. (2002): Political Campaigning on the Internet: Business as Usual? In: Kamarck/Nye (Hrsg.) (2002): 81-103. Kamarck, Elaine C./Nye, Joseph S. (Hrsg.) (2002): Governance.com: Democracy in the Information Age. Washington, DC: Brookings Institution Press. Margolis, Michael/Resnick, David (2000): Politics as Usual. The Cyberspace "Revolution". Thousand Oaks, CA: Sage Publications. Rash, Wayne (1997): Politics on the Nets. Wiring the Political Process. New York: W. H. Freeman. Sadow, Jeffrey D./James, Karen (2000): A Theory of Internet Political Campaigning: A Revolution That Isn't, Yet. Paper presented at the Annual Meeting of the Southwestern Political Science Association. Galveston, TX, USA. Schneider, Steven M./Foot, Kirsten A. (2006): Web Campaigning by U.S. Presidential Primary Candidates in 2000 and 2004. In: Williams/Tedesco (Hrsg.) (2006): 21-36. Schweitzer, Eva J. (2006): Professionalisierung im Online-Wahlkampf? Ein Längsschnittvergleich deutscher Partei-Websites zu den Bundestagswahlen 2002 und 2005. In: Holtz-Bacha (Hrsg.) (2006): 183-212. Williams, Andrew/Tedesco, John C. (Hrsg.) (2006): The Internet Election. Perspectives on the Web in Campaign 2004. Lanham, MD: Rowman & Littlefield. Williams, Christine B./Gulati, Girish J. (2006): The Evolutionary Development of Campaign Web Sites. The U.S. Senate, 2000-2004. Paper prepared for delivery at the Annual Meeting of the American Political Science Association. Philadelphia, PA, USA. Xenos, Michael A./Foot, Kirsten A. (2005): Politics as Usual, or Politics Unusual? Position Taking and Dialogue on Campaign Websites in the 2002 U.S. Elections. In: Journal of Communication 55.1. 169-185.
Leben in verschiedenen Welten? Themenagenden von Offlinern und Onlinern im Vergleich Martin Emmer, Jens Wolling
Einleitung Eine der wesentlichen Funktionen der Medien für moderne demokratische Gesellschaften ist die Herstellung von Öffentlichkeit für gesellschaftlich relevante Themen und Probleme. Die mediale Behandlung der verschiedenen Issues ist deswegen wichtig, weil sich die Politik vor allem dann eines Themas annimmt, wenn dieses ein Mindestmaß an öffentlicher Aufmerksamkeit erfahren hat. Zum anderen führt die mediale Beachtung dazu, dass die hervorgehobenen Themen zum Gesprächsgegenstand in der Gesellschaft werden. In diesem Zusammenhang ist die massenmediale Berichterstattung insbesondere deswegen von Bedeutung, weil sich die klassischen Massenmedien an einem überschaubaren Set von Relevanzindikatoren (Nachrichtenfaktoren) orientieren, wodurch eine relativ einheitliche Themenagenda entsteht. Diese einheitliche Medienthemenagenda ist eine Voraussetzung dafür, dass sich die Mitglieder der Gesellschaft mit den gleichen Problemen auseinandersetzen und sich darüber untereinander austauschen können. Das daraus entstehende gemeinsame Bewusstsein für die soziale Realität kann zur gesellschaftlichen Integration beitragen. Im vorliegenden Beitrag soll der Frage nachgegangen werden, ob die Thematisierungsfunktion der Massenmedien durch die wachsende Bedeutung des Internets als politisches Informationsmedium geschwächt wird. Zunächst wird theoretisch erläutert, warum die Nutzung des Internets als Informationsmedium diese Wirkungen haben könnte und welche Forschungsbefunde dazu bereits vorliegen. Anschließend werden dann die Ergebnisse einer empirischen Untersuchung vorgestellt, in der geprüft wurde, ob sich die Themenagenden von Onlinern und Offlinern voneinander unterscheiden.
Theoretischer Hintergrund: Fragmentierung und Agenda Setting Bereits seit einigen Jahren wird in der Kommunikationswissenschaft die Frage diskutiert und untersucht, ob das Internet die Fragmentierung der Mediennut-
240
Martin Emmer, Jens Wolling
zung befördert und auf diese Weise zur Desintegration der Gesellschaft beiträgt (vgl. Holtz-Bacha 1998). Angesichts der enormen Ausweitung und Ausdifferenzierung des Angebots an Informationsmöglichkeiten im Internet, das die Entwicklungen im Bereich des dualen Fernsehsystems und das Wachstum des Zeitschriftenmarktes bei Weitem in den Schatten stellt, erscheint eine solche Entwicklung durchaus plausibel. Es wäre demnach zu erwarten, dass sich die Nutzer, die sich von ihren Voreinstellungen und Kommunikationsbedürfnissen bei der Angebotsauswahl leiten lassen, auf immer mehr Angebote verstreuen. Eine solche Fragmentierung der Mediennutzung des Publikums könnte mittelfristig Auswirkungen auf das zivilgesellschaftliche und politische Engagement haben. Diese pessimistische These wird insbesondere in den USA seit einiger Zeit intensiv diskutiert (vgl. Putnam 2000). Empirische Ergebnisse, die diese Vermutung stützen, findet man jedoch kaum. Allerdings gibt es auch für die Gegenthese – einer stimulierenden Wirkung des Internets auf das Engagement in Politik und Gesellschaft – relativ wenige Belege (Emmer 2005; Emmer/Vowe 2004). Für eine angemessene Diskussion der These muss zudem unterschieden werden, auf welcher gesellschaftlichen Ebene Desintegrationstendenzen zu vermuten sind: Wird mit negativen Tendenzen hinsichtlich des Zusammenhalts der Familie, der Nachbarschaft oder des Freundeskreises gerechnet (Mikroebene) oder beziehen sich die Befürchtungen auf die Einbindung der Bürger in Vereine und Organisationen (Mesoebene), oder geht es um das Verhältnis der Bürger zu Staat und Gesellschaft (Makroebene). Je nachdem welche Ebene analysiert wird zeigen sich unterschiedliche Effekte. Zudem sollte bei der Diskussion auch konzeptionell präzise zwischen Prozessen gesellschaftlicher Ausdifferenzierung, die zur Pluralität führen, und sozialer Desintegration unterschieden werden. Auch wenn sich die verschiedenen Mitglieder einer Gesellschaft hinsichtlich ihrer Themenpräferenzen, Ansichten und Handlungen deutlich unterscheiden (Pluralität), bedeutet dies keinesfalls, dass sie sich überwiegend von der Gesellschaft abwenden (Desintegration; Wolling 2001). Neben der Vermutung, dass sich die Ausweitung und Ausdifferenzierung der Kommunikationsangebote im Internet auf die Bereitschaft zum gesellschaftlichen Engagement auswirkt, erscheint insbesondere die These plausibel, dass die zentrale Funktion des Medienjournalismus – die Herstellung und Bereitstellung von Themen für den gesellschaftlichen Diskurs (Rühl 1980: 323) – durch das Internet beeinflusst wird. Die Multioptionalität der Internetkommunikation könnte sich dahingehend auswirken, dass wesentliche Bedingungen, unter denen die Massenkommunikation ihre Wirksamkeit entfaltet, insbesondere Kumulation, Konsonanz und Öffentlichkeitseffekt (Noelle-Neumann 1997), an Bedeutung verlieren. Dies wiederum dürfte Auswirkungen auf die Themen und Ge-
Leben in verschiedenen Welten?
241
genstände haben, die Menschen für wichtig halten und denen sie sich bei ihrem gesellschaftlichen Engagement widmen. Für den gesellschaftlichen Zusammenhalt in einer demokratischen Gesellschaft ist es notwendig, dass eine Verständigung darüber herbeigeführt wird, welche Probleme und Themen in der Öffentlichkeit diskutiert und vom politischen System bearbeitet werden sollen. Bei diesem Verständigungsprozess spielen die Medien eine zentrale Bedeutung. Indem sie aus der Vielfalt der möglichen Themen einige auswählen und diese in der Berichterstattung verstärkt beachten und betonen, fokussieren sie die gesellschaftliche Aufmerksamkeit und stellen sicher, dass ein gesamtgesellschaftlicher Diskurs über diese Aspekte stattfindet (Eichhorn 1996; Erbring et al. 1980; McCombs/Shaw 1972; Rössler 1997). Aufgrund der Vielzahl unterschiedlicher Informationsangebote im Internet ist dort mit einer größeren Vielfalt in der Themensetzung zu rechnen als bei den herkömmlichen Medienangeboten. Wenn nun eine zunehmende Verlagerung der politischen Mediennutzung auf solche inhaltlich heterogenen Onlineangebote stattfindet, dann könnte die Macht der etablierten Medien, welche die politische Agenda in einer Gesellschaft zu prägen, nach und nach in Frage gestellt werden. In einzelnen Publikumssegmenten könnten sich unterschiedliche Themenprioritäten entwickeln und eine Einigung darüber, was für die Gesellschaft wichtig ist und womit sie sich dementsprechend zu befassen hat, wird schwieriger. Empirische Ergebnisse zur Nutzung der entsprechenden Onlineangebote scheinen allerdings gegen solche Vermutungen zu sprechen: Trotz der Angebotsvielfalt sind im Netz erhebliche Nutzungskonzentrationen zu beobachten: Die meisten Angebote bleiben weitgehend unbeachtet, während eine kleine Anzahl von Webseiten den Großteil des Traffics auf sich zieht (Loosen 2001). Aber nicht nur diese Nutzungstendenzen sprechen gegen eine Fragmentierung der Agenden. Auch in ersten Wirkungsstudien konnten die Annahmen nicht (vgl. Marr 2002) oder nur begrenzt bestätigen werden (vgl. Schönbach et al. 2005). Allerdings befindet sich die Adaption des Internets immer noch in einem sehr dynamischen Prozess: Die Zahl der Internetnutzer und die Intensität der Internetnutzung nehmen weiterhin zu, auch die Vielfalt der Angebotsformen wächst und unterliegt zudem einem ständigen Wandel. Als besonders relevant erscheint dabei die Tatsache, dass sich im Zuge der Diffusion des Internets neue Gruppen mit spezifischem, auch stark durch das Internet geprägtem Informations- und Kommunikationsverhalten herausbilden (vgl. Emmer et al. 2006), deren Relevanz in aggregierten Datendarstellungen häufig übersehen wird. Die Ergebnisse einer aktuellen Inhaltsanalyse von Quandt (2007) verdeutlichen zudem, dass sich die Themenauswahl bei Print- und Onlineausgabe selbst dann
242
Martin Emmer, Jens Wolling
beträchtlich unterscheidet, wenn sie vom gleichen Anbieter stammt. Auffällig ist vor allem die breitere Streuung auf verschiedene Themenkategorien bei den Onlinemedien. Aus diesen Gründen ist anzunehmen, dass bei denjenigen Personen, die sich besonders stark auf politische Informationen aus dem Internet verlassen, andere Themen auf der individuellen Agenda stehen als bei solchen, die sich vorwiegend über herkömmliche (Massen-)Medien informieren (Hypothese 1). Zu erwarten wäre entsprechend der Fragmentierungshypothese für die Gruppe derjenigen, die vorrangig Internetinformationsangebote nutzt, dass bei ihnen eine größere Vielfalt an Themen festzustellen ist (Hypothese 2). Darüber hinaus ist damit zu rechnen, dass diejenigen, die sich vorwiegend im Netz informieren, aufgrund der globalen Ausrichtung des Internets mehr internationale Themen und weniger lokale und regionale Themen auf ihrer Themenagenda haben (Hypothese 3).
Methode Basis der Analyse ist eine bundesweit repräsentative Befragung aus dem Jahr 2005, in der bei 1596 Personen neben den Mediennutzungsgewohnheiten (online und offline) auch weiterführende Aktivitäten politischer Kommunikation (Leserbriefe schreiben, Gespräche über Politik) erhoben wurden. Dabei wurden auch die thematischen Zusammenhänge, die für die befragten Personen bei diesen Kommunikationsaktivitäten jeweils im Mittelpunkt standen, erhoben. Basis der nachfolgenden Analysen ist die Frage, über welches politische Thema sich die Befragten zuletzt im interpersonalen Gespräch unterhalten haben. Im Unterschied zu den meisten Agenda-Setting-Studien wurde also nicht die abstrakte Wichtigkeit eines Themas ermittelt, sondern es wurde die Relevanz unmittelbarer erfasst, indem an die kommunikativen Aktivitäten der Befragten direkt angeknüpft wurde. Um die oben formulierten Hypothesen zu prüfen, wurden die Befragten in Gruppen eingeteilt. Grundlage hierfür war die Häufigkeit der Fernsehnachrichten-Nutzung, die Häufigkeit der Tageszeitungsnutzung sowie die Häufigkeit der Online-Informationssuche. Unterscheidet man die Personen dabei jeweils in Viel- und Wenignutzer, so lassen sie sich in vier Gruppen aufteilen: Personen, die alle Medienangebote häufig nutzen (Allesnutzer), Personen die alle Medienangebote wenig nutzen (Wenignutzer), Personen,
243
Leben in verschiedenen Welten?
die vor allem das Internet intensiv nutzen (Onliner) sowie Personen, die nur Fernsehnachrichten und Tageszeitung intensiv nutzen (Offliner).1 Tab. 1: Soziodemographisches Profil der Typen (in %) Wenignutzer n = 348 Geschlecht Weiblich Männlich Alter Durchschnittsalter 16 – 25 24 – 45 46 – 65 + 66 Einkommensgruppe Bis 1500 € 1500 – 3000 € Über 3000 € Schulabschluss Hauptschule + niedriger Realschule/POS Abitur und höher
Offliner n = 750
Allesnutzer n = 304
Onliner n = 194
59,3 40,7
55,2 44,8
32,6 67,4
36,7 63,3
41 Jahre 17,0 50,9 23,3 8,9
52 Jahre 4,9 33,6 39,1 22,4
42 Jahre 11,5 51,0 33,2 4,3
35 Jahre 21,1 64,4 14,4 0,0
23,9 48,3 27,8
10,2 49,0 40,7
2,8 33,9 63,3
14,3 46,3 39,4
23,4 40,9 33,4
25,4 39,0 35,5
9,9 22,8 64,4
4,1 25,6 67,2
Hinsichtlich der vorliegenden Forschungsfrage interessiert insbesondere die Gruppe der Onliner: Diese Gruppe ist mit 12 % des Samples die kleinste, sie versammelt mit Abstand die jüngsten Personen mit dem höchsten Bildungsgrad (Tabelle 1). Hinsichtlich Bildung, Geschlechtsverteilung (überwiegend männlich) und auch des Berufstätigkeitsprofils (vorwiegend im Angestelltenverhältnis; in der Tabelle nicht dokumentiert) ähnelt diese Gruppe derjenigen der Allesnutzer, die sich allerdings durch ein höheres Einkommen und ein höheres Alter auszeichnet. Auch die Offliner haben ein prägnantes Profil: Sie versam1
Es stand eine Reihe weiterer Variablen zur Verfügung, allerdings führten komplexere Clusteranalyse-Modelle nicht zu wesentlich anderen Gruppierungen der Befragten. Die Operationalisierungen der Variablen sind Online im Internet unter folgender URL einsehbar: www.politische-online-kommunikation.de.
244
Martin Emmer, Jens Wolling
melt die mit Abstand ältesten Personen (fast ein Drittel Rentner) mit mittlerem Bildungsstand und mittlerem Einkommen und sind stark mit Frauen besetzt. Die Wenignutzer ähneln im Hinblick auf Geschlecht und Bildung den Offlinern, sind aber deutlich jünger und verfügen über ein geringeres Einkommen. In dieser Gruppe findet sich auch der höchste Anteil von Arbeitern und Arbeitslosen. Im folgenden Abschnitt werden einige dieser Variablen als Faktoren, die möglicherweise die Wirkung der spezifischen Mediennutzung auf die Beurteilung der Themenwichtigkeit modifizieren, herangezogen.
Ergebnisse Um die erste der oben formulierten Hypothesen (Onliner haben andere Themen auf der Agenda) zu prüfen, müssen zunächst die von den Befragten genannten Themen in Kategorien zusammengefasst werden. Da von jeder befragten Person nur eine einzige Themennennung vorliegt, ist es nicht möglich, daraus individuelle Themenranglisten zu erstellen und zu vergleichen. Solche Ranglisten sind nur auf Aggregatebene der vier Gruppen möglich (Tabelle 2). Tab. 2: Rang 1 2 3 4 5
Rangliste der wichtigsten Themen Wenignutzer Arbeitmarktreform/Hartz IV Arbeitsmarktsituation Gesundheitspolitik Normen, Werte, Zeitgeschehen Weltpolitik/ Weltgeschehen
Offliner Arbeitsmarktreform/Hartz IV aktuelle deutsche Politik Bildungspolitik TsunamiKatastrophe Regional-/ Kommunalpolitik
Allesnutzer Arbeitsmarktreform/Hartz IV Arbeitsmarktsituation Gesundheitspolitik Regional-/ Kommunalpolitik Sozialpolitik (Rente, Familie)
Onliner Arbeitsmarktreform/Hartz IV Arbeitsmarktsituation Normen, Werte, Zeitgeschehen TsunamiKatastrophe Finanzpolitik
Es zeigt sich, dass zum Befragungszeitpunkt im Januar 2005 die Hartz-IVDebatte und die Arbeitsmarktsituation in allen vier Gruppen das mit Abstand dominierende Thema war (im Durchschnitt aller Gruppen nannte jeder dritte Befragte ein Gesprächsthema aus diesem Komplex). Auf den weiter hinten liegenden Rängen des politischen Themenspektrums sind dann jedoch einige Unterschiede festzustellen. Allerdings ist es hier sinnvoller, die Prozentwerte statt der Rangplätze zu vergleichen, da sich manche Ränge innerhalb der Gruppen nur noch im Nachkommabereich voneinander unterscheiden.
Leben in verschiedenen Welten?
245
Auch im Hinblick auf die dritte Hypothese (Onliner haben mehr internationale Themen) zeigen sich beim Vergleich der Rangreihen zunächst nur schwache Belege: Zwar spielt Regionalpolitik tatsächlich lediglich in den beiden Gruppen, die in stärkerem Maße herkömmliche Medien nutzen, eine nennenswerte Rolle – anderseits werden aber internationale Themen wie die TsunamiKatastrophe oder allgemein weltpolitische Themen nicht nur von den Onlinern, sondern auch von den Offlinern recht häufig genannt. Da die Auswertung anhand der Rangreihen schnell an Grenzen stößt, werden im nächsten Schritt die Prozentanteile der Themennennungen bei den vier Mediennutzer-Typen verglichen. Dabei muss berücksichtigt werden, dass sich die vier Nutzergruppen auch hinsichtlich ihrer soziodemographischen Struktur unterschieden. Wie oben verdeutlicht, differieren die Gruppen vor allem bezüglich des Alters und der Bildung. Es ist durchaus denkbar, dass sich diese unterschiedlichen Strukturmerkmale der Gruppen auch auf die Relevanzeinschätzungen der Themen auswirken. Deswegen werden die Auswertungen jeweils getrennt für die Befragten mit hohem und niedrigem Bildungsgrad sowie für jüngere und ältere Personen durchgeführt. Auf diese Weise kann sichergestellt werden, dass Unterschiede zwischen den Gruppen nicht auf diese Drittvariablen zurückzuführen sind. Ein erster Analyseschritt (Tabelle 3) ergibt, dass etwa ein Drittel der Wenignutzer kein Gesprächsthema genannt hat, bei den Allesnutzern ist es nur ein Fünftel. Offliner und Onliner liegen dazwischen. Sowohl Alter als auch Bildung scheinen hier einen gewissen Einfluss auszuüben: Unter den Älteren und höher Gebildeten gibt es mehr Personen, die ein politisches Gesprächsthema angeben konnten, über das sie sich unterhalten haben. Für unsere Argumentation entscheidend ist aber, ob sich das grundlegende Muster der Verteilung in den vier Gruppen bedeutsam ändert. Dies ist nicht der Fall. Die Allesnutzer liegen immer an erster und die Onliner immer an zweiter Stelle. Wenignutzer und Offliner liegen in allen vier Gruppen eng beieinander.
246 Tab. 3:
Martin Emmer, Jens Wolling
Präferenzen für Themenbereiche nach Bildung & Alter (in %)
Wenignutzer n = 348 Mind. 1 Thema genannt 68,2 Bildung niedrig 64,4 Bildung hoch (Abitur) 76,1 Alter niedrig 62,7 Alter hoch (> 35) 72,0 Internationale Themen 15,4 Bildung niedrig 16,0 Bildung hoch (Abitur) 14,6 Alter niedrig 23,8 Alter hoch (> 35) 9,7 Regional-/Kommunalpolitik 2,1 Bildung niedrig 1,3 Bildung hoch (Abitur) 3,4 Alter niedrig 2,4 Alter hoch (> 35) 1,9 Sozial-/Gesundheitspolitik 12,9 Bildung niedrig 14,0 Bildung hoch (Abitur) 11,3 Alter niedrig 7,2 Alter hoch (> 35) 16,2 Politisches System 7,1 Bildung niedrig 7,3 Bildung hoch (Abitur) 6,7 Alter niedrig 6,0 Alter hoch (> 35) 7,8
Offliner n = 750 71,0 68,3 76,2 60,6 72,6 11,2 10,3 12,9 12,3 11,1 6,9 7,3 5,9 5,3 7,1 13,9 12,2 16,8 7,0 14,7 8,2 9,7 6,0 8,8 7,9
Allesnutzer n = 304 80,7 77,8 82,1 73,6 83,6 14,6 11,9 16,3 19,4 12,9 6,9 6,0 7,5 6,0 7,3 8,6 9,5 8,2 1,5 11,3 10,6 7,2 12,5 10,5 10,6
Onliner n = 194 75,5 73,4 76,3 72,4 80,9 23,0 17,0 25,0 28,9 16,7 2,0 4,3 1,0 2,6 1,4 4,0 2,1 5,0 2,6 5,6 2,8 0,0 4,0 1,3 4,2
Betrachtet man die von den Befragten genannten politischen Gegenstände genauer, so zeigt sich bei einer ersten groben Aufteilung in nationale und internationale Themen, dass in der Gruppe der Onliner internationale Themen im Verhältnis zu nationalen Themen eine wesentlich größere Rolle spielen als in den anderen drei Gruppen. Dieser Trend, den man als globalisierende Wirkung des Internets deuten kann, wird allerdings durch den Einfluss von Bildung und Alter relativiert. Bei den Älteren und den Personen mit niedrigerer Bildung sind die
Leben in verschiedenen Welten?
247
Unterschiede zwischen den Nutzergruppen deutlich schwächer, verschwinden aber auch dort keinesfalls vollständig. Wenn man noch einen Schritt weitergeht, um eine etwas feinere Unterteilung der Themen vorzunehmen, wird die Analyse etwas schwieriger, weil die Fallzahlen aufgrund des Erhebungsverfahrens (von jeder Person liegt nur eine Themennennung vor) schnell sehr klein werden. Einige Themenkategorien, die für die Prüfung der oben aufgestellten Hypothesen von Relevanz sind, lassen sich jedoch noch weiter ausdifferenzieren und analysieren. So bestätigt sich bei der Nennung lokal- und regionalpolitischer Themen der Trend einer eher globalisierenden Wirkung des Internets zumindest ansatzweise: In den Gruppen, die sich (auch) stärker auf klassische Medien stützen (Offliner und Allesnutzer), werden regionale Themen häufiger genannt. Einer der Themenkomplexe, der in den Medien im Befragungszeitraum eine relativ große Rolle gespielt hat, ist der Bereich der Sozial- und Gesundheitspolitik. Auch dieser Themenbereich, der eher von nationaler Bedeutung ist, wird von den Nutzern der klassischen Medien deutlich häufiger thematisiert. Erwartungsgemäß hat vor allem das Alter der Befragten einen Effekt auf die Auswahl dieses Themenkomplexes als Gesprächsstoff. Aber auch nach Kontrolle von Alter und Bildung erweisen sich vor allem die Onliner als diejenigen, in deren Gesprächen dieses Thema eine nur sehr untergeordnete Rolle spielt. Zuletzt soll noch ein Themenbereich betrachtet werden, der im Kontext politischer Mediennutzung und der Politikverdrossenheitsdebatte häufig untersucht wird, nämlich die Thematisierung des politischen Systems und dessen Leistungsfähigkeit generell, inklusive politischer Skandale (in den Befragungszeitraum fielen u.a. die Rücktritte von Laurenz Mayer, Monika Hohlmeier und Cornelia Pieper im Zusammenhang mit verschiedenen Affären). Hier führen wiederum die Gruppen der Allesnutzer und der Offliner. Es ist auffällig, wie wenig Nennungen hier aus der Gruppe der Onliner kommen. Alter und Bildung haben auch hier wieder einen gewissen modifizierenden Einfluss, aber auch in diesem Fall verändert sich das beschriebene Ergebnismuster nur partiell. Um schließlich die Frage nach der Vielfalt der Themen (Hypothese 2) in den vier untersuchten Gruppen zu beantworten, wurden zwei Kennwerte berechnet: der 'Diversity-Index' und das 'Standardisierte Entropie-Maß'.2 Ein Blick auf die Ergebnisse (Tabelle 4) zeigt, dass sich die Nutzergruppen kaum unterscheiden. 2
Beide Maßzahlen können Werte zwischen 0 und 1 annehmen, wobei 1 bedeutet, dass eine maximale Vielfalt zu verzeichnen ist, während 0 maximale Homogenität anzeigt. Maximale Vielfalt wäre gegeben, wenn alle Themenkategorien von gleich vielen Personen genannt worden wären, bei maximaler Homogenität wäre erreicht, wenn alle Befragten das gleiche Thema genannt hätten (Franzmann/Wagner 1999: 78ff.).
248 Tab. 4:
Martin Emmer, Jens Wolling
Vielfaltsindikatoren
Diversity-Index Entropie-Maß
Wenignutzer
Offliner
Allesnutzer
Onliner
0,90 0,64
0,90 0,64
0,92 0,67
0,89 0,62
Zudem findet man keinerlei Hinweis darauf, dass sich die Gruppe der Onliner durch eine besonders große Heterogenität auszeichnet. Ganz im Gegenteil, beide Kennwerte sind in dieser Gruppe am niedrigsten. Am heterogensten ist vielmehr die Gruppe der Allesnutzer.
Resümee Ziel dieser Analyse war es, Hypothesen über mögliche unterschiedliche politische Themenpräferenzen von Menschen unterschiedlicher Mediennutzungsmuster zu prüfen. Im Mittelpunkt stand dabei die Annahme, dass ein intensiver Rückgriff auf Online-Quellen bei gleichzeitiger Abwendung von herkömmlichen Informationsquellen zu deutlich anderen, insbesondere vielfältigeren und stärker globalen Themenpräferenzen führen könnte. Die Analyse der vorliegenden Befragungsdaten aus dem Jahr 2005 zeigt, dass diese Annahmen nicht in dem Maße bestätigt wurden, wie es die vorliegende Literatur z.T. nahe legt. So zeigen sich insgesamt eher geringe Unterschiede bei Themeninteressen von On- und Offlinern. Auch bei den Vielfaltsindikatoren sind die Unterschiede eher schwach ausgeprägt. Hinsichtlich der Regionalität/Internationalität politischer Themen zeigen sich zwar einige Unterschiede, die allerdings in ihrer Ausprägung ebenfalls eher schwach und zumindest teilweise von den intervenierenden Variablen Bildung und Alter beeinflusst sind. Diese Befunde stehen allerdings unter verschiedenen Vorbehalten: So ist die gewählte Methode mit erst nachträglicher Kategorienbildung auf Basis offener Antworten der Befragten relativ stark abhängig von der aktuellen politischen Situation und schränkt die Auswertungsmöglichkeiten ein. Zudem stellt sie nur eine Momentaufnahme aus dem Januar 2005 dar. Erst eine vergleichende Analyse über mehrere Zeitpunkte hinweg könnte zeigen, wie stabil bzw. wie stark situationsabhängig die ermittelten Themenpräferenzen sind. Dies gilt ebenso für die der Analyse zugrunde gelegten Mediennutzungsmuster, die sich insbesondere im Bereich der Online-Angebote ständig verändern. Hinzu kommt, dass ein Nachweis von Medienwirkungen durch die Analyse von Querschnittsdaten ohne Einbeziehung von Inhaltsanalysedaten keinesfalls möglich ist.
Leben in verschiedenen Welten?
249
Es lässt sich vorläufig festhalten, dass eine verstärkte Nutzung des Internets für die politische Kommunikation offenbar teilweise veränderte Themenprofile der Mediennutzer zur Folge hat, insgesamt jedoch die Realitätswahrnehmung nicht dramatisch beeinflusst: Die deutschen Online- und Offline-Mediennutzer leben (noch?) nicht in verschiedenen Welten. Da jedoch in der Gruppe der Onliner die jüngeren Kohorten sehr stark vertreten sind, deutet dies auf eine allmähliche aber grundsätzliche Veränderung klassischer Mediennutzungsmuster bei der mit dem Internet aufgewachsenen Generation hin. Mittel- und langfristig könnte dies durchaus dazu führen, dass sich auch in breiteren Bevölkerungsschichten die Themenpräferenzen verschieben.
Literatur Eichhorn, Wolfgang (1996): Agenda-Setting-Prozesse: eine theoretische Analyse individueller und gesellschaftlicher Themenstrukturierung. München: Reinhard Fischer. Emmer, Martin (2005): Politische Mobilisierung durch das Internet? Eine kommunikationswissenschaftliche Untersuchung zur Wirkung eines neuen Mediums. München: Reinhard Fischer. Emmer, Martin/Füting, Angelika/Vowe, Gerhard (2006): Wer kommuniziert wie über politische Themen? Eine empirisch basierte Typologie individueller politischer Kommunikation. In: Medien & Kommunikationswissenschaft 54.2. 216-236. Emmer, Martin/Vowe, Gerhard (2004): Mobilisierung durch das Internet? Ergebnisse einer empirischen Längsschnittuntersuchung zum Einfluss des Internets auf die politische Kommunikation der Bürger. In: Politische Vierteljahresschrift 45.2. 191-211. Erbring, Lutz/Goldenberg, Edie N./Miller, Arthur H. (1980): Front Page News and Real World Cues: A New Look at Agenda Setting by the Media. In: American Journal of Political Science 24.1. 16-49. Franzmann, Gabriele/Wagner, Michael (1999): Heterogenitätsindizes zur Messung der Pluralität von Lebensformen und ihre Berechnung in SPSS. In: ZA-Information 44. 75-95. Gellner, Winand/von Korff, Fritz (Hrsg.) (1998): Demokratie im Internet. Baden-Baden: Nomos. Holtz-Bacha, Christina (1998): Fragmentierung der Gesellschaft durch das Internet? In: Gellner/von Korff (Hrsg.) (1998): 219-226. Loosen, Wiebke (2001): Das Ende der Verheißungen? Technisch und ökonomisch determinierte Beschränkungen des "freien" Informationszugangs im World Wide Web. In: MaierRabler/Latzer (Hrsg.) (2001): 71-93. Maier-Rabler, Ursula/Latzer, Michael (Hrsg.) (2001): Kommunikationskulturen zwischen Kontinuität und Wandel. Konstanz: UVK. Marr, Mirko (2002): Politikbildung durch Internetnutzung: Ein Vergleich von Off- und Onlinern. Solothurn.
250
Martin Emmer, Jens Wolling
McCombs, Maxwell E./Shaw, Donald L. (1972): The Agenda-Setting Function of Mass Media. In: Public Opinion Quarterly 36.2. 176-187. Noelle-Neumann, Elisabeth (1997): Massenmedien und sozialer Wandel - Methodenkombination in der Wirkungsforschung. In: Zeitschrift für Soziologie 8.2. 164-182. Putnam, Robert D. (2000): Bowling Alone: The Collapse and Revival of American Community. New York: Simon & Schuster. Quandt, Thorsten (2007): (K)Ein völlig neuer Journalismus? Eine Inhaltsanalyse tagesaktueller Nachrichtenangebote im WWW. München. Aufsatz in Vorbereitung. Rössler, Patrick (1997): Agenda-Setting: theoretische Annahmen und empirische Evidenzen einer Medienwirkungshypothese. Opladen: Westdeutscher Verlag. Rühl, Manfred (1980): Journalismus und Gesellschaft. Bestandsaufnahme und Theorienetwurf. Mainz: v. Hase & Köhler. Schönbach, Klaus/de Waal, Ester/Lauf, Edmund (2005): Online and Print Newspapers: Their Impact on the Extent of the Perceived Public Agenda. In: European Journal of Communication 20.2. 245-258. Wolling, Jens (2001): Auswirkungen des Internets auf Integration und Pluralität. Konzeptionelle Überlegungen und empirische Befunde. In: Maier-Rabler/Latzer (Hrsg.) (2001): 127-143.
Autoren Martin Emmer, 1991-1997 Studium der Kommunikationswissenschaft, Politik und Psychologie in München und Berlin. 1997-2004 wissenschaftlicher Mitarbeiter am Fachgebiet Politikwissenschaft/Medien des Instituts für Medien- und Kommunikationswissenschaft der TU Ilmenau. Seit 2004 wissenschaftlicher Assistent am Fachgebiet Empirische Medienforschung/Politische Kommunikation am gleichen Institut. Forschungsschwerpunkte: politische Kommunikation, Medienwirkungs- und Mediennutzungsforschung, Computervermittelte Kommunikation. Nadin Ernst, M.A., Studium der Kommunikations- und Medienwissenschaft, Französistik und Kunstgeschichte an den Universitäten Leipzig und Aix / Marseille I, 2003 bis 2007 Consultant bei der Unternehmensberatung inomic GmbH an den Standorten Leipzig und Essen sowie verschiedene Lehraufträge im Bereich der Onlineforschung an den Universitäten Leipzig und Zürich, seit Februar 2007 Promotionsstipendiatin der Fink & Fuchs Public Relations AG und wissenschaftliche Mitarbeiterin am Lehrstuhl für Kommunikationsmanagement und Public Relations der Universität Leipzig. Forschungsschwerpunkte: Technologie- und Innovationskommunikation, Wertschöpfung, Rezeptions- und Persuasionsforschung, Onlinekommunikation. Michael Friedewald, Studium der Elektrotechnik/Informationstechnik, Wirtschaftswissenschaften und Technikgeschichte an der RWTH Aachen, Promotion 1999 mit einer Arbeit zur Geschichte des Personal Computing, ausgezeichnet mit dem Rudolf-Kellermann-Preis für Technikgeschichte, seit 1999 am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe als Senior Scientist und Projektleiter. Momentane Arbeitsschwerpunkte: Foresight Inhalteund Kulturwirtschaft, Technikfolgenabschätzung Ubiquitäres Computing. Peter Georgieff, Studium der Volkswirtschaft, Betriebswirtschaft und Politische Wissenschaft in Mannheim; seit 1975 am Fraunhofer ISI tätig und arbeitet in der Abteilung 'Regionen und Marktdynamik'. Arbeitsschwerpunkte: Analyse von Entwicklungen neuer Informations- und Kommunikationstechniken (IKT), Regionale Innovationsstrategien, Nutzeranforderungen neuer IKT für Haushalte und Personengruppen, Marktentwicklung eLearning, soziostruktureller Wandel und Weiterbildung.
252
Autoren
Martina Joisten, Studium der Wirtschaftsinformatik in Köln, von 2002 bis 2006 am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe als wiss. Mitarbeiterin der Abteilung Regionen und Martkdynamik, seit 2007 Projektleiterin Usability- und Onlineforschung bei phaydon research + consulting in Köln. Arbeitsschwerpunkte: CSCW- und CMC-Systeme, insb. multimediale Echtzeitsysteme, Interactive Design Patterns, Usability von Webanwendungen und Software. Roger Häussling, Dr. phil., Dipl. Wi.-Ing., M.A., Doppelstudium des Wirtschaftsingenieurwesens und der Soziologie in Mannheim, Siegen und Karlsruhe. Seit 2001 Hochschulassistent am Institut für Soziologie der Universität Karlsruhe (TH), im Wintersemester 2005/06 Vertretungsprofessor für Soziologie an der Universität Koblenz-Landau (Campus Landau). Arbeitsgebiete: Netzwerktheorie und -analyse, Kommunikations- und Mediensoziologie, Organisationsforschung, Techniksoziologie. Veronika Karnowski, M.A. Kommunikationswissenschaft, Wissenschaftliche Mitarbeiterin am Institut für Kommunikationswissenschaft und Medienforschung (IFKW) der Universität München. Arbeitsschwerpunkte: Diffusionsforschung, Aneignung neuer Kommunikationsdienste, Onlineforschung. Simone Kimpeler, Studium der Publizistik, Soziologie und Wirtschaftspolitik in Münster, Promotion 1999, seit 2000 am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe, stellv. Leiterin der Abteilung Regionen und Marktdynamik. Arbeitsschwerpunkte: Informationswirtschaft und innovative Dienstleistungen, Neue Märkte durch IKT, insbes. nachfrageseitige Faktoren und Entwicklung der IKT-Nutzung; Regional Foresight; IT-basierte ÖkoEffizienz (eEnergy); Martentwicklungen eLearning. Castulus Kolo, Studium der Physik sowie im Anschluss daran der Sozial-/ Kulturanthropologie in Genf (CERN) und München mit Promotionen in 1995 bzw. 1997; nach Stationen in der Auftragsforschung und Beratung in verschiedenen leitenden Funktionen bei der Fraunhofer-Gesellschaft, bis 2003 als Mitglied der Geschäftsführung der Online-Beteiligungs-Holding des Süddeutschen Verlages; seither Lehrtätigkeit u.a. an den Universitäten in München und St. Gallen und ab 2007 Professur an der Macromedia Fachhochschule der Medien; parallel dazu Aufbau der Strategie- und Innovationsberatung future directions GmbH als geschäftsführender Gesellschafter; Schwerpunkte der wissenschaftlichen Arbeit sind die Voraussetzungen, die Dynamik und die Wirkungen von
Autoren
253
Medieninnovationen, insbesondere im Bereich der Onlineangebote, im Spannungsfeld von Gesellschaft, Wirtschaft und Technologie. Michael Mangold, Studium der Soziologie und Politikwissenschaft in Heidelberg und Mannheim. Nach der Tätigkeit als wissenschaftlicher Referent am Institut für Angewandte Wirtschaftsforschung Tübingen (IAW), Gründung und Leitung des Instituts für Medien, Bildung und Wirtschaft am Zentrum für Kunst und Medientechnologie Karlsruhe (ZKM). Initiator der "Bundesinitative Integration und Fernsehen". Gegenwärtig Forschung insbesondere im Bereich neuer Konzepte der niedrigschwelligen Bildung über das fiktionale Fernsehen; Medien und Migranten. Dennis Mocigemba, Studium der Sozial- und Medienwissenschaften in Berlin, Promotion 2003 im Fach Medienwissenschaft, seit 2004 Postdoctoral Fellow an der Jacobs University Bremen (ehemals International University Bremen) im Forschungsprojekt balance [F] zu Nachhaltigkeitskommunikation in traditionellen und digitalen Medien. Arbeitsschwerpunkte: Neue Kommunikationsmedien, Usability Engineering, Nachhaltigkeitskommunikation, Fernsehforschung. Jörg Müller-Lietzkow, Studium der Wirtschaftswissenschaften in Wuppertal und Studium an der Deutschen Trainerakademie in Köln, 1997 Dipl.-Trainer und Dipl. Ökonom; 2003 Promotion in Betriebswirtschaftslehre. 1998-1999 Wissenschaftlicher Mitarbeiter am Lehrstuhl für Medien und Internetökonomie (Prof. Dr. Rock, Uni Wuppertal) sowie dem Forschungsinstitut Telekommunikation (FTK e. V., Dortmund); 1999-2002 Wissenschaftlicher Mitarbeiter am Lehrstuhl für Betriebswirtschaftslehre, insb. Personalwirtschaft und Organisation (Prof. Dr. zu Knyphausen-Aufseß); seit September 2003 Wissenschaftlicher Assistent an der Professur für Kommunikationswissenschaft (Prof. Dr. Seufert); Mitglied im VHB, DGPuK, DVS; Herausgeber des begutachteten eJournals Gamesscience (www.gamesscience.de), Wissenschaftlicher Beirat Deutscher eSportbund (http://www.e-sb.de); Arbeitsschwerpunkte: Medienmanagement, Grundlagenforschung digitale Spiele, Softwareökonomie und Strategisches Management. Oliver Quirin, Studium der Sozialwissenschaften (Kommunikationswissenschaft, Soziologie, Psychologie, Volkswirtschaft) in Nürnberg, Promotion 2003 im Fach Kommunikationswissenschaft, seit April 2007 als wissenschaftlicher Mitarbeiter am Lehrbereich von Prof. Dr. Romy Fröhlich an der LudwigMaximilians-Universität München. Arbeitsschwerpunkte: Interaktivität; Onlineforschung; Medienwirkungsforschung; Politische Kommunikation.
254
Autoren
Harald Rau, Studium der Wirtschaftswissenschaften (Dipl.-Kfm.) in Hagen und Mannheim, Promotion 1999 in Journalistik (Universität Dortmund), Habilitation 2006 im Fach Kommunikations- und Medienwissenschaft (Universität Leipzig), Lehrtätigkeiten an den Universitäten Frankfurt (Oder), Mannheim und Leipzig. Seit 1986 freier Journalist und Autor, sowie Filmproduzent in den Bereichen Índustrie und Dokumentation mit Büro in Schriesheim, vielfältige Beratungstätigkeit. Patrick Rössler, Prof. Dr., Studium der Publizistik, Rechts- und Politikwissenschaft an der Universität Mainz, 1989-1994 Projektmitarbeiter, anschließend Lehrstuhlmitarbeiter an der Universität Hohenheim, Fachgebiet Kommunikationswissenschaft / Empirische Sozialforschung, dort Promotion zum Dr. rer.soc. 1997-2000 wissenschaftlicher Assistent an der Ludwig-Maximilians-Universität München, Institut für Kommunikationswissenschaft (ZW). 2000-2003 Professor (C3) für Kommunikationssoziologie und -psychologie an der Universität Erfurt, seit 2004 Lehrstuhlinhaber für Kommunikationswissenschaft, Schwerpunkt Empirische Kommunikationsforschung an der Universität Erfurt. 2004 DAADGastprofessur an der Annenberg School for Communication, USC Los Angeles, USA.Vorsitzender der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK) e.V., Mitglied der AG "Medienwissenschaften" des Wissenschaftsrates, Repräsentant der International Communication Association (ICA) in Deutschland. Ausstellungskurator. Arbeitsschwerpunkte: Politische Kommunikation, Medienwirkungen, Medieninhalte, Gesundheitskommunikation, Online-Kommunikation, Geschichte der visuellen Kommunikation. Jan Schmidt, Studium der Soziologie in Bamberg und Morgantown, WV (USA), Promotion 2004 im Fach Soziologie, stellvertretender Leiter der Forschungsstelle "Neue Kommunikationsmedien" an der Otto-Friedrich-Universität Bamberg. Arbeitsschwerpunkte: Kommunikationssoziologische Onlineforschung, insbesondere Social Software/Web 2.0. Weitere Informationen unter http.//www.bamberg-gewinnt.de/wordpress. Markus Schubert, M.A., Studium der Kommunikations- und Medienwissenschaft und Musikwissenschaft an der Universität Leipzig, 2001-2007 wissenschaftlicher Mitarbeiter im DFG-Projekt "Programmgeschichte des DDRFernsehens", Promotion in Betreuung von Prof. Dr. Hans-Jörg Stiehler mit dem Arbeitstitel: "Vernetzte Programme. Neue Maßzahlen für die Programmforschung"; Geschäftsführer der KONTUR 21 Gesellschaft für Marktforschung, Kommunikation und Design mbH in Leipzig. Forschungsschwerpunkte: Fernsehprogrammstrukturen, Digitales Fernsehen, Kultursponsoring, Medien- und
Autoren
255
Kulturnutzung, Prognose demographischer Entwicklungen, Internetforschung und Evaluation empirischer Methoden. Wolfgang Schweiger, Studium der Kommunikationswissenschaft, Politik und Rechtswissenschaft an der Universität München. Ab 1997 wissenschaftlicher Mitarbeiter am Institut für Kommunikationswissenschaft und Medienforschung der Universität München. 1. Sprecher der DGPuK-Fachgruppe 'Computervermittelte Kommunikation'. 2004/05 Gastprofessur am Department of Communication Science, Katholieke Universiteit Leuven, Belgien. SoSe 2007 und 2007/08 Vertretung der C4-Professur von Wolfgang Donsbach am Institut für Kommunikationswissenschaft, Technische Universität Dresden. 2007 Habilitationsschrift zum Thema "Theorien der Mediennutzung". Arbeitsschwerpunkte: Empirische Methoden, Mediennutzungs- und -wirkungsforschung, Onlineforschung, Public Relations, Risikokommunikation, E-Learning. Eva Johanna Schweitzer, M.A., Studium der Publizistik, Allgemeinen und Vergleichenden Literaturwissenschaft und Psychologie an der Johannes Gutenberg-Universität Mainz. Seit Januar 2004 dort Wissenschaftliche Mitarbeiterin am Institut für Publizistik. Forschungsschwerpunkte: Politische Kommunikation, Online-Kommunikation. Jan-Noël Thon studiert Germanistik, Anglistik und Medienkultur in Hamburg. Hauptarbeitsgebiete: Transmediale Narratologie, Poetik und Ästhetik des Computerspiels. Thilo von Pape, M.A. Kommunikationswissenschaft, Wissenschaftlicher Mitarbeiter am Institut für Kommunikationswissenschaft und Medienforschung (IFKW) der Universität München. Arbeitsschwerpunkte: Diffusionsforschung, Aneignung neuer Kommunikationsdienste, Onlineforschung, Analyse sozialer Netzwerke. Gerhard Vowe, Prof. Dr., Studium der Politikwissenschaft, der Publizistik und der Informationswissenschaft an der FU Berlin. Promotion 1984. Habilitation 1991 an der TU Darmstadt. 1997-2004 Professor für Politik und Medien an der TU Ilmenau. Seit 2005 Professor für Kommunikations- und Medienwissenschaft am Sozialwissenschaftlichen Institut der Heinrich-Heine-Universität Düsseldorf. Forschungsschwerpunkte: Politische Kommunikation und Medienpolitik.
256
Autoren
Werner Wirth, Prof. Dr. phil., M.A., Professor für Empirische Kommunikations- und Medienforschung am Institut für Publizistikwissenschaft und Medienforschung (IPMZ) der Universität Zürich. Arbeitsschwerpunkte: Rezeptionsund Medienwirkungsforschung, Unterhaltungsforschung, Emotionen, Persuasionsforschung, Onlineforschung, Aneignung und Diffusion neuer Medien, empirische Methoden. Julie Woletz, Studium der Germanistik, Philosophie und Pädagogik in Köln, derzeit Promotion im Fachbereich Medienkulturen des Instituts für Kulturanthropologie und Europäische Ethnologie der Universität Frankfurt a. M. Forschungsschwerpunkte: Mensch-Maschine Kommunikation und Interaktion, computervermittelte Kommunikation, Interfaces, Usability, digitale Medien; Interdisziplinäre Fragestellungen zwischen Informatik / Technik und Medien / Kulturwissenschaft. Lehrtätigkeit an den Universitäten Frankfurt a. M. und Köln. Langjährige Tätigkeit in Konzeption, Redaktion und Usability Tests in der IT Branche. Jens Wolling, 1987-1993 Studium der Publizistikwissenschaft an der FU Berlin. 1993-1998 wissenschaftlicher Mitarbeiter am Institut für Kommunikationswissenschaft der TU Dresden. 1998-2003 wissenschaftlicher Assistent im Fachgebiet Politikwissenschaft/Medien des Instituts für Medien- und Kommunikationswissenschaft der TU Ilmenau. 2003-2006 zunächst Vertretungsprofessor dann Inhaber einer Professur für Kommunikationswissenschaft am Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-MaximiliansUniversität München. Seit 2006 Professor für Empirische Medienforschung/ Politische Kommunikation am Institut für Medien- und Kommunikationswissenschaft der TU Ilmenau. Forschungsschwerpunkte: Empirische Medienwirkungs- und Mediennutzungsforschung, politische Kommunikation, Onlineforschung, Qualitätsforschung.