Hajo Greif · Oana Mitrea · Matthias Werner (Hrsg.) Information und Gesellschaft
VS RESEARCH
Hajo Greif · Oana Mitre...
243 downloads
1603 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Hajo Greif · Oana Mitrea · Matthias Werner (Hrsg.) Information und Gesellschaft
VS RESEARCH
Hajo Greif · Oana Mitrea Matthias Werner (Hrsg.)
Information und Gesellschaft Technologien einer sozialen Beziehung
Mit einem Geleitwort von Arno Bammé und László Böszörményi
VS RESEARCH
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Veröffentlicht mit Unterstützung des Forschungsrates der Alpen-Adria-Universität Klagenfurt aus den Fördermitteln der Privatstiftung der Kärntner Sparkasse
1. Auflage 2008 Alle Rechte vorbehalten © Deutscher Universitäts-Verlag und VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2008 Lektorat: Christina M. Brian / Dr. Tatjana Rollnik-Manke Der Deutsche Universitäts-Verlag und der VS Verlag für Sozialwissenschaften sind Unternehmen von Springer Science+Business Media. www.duv.de www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8350-7007-3
Geleitwort
Am 1. Januar 2007 wurde an der Alpen-Adria-Universität zu Klagenfurt die Fakultät für Technische Wissenschaften ins Leben gerufen. Damit wurde einem sozialhistorischen Trend Rechnung getragen, der unumkehrbar ist: Die Gesellschaft der Zukunft wird eine technologisch geprägte sein. „Wenn man den Maßstab für die Bedeutung der einzelnen Teilgebiete der menschlichen Kultur in erster Linie ihrer realen Wirksamkeit entnimmt,“ so hatte Ernst Cassirer in seinem berühmten Aufsatz „Form und Technik“ gesagt, „wenn man den Wert dieser Gebiete nach der Größe ihrer unmittelbaren Leistung bestimmt, so ist kaum ein Zweifel daran erlaubt, dass, mit diesem Maße gemessen, die Technik im Aufbau unserer gegenwärtigen Kultur den ersten Rang behauptet. Gleichviel, ob man diesen »Primat der Technik« schilt oder lobt, erhebt oder verdammt: seine reine Tatsächlichkeit scheint außer Frage zu stehen. Die gesamte Energie der gestaltenden Kräfte unserer gegenwärtigen Kultur drängt sich mehr und mehr auf diesen einen Punkt zusammen. Selbst die stärksten Gegenkräfte der Technik – selbst diejenigen geistigen Potenzen, die ihr, nach Gehalt und Sinn, am fernsten stehen – scheinen ihre Leistung nur noch dadurch vollbringen zu können, dass sie sich mit ihr verbinden.“ Die Grenzen dessen, was technisch machbar ist, werden immer weiter hinausgeschoben. Damit kommen immer unabweisbarer jene Fragen ins Spiel, die sich mit technischem Fachwissen allein nicht mehr beantworten lassen: Welche der Möglichkeiten, die sich dem Menschen durch das Voranschreiten der Technik eröffnen, sollen realisiert werden? Was sollte besser unterbleiben? Neben der Gen- und Reproduktionstechnologie, der Nanotechnologie und der Weltraumforschung wird die Informations- und Kommunikationstechnologie (IKT) eine zentrale Rolle spielen. Modische Akronyme wie Bionik, Sozionik oder GNR-Technologie (Genetik, Nanotechnologie und Robotik) verweisen auf diesen Sachverhalt, ein Tatbestand, der auch für Kultur- und Sozialwissenschaftler zur ständigen Herausforderung wird. Denn gemeinsam ist all diesen Technologien, dass sie die alte philosophische Frage nach der Identität des Menschen, nach dem, was der Mensch sei, erneut auf die Tagesordnung setzen. Aber sie stellen sie auf einer historisch neuen Stufe der Auseinandersetzung des Menschen mit
6
Bammé, Böszörményi
seiner Umwelt. Sie formulieren diese Frage nicht kontemplativ, sondern handlungspraktisch. Mit den Technologien, die wir heute entwickeln, entwerfen wir gesellschaftliche Zukünfte. Der sozialhistorische Übergang von der eher kontemplativ-philosophischen Auseinandersetzung des Menschen mit den Geheimnissen der Welt zu ihrer handlungspraktischen Um- und Neukonstruktion nimmt, auf erweiterter sozialer Stufenleiter, die Form eines gigantischen wissenschaftlichen Experiments an. Industrielle Produktion wird zur angewandten Wissenschaft. In der Soziologie wird diese Entwicklung als Übergang von der akademischen zur postakademischen Wissenschaft, zur „Mode 2 Knowledge Production“ diskutiert. Die Wissenschaft diffundiert in den gesellschaftlichen Alltag hinein, wird unmittelbar praktisch, die Gesellschaft verwissenschaftlicht sich, wird reflexiv. Die Welt wird nicht länger mehr nur interpretiert: Sie wird verändert. Und eine zentrale Herausforderung, die sich den Kulturwissenschaften stellt, besteht unter anderem darin, diese Veränderung auf der Höhe der Zeit zu interpretieren. Weder lässt sich eine Philosophie der Gegenwart sinnvoll betreiben, ohne den technischen Möglichkeiten zur Umgestaltung der Welt Rechnung zu tragen. Noch genügt es heute, um Techniker zu sein, bloß Techniker zu sein (Ortega y Gasset). Mit der Einrichtung von sechs neuen Lehrstühlen im Bereich Verkehrsinformatik, Mobile Systeme, Pervasive Computing (Mensch-MaschineSchnittstellen), Media Engineering, Embedded Systems und Service Robotics wurde der Ausbau der Fakultät für Technische Wissenschaften vorangetrieben. Weitere werden folgen. Zweifellos ist die Informations- und Kommunikationstechnologie (IKT) eine der Schlüsseltechnologien des 21. Jahrhunderts. Von ihren Innovationen, von ihren Möglichkeiten, Grenzen und Gefahren werden wir alle in der einen oder anderen Weise betroffen sein, als Kultur- und Sozialwissenschaftler ebenso wie als Naturund Technikwissenschaftler. Die Institute für Informatik der damals noch in Gründung befindlichen neuen Fakultät sowie das Institut für Technikund Wissenschaftsforschung der Fakultät für Interdisziplinäre Forschung und Fortbildung kamen deshalb überein, gemeinsam einen fakultätsübergreifenden Workshop zum Thema „Information und Gesellschaft“ ins Leben zu rufen. Seine primäre Aufgabe sollte darin bestehen, einen gesamtuniversitären Überblick über das in den einzelnen Fakultäten vorhandene Problembewusstsein zu geben, das aus der informationstechnologischen Durchdringung der Gesellschaft resultiert. Erkenntnisinteresse und Problemsicht variieren naturgemäß von Disziplin zu Disziplin. Für Informatiker stellen sie sich anders dar als für Ökonomen, Soziologen, Juristen, Pädagogen, Linguisten oder Psychologen, um nur einige zu nennen. Erst gebündelt, in ihrer Gesamtheit, ergibt sich ein vollständiges Bild dessen, was an Innovationen, an Möglichkeiten, Grenzen und Ge-
Geleitwort
7
fahren auf die Gesellschaft und ihre Menschen zukommt. Fragen, die sich in den einzelnen Fachdisziplinen ganz unterschiedlich stellen, lauten zum Beispiel: – – – – – –
Mit welchen Innovationen können wir in den nächsten Jahren in den Bereichen der Allgegenwärtigkeit von computing – vom Verkehr bis zum Wohnheim – realistischerweise rechnen? Welche Probleme ergeben sich für den Datenschutz durch die zunehmende Virtualisierung zwischenmenschlicher Verkehrs- und Kommunikationsformen aus juristischer Sicht? Welche Folgen ergeben sich für die Ökonomie aus der Diversifikation, Beschleunigung und Ausdehnung elektronischer Geldströme und ihrer Praktiken? Ist das Konzept des „Blended Learning“ eine zufrieden stellende pädagogische Antwort auf didaktische Defizite des E-Learning? Welchen Einfluss hat die Computerisierung unserer Lebenswelt auf die psychische Struktur der nachwachsenden Generation? Inwieweit ist computer literacy bzw. illiteracy entscheidend für die schicht- und geschlechtsspezifisch variierende Zuweisung von Lebenschancen?
Die Ergebnisse des Workshops sind in dem vorliegenden Tagungsband zusammengefasst. Mit ihm wird eine Tradition des inneruniversitären Diskurses fortgesetzt, die mit dem von Paul Kellermann in vergleichbarer Weise herausgegebenen Sammelband zum Thema „Geld und Gesellschaft. Interdisziplinäre Perspektiven“ (Wiesbaden 2005) begonnen wurde. In ihm sind Beiträge zur Monetarisierung der Gesellschaft aus Sicht unterschiedlicher Fachdisziplinen der Alpen-Adria-Universität zusammengefasst, gleichsam die Dokumentation eines „Klagenfurter Gelddiskurses“, der im vergangenen Jahr unter internationaler Beteiligung seine Fortsetzung erfuhr. Zuständig für die Durchführung des Workshops „Information und Gesellschaft“ war ein Team, das auch für die Ringvorlesung „Die digitale Herausforderung“ verantwortlich zeichnete, bestehend aus Dr. Hajo Greif, Dr. Oana Mitrea und Mag. Matthias Werner. Sie setzten ein Konzept um, dass zuvor von Arno Bammé (Institut für Technik- und Wissenschaftsforschung) und László Böszörményi (Institut für Informationstechnologie) in ständiger Rücksprache mit interessierten Kolleginnen und Kollegen erarbeitet worden war. Mit Engagement und Sachverstand haben sie es zu ihrem eigenen Anliegen gemacht und zum Erfolg geführt. Die Lorbeeren für das Gelingen des Workshops und dafür, dass die Ergebnisse nunmehr in schriftlicher Form vorliegen, gebühren vor allem ihnen. Dass er ein Er-
8
Bammé, Böszörményi
folg wurde, ist auch daran zu ermessen, dass bereits ein Folgetreffen stattgefunden hat und beschlossen wurde, weitere fakultätsübergreifende Workshops zum Verhältnis von Technik, Kultur und Gesellschaft folgen zu lassen. Arno Bammé Institut für Technik- und Wissenschaftsforschung
László Böszörményi Institut für Informationstechnologie
Inhalt
Geleitwort Arno Bammé und László Böszörményi................................................
5
Einleitung Hajo Greif, Oana Mitrea und Matthias Werner……….........……..…... 11 Teil I: Technikphilosophische Perspektiven Vergesellschaftung durch Information Arno Bammé, Wilhelm Berger und Ernst Kotzmann............................ 23 Die Henne, modernes Bewusstsein, das Ei moderne Technik? László Böszörményi............................................................................ 41 Teil II: Handlungsfähigkeit Information und technologische Handlungsfähigkeit Hajo Greif, Oana Mitrea und Matthias Werner................................... 49 Die Herausforderung künstlicher Handlungsträgerschaft. Frotzelattacken in hybriden Austauschprozessen von Menschen und virtuellen Agenten Antonia L. Krummheuer..................................................................... 73 Teil III: Sicherheit und Privatsphäre Recht auf Privatsphäre. Rechtliche, insbesondere datenschutzrechtliche Überlegungen vor dem Hintergrund wachsender Informationsbedürfnisse Doris Hattenberger............................................................................. 99 Szenarien, die die Welt verändern Patrick Horster und Peter Schartner..................................................... 129
10
Inhaltsverzeichnis
Teil IV: Lebenswelt Der Einfluss von Ubiquitous Computing auf Benutzungsschnittstellenparadigmen Rudolf Melcher, Martin Hitz, Gerhard Leitner und David Ahlström...... 161 Emotionalität und Rationalität im digitalen Zeitalter. Eine Auseinandersetzung mit der Position von Eva Illouz Christina Schachtner.......................................................................... 185 Teil V: Bildung Computer als Lernmedium und Lerngegenstand in der Grundbildungsarbeit mit bildungsbenachteiligten Frauen Monika Kastner.................................................................................. 207 Ist das Konzept des Blended Learning eine zufriedenstellende pädagogische Antwort auf didaktische Defizite des E-Learning? Karin Kornprath................................................................................. 225 IT-Frust statt Lust? Zur Studienwahl von Jugendlichen aus Sicht von SchülerInnen, Eltern, Lehrenden und Praktikern Peter Antonitsch, Larissa Krainer, Ruth Lerchster und Martina Ukowitz.... 239
Einleitung Hajo Greif, Oana Mitrea und Matthias Werner*
Zur Problemstellung: Information und Gesellschaft1 Der Begriff der Information, so vielschichtig seine Bedeutung auch sein mag, scheint auf den ersten Blick eine recht eindeutige semantische Arbeitsteilung zwischen den in diesem Band vertretenen akademischen Disziplinen zuzulassen: Information im technisch-naturwissenschaftlichen Sinne ist eine messbare Größe, die es in ihrer Struktur und Codierung zu analysieren gilt. Die Qualität einer Information bemisst sich am Verhältnis zwischen Signal, Rauschen und Übertragungsfehlern, während ihr semantischer Gehalt explizit ausgeblendet wird. Dies entspricht der klassischen Position von Shannon und Weaver (1949). In den Geistes- und Gesellschaftswissenschaften hingegen wird Information stets bereits als interpretierte bzw. interpretierbare Information und somit in Hinblick auf ihren semantischen Gehalt sowie die Bedingungen und Konsequenzen ihrer Rezeption betrachtet. Information wird als eine Grundgröße menschlichen Handelns und Zusammenlebens beschrieben – und im populären Begriff der „Informationsgesellschaft“ sogar zur zentralen Kategorie gesellschaftlicher Selbstbeschreibung erhoben –, bleibt aber formal unanalysiert. Die formalen Aspekte des Signals sind allein insofern von Interesse, als die Medien der Informationsübertragung oder die Möglichkeiten und Begrenzungen der Speicherung, Verwaltung und Verfügbarmachung von Informationen Teil der Untersuchung werden.2 Die Unterscheidung zwischen einem semantischen und einem formalen Informationsbegriff wird häufig als deckungsgleich mit der Unterscheidung zwischen Information als objektiv gegebener Tatsache und als * 1
2
Institut für Technik- und Wissenschaftsforschung, Universität Klagenfurt, und Interuniversitäres Forschungszentrum für Technik, Arbeit und Kultur (IFZ), Graz. Die folgenden Ausführungen verdanken den engagierten Diskussionen während des Workshops „Information und Gesellschaft“ an der Alpen-Adria-Universität Klagenfurt am 12. und 13. Januar 2007 und eines Nachfolgetreffens am 29. Juni 2007 sehr viel. Die Autoren danken allen Beteiligten, ohne sich damit ihrer Verantwortung für die vorliegenden Ausführungen entziehen zu wollen. Ein detaillierterer Überblick zu unterschiedlichen disziplinären Perspektiven auf den Informationsbegriff findet sich in Kuhlen (2004), S. 3 ff.
12
Greif, Mitrea, Werner
an die subjektive Position von Sender und Empfänger gebundenem Sachverhalt interpretiert: Betrachtet man Information als eine objektive Gegebenheit, die sich auch in der Natur findet und die unabhängig sowohl vom Interpretationsvermögen eines möglichen Empfängers als auch von den Mitteilungsabsichten eines Senders besteht, kann genetische Replikation mit demselben Recht als Akt der Übertragung von Information gelten wie der Austausch von Botschaften zwischen Personen. Aus technisch-naturwissenschaftlicher Perspektive ist es folgerichtig und aus einer allgemein philosophischen Perspektive zumindest begründbar, in beiden Fällen von Information zu sprechen, ohne den von einem Sender intendierten und den von einem Empfänger interpretierten Informationsgehalt in Betracht zu ziehen und ohne einen grundlegenden Unterschied zwischen natürlicher und absichtsvoll erzeugter Information vorauszusetzen. Für die Gesellschaftswissenschaften hingegen ist die Vorstellung einer Information ohne Sender und Interpreten wenig hilfreich, da ihr Gegenstand vornehmlich aus Konstellationen von Akteuren, Handlungen, Kommunikationen und Interpretationen besteht. Auf den zweiten Blick jedoch erscheinen die Unterscheidungen und Arbeitsteilungen nicht mehr so eindeutig: Zum einen können Formen natürlicher oder maschinell erzeugter Information (zum Beispiel genetische Informationen oder von technischen Systemen automatisch generierte Datenbestände) zum Gegenstand gesellschaftlichen Interpretierens und Handelns werden. Zum anderen können auch objektiv gegebene Informationen ganz unterschiedliche Verwendungen erfahren – nicht zuletzt auch in Abhängigkeit von der Form ihrer Aufbereitung und Übermittlung. Wendet man sich auf der Suche nach Klärung nun an die Informationswissenschaft – und damit an diejenige Disziplin, welche bereits ihrem Namen nach die Zuständigkeit für den Gegenstand der Debatten beansprucht –, so spiegelt sich in ihr zwar die Heterogenität der einzelnen (disziplinären) Begriffsgebräuche und zugehöriger Analyseinteressen wieder. Doch zumindest in der deutschsprachigen Debatte hat sich eine gemeinsame Untersuchungsperspektive herausgebildet, welche mit besagter Problemstellung umzugehen helfen kann: Die „pragmatische Sicht auf Information“ (Kuhlen 2004, S. 3) betont den Zusammenhang zwischen Informationen und Handlungsmöglichkeiten. Im Zuge dieser Betonung der Handlungsrelevanz rücken Kategorien wie Nutzen, Folgen, Adressaten oder Zweck und Mittel von Informationen und Informationsprozessen ins Zentrum der Aufmerksamkeit. Dass eine Information syntaktisch-formal wohlgeformt und semantisch bedeutungsvoll ist, mag ausschlaggebend dafür sein, überhaupt vom Vorhandensein von Information zu sprechen. Möglicherweise muss sie sogar
Einleitung
13
wahr sein. Damit allein ist jedoch noch nichts über die Verwendung, die Rolle oder die handlungsanleitende Funktion der betreffenden Information gesagt. Lenkt man seine Aufmerksamkeit auf diese letzteren Kriterien, so können neben den wahren und handlungsanleitenden Informationen auch Fehlinformationen von Interesse sein, welche eine handlungsanleitende Rolle übernehmen, ebenso wie Informationen, die zwar wahr sind, aber einen negativen Effekt auf Handlungsabläufe aufweisen – während Informationen, die zwar wahr und wohlgeformt, aber nicht handlungsrelevant sind, nicht Gegenstand der Analyse werden.3 Aus dieser Perspektive auf das Phänomen der Information lässt sich die scheinbare Dichotomie zwischen den formalen und semantischen, den objektiven und subjektiven Informationsbegriffen überbrücken: Form und Gehalt spielen eine Rolle, aber stets bezogen auf die gegebenen Umgebungsbedingungen der Produktion, Übermittlung, Interpretation und Verwendung der jeweiligen Information. Eine solche pragmatische Perspektive kann sich nicht zuletzt im hier vorliegenden interdisziplinären Zusammenhang als instruktiv und anschlussfähig erweisen. Sie erlaubt es, die Frage nach dem Verhältnis von Information und Gesellschaft als eine Frage zu formulieren, die auf individuelle und kollektive, potentielle und aktuelle (oder auch nur behauptete) Handlungsrelevanz von Information abzielt. Für eine Untersuchung der Beschaffenheit bestimmter Arten von Information mag zwar die Unterscheidung zwischen einem natürlichen und einem artifiziellen, einem menschlichen und einem technischen oder auch zwischen einem spontanen und einem intentionalen Ursprung derselben von Bedeutung sein. Nicht in Frage steht bei dieser Unterscheidung in einem pragmatischen Verständnis jedoch der Charakter der Information als Information. Betrachtet man sie von ihren Effekten auf Handlungen aus, erscheint Information in einem ersten Analyseschritt so minimal und voraussetzungsfrei wie möglich als ein „Unterschied, der einen Unterschied macht“ (Bateson 1982) – als etwas, das seitens seiner Empfänger Anschlusshandlungen erlaubt, fordert oder auslöst. Eine Information in diesem Sinne ist das, was ihren InterpretInnen aus einer Umwelt potentieller (natürlicher und anderer) Informationen gegenübertritt, als signifikant erscheint und ihnen neue Handlungsmöglichkeiten zu eröffnen verspricht oder be3
Ein Beispiel für handlungsrelevante Fehlinformationen ist der propagandistische oder allgemein werbliche Einsatz von Botschaften, die eine bestimmte Information zu transportieren vorgeben, denen aber keine Tatsachen in der Welt entsprechen. Als Beispiel für wahre Informationen mit negativen Systemeffekten könnten etwa die oft sehr empfindlichen, voreiligen und überschießenden Reaktionen von Aktienmärkten auf die rasche Ausbreitung von aktuellen Wirtschafts- und Unternehmensdaten gelten.
14
Greif, Mitrea, Werner
stimmte Handlungen von ihnen fordert. Zugleich sind die InterpretInnen selbst Erzeuger und Überträger von Informationen, die an anderer Stelle Aufmerksamkeit und Eintritt fordern. Nach welchen Verfahren die Informationen ausgewählt werden, welche Informationen es sind, die ausgewählt werden (und welche nicht) und was mit ihnen von wem getan werden kann, ist Gegenstand der Untersuchung.
„Technologien einer sozialen Beziehung“ In einem zweiten Analyseschritt ist der Tatsache Rechnung zu tragen, dass Information zugleich auch ein Gegenstand und ein Mittel des Handelns ist. Sie ist ein Produktionsfaktor und eine handelbare Ware. Der Begriff der Informationsgesellschaft reflektiert die gewachsene Bedeutung von Information als Wirtschaftsgut wie auch deren prägenden Einfluss auf kulturelle und gesellschaftliche Praktiken und Selbstverständnisse (vgl. Bell 1973; Machlup 1962). Erstens haben informationsbasierte Dienstleistungen und der Handel mit dem Gut Information gegenüber manueller und industrieller Arbeit und dem Warenverkehr zunehmend an Gewicht gewonnen. Zweitens ist den meisten Menschen in den meisten Lebensbereichen zumindest im Prinzip mehr Information denn je verfügbar, auf die sie ihre Handlungen begründen können. Drittens jedoch kommt sowohl für die Produktion von Wirtschaftsgütern und Dienstleistungen als auch für soziale, kulturelle und wissenschaftliche Praktiken nicht nur den Informationen selbst, sondern auch den Technologien ihrer Erzeugung, Manipulation, Speicherung, Kommunikation und Verfügbarmachung eine gewachsene Bedeutung zu. Das gesellschaftliche Handeln verlässt sich zunehmend auf die Funktionen und das Funktionieren von Informations- und Kommunikationstechnologien (IKT) als Handlungsmittel, und die Technologien werden ein zentraler Bestandteil des Handelns selbst. Folgt man einigen der mutigeren Entwicklungsprognosen, ist die Herausbildung einer Konstellation zu erwarten, in der sich die Funktionen elektronischer Datenverarbeitung, drahtloser Dienste, kommunikationsfähiger smart things und mobilitätsbezogener Anwendungen zunehmend ineinander verflechten und zu einer spezifischen interkonnektiven Anordnung, einer Technosphäre entwickeln werden. Indem auf diesem Wege die Unterscheidungen zwischen Handlungsmittel, Handlungsgegenstand und Handelnden unscharf wird, stellen die IKT die Menschen vor die Herausforderung, ihre eigene Identität, ihre Umwelt, Raum und Zeit neu zu definieren oder zumindest anders wahrzunehmen. Doch daraus lässt sich nicht ableiten, dass die gegenwärtig hohe Akzeptanz der IKT in der Bevölkerung zwangs-
Einleitung
15
läufig bestehen bleiben wird. Es werden verschärfte Antizipationsprobleme und Ängste erkennbar, etwa vor dem Verlust an Privatsphäre oder dem Verlust an Kontrolle über die technischen Systeme. Insofern die „soziale Beziehung“ zwischen Information und Gesellschaft, die im Untertitel des vorliegenden Bandes angesprochen ist, vielfach und zunehmend eine technisch vermittelte ist, sind IKT in einem sehr grundlegenden Sinne Technologien sozialer Beziehungen: Ihre Nutzung (oder Nicht-Nutzung) ist Gegenstand, Medium und Grundlage einer Vielfalt sozialer Interaktionen und wird – je mehr sich die IKT ausbreiten – eine handlungspraktisch unhintergehbare Grundlage für den Zugang zur gesellschaftlichen und natürlichen Umwelt schlechthin. Das Verhältnis zwischen Informationstechnik und Gesellschaft lässt sich analog zur Frage nach Information und Gesellschaft unter einer pragmatischen Perspektive verhandeln: Die IKT ermöglichen den technischen Zugang zu und den Umgang mit Informationen, sie sind damit ein entscheidender Schlüssel zur Gestaltung (und Analyse) der Gegenwartsgesellschaft. In der Informationsgesellschaft prägen die IKT den menschlichen Zugang zur Welt, und sie treten als Erzeuger und Verarbeiter von Information an die Seite der Menschen. Indem die IKT zudem ihre Aufgabe der Informationsverarbeitung vermehrt selbsttätig übernehmen, erhält die technisch automatisierte Informationsarbeit eine neue Qualität, mit unmittelbaren Konsequenzen für die Grundlagen menschlichen Handelns (vgl. Kuhlen 2004, S. 16).
Zu den Beiträgen Anhand der bisherigen Überlegungen zeigt sich, dass für die Analyse des Zusammenhangs zwischen Information und Gesellschaft im Folgenden vor allem zwei Aspekte im Zentrum stehen, die je nach disziplinären Perspektiven unterschiedlich adressiert werden können: die Handlungsrelevanz von Information als solcher und die Rolle von Technologien in Bezug auf die Herstellung (oder Veränderung) individueller und gesellschaftlicher Handlungsoptionen. Beide Aspekte finden sich in den folgenden Beiträgen, oft in enger Verbindung miteinander – ob es um die Informationen geht, die dafür ausschlaggebend sind, wie man mit einem künstlichen Agentensystem umgeht, ob es um das Recht der Nutzer auf die Kontrolle über die von ihren digitalen Gerätschaften automatisch erzeugten und übermittelten Informationen geht, ob es um die Vermittlung der Fähigkeit zum Umgang mit Computern als Kulturtechnik geht, oder ob es um Information und Informationstechnologien als Medium der Vergesellschaftung geht.
16
Greif, Mitrea, Werner
Die Gruppierung der hier versammelten Beiträge orientiert sich an der thematischen Gliederung des Klagenfurter Workshops im Januar 2007 und fasst die Beiträge unter fünf größeren Einheiten zusammen: Technikphilosophische Perspektiven; IKT und Handlungsfähigkeit; IKT, Sicherheit und Privatsphäre; IKT und Lebenswelt; IKT und Bildung. Der erste Teil bietet einen Einstieg in das Themenfeld Information und Gesellschaft in Form von sozial- und technikphilosophischen Perspektiven. In ihrem Beitrag „Vergesellschaftung durch Information“ prüfen Arno Bammé, Wilhelm Berger und Ernst Kotzmann, inwieweit Information als Grundlage des Sozialgefüges gedacht werden kann. Die Untersuchung der Bedeutung von Information und Kommunikation für Vergesellschaftungsprozesse ist für sie untrennbar verbunden mit der Untersuchung der Technologien, mittels derer Informationen verarbeitet und kommuniziert werden. Vor dem Hintergrund, dass Technik angemessen als „Gesellschaft, auf Dauer gestellt“ (Latour 1991) zu verstehen sei, bedeute Technikentwicklung den Entwurf und die Erprobung gesellschaftlicher wie auch menschlicher Zukünfte. In „Die Henne, modernes Bewusstsein, das Ei moderne Technik?“ widmet sich László Böszörményi der Untersuchung der Wechselwirkungen zwischen menschlichem Bewusstsein und moderner Technik und plädiert für eine stärkere Hinterfragung der Quellen und Bedingungen der Erfassung und Deutung der (Um-) Welt. Ein selbstreflexives Bewusstsein für die Prozesse wissenschaftlichen und technischen Erkennens ermögliche die Gestaltung einer neuen, menschenfreundlichen Technik, die sich besser an menschlichen Bedürfnissen ausrichte und so zu einem sinnerfüllten Leben beitragen könne. Der zweite Teil befasst sich mit veränderten oder sich neu herausbildenden Formen von Handlungsfähigkeit in der Informationsgesellschaft – in einem Beitrag gefasst als Handlungsmöglichkeiten mit, im anderen Beitrag als Handlungsträgerschaft von IKT. In „Information und technologische Handlungsfähigkeit“ heben Hajo Greif, Oana Mitrea und Matthias Werner hervor, dass die IKT, anders als andere Technologien, den wahrnehmenden und denkenden Zugang der NutzerInnen zu ihrer Umwelt unmittelbar zum Gegenstand haben und darum die menschliche Handlungsfähigkeit in besonderer Weise betreffen. Hiervon ausgehend stellen sie die Frage, inwieweit die Fähigkeit und Möglichkeit zur (Mit-) Gestaltung dieser Technologien als Bedingung der Handlungsfähigkeit in der Informationsgesellschaft verstanden und realisiert werden kann, und welche Implikationen sich daraus für die Technikentwicklung als Partizipationsgegenstand ergeben. Hybride Interaktionen zwischen virtuellen Agenten und menschlichen Akteuren sind der Gegenstand von Antonia Krummheuers Beitrag „Die Herausforderung künstlicher Handlungsträ-
Einleitung
17
gerschaft“. Anhand von Videoaufnahmen analysiert sie die komplexe Situation des Erstkontakts von Menschen mit einem virtuellen Agenten als im Status unentschiedene Interaktionen: Der Umgang mit dem Agenten weise sowohl eine Orientierung an gängigen zwischenmenschlichen Praktiken auf, gleichzeitig werde diese Orientierung aber auch spielerisch und testend gebrochen, so dass der Agent weder eindeutig dem Reich des Sozialen noch des Technischen zugeordnet werden könne. Der dritte Teil steht unter der Überschrift IKT, Sicherheit und Privatsphäre und problematisiert die wachsende Erzeugung und Nutzung (personenbezogener) Daten und Informationen. Aus einer juristischen Perspektive untersucht Doris Hattenberger in ihrem Beitrag „Recht auf Privatsphäre“ das Anwachsen von Informationserzeugung und Informationsbedürfnissen. Ausgehend von einer Skizze aktueller Tendenzen des immer tieferen informationstechnischen Vordringens in die Privatsphäre der Einzelnen und aufbauend auf einer systematischen Darstellung der rechtlichen Rahmenbedingungen in Österreich identifiziert sie eine Verschiebung der Grenzen des Rechts zu Lasten der Privatsphäre. Angesichts der von staatlichen wie zunehmend auch von privaten Akteuren forcierten Ausnutzung des technisch Machbaren plädiert sie für Maßnahmen zur Erhöhung des Problembewusstseins und die Förderung datensparsamer Technologien. Der Frage, wo und wie in informationsgestützten Prozessen und Technologien die Daten entstehen, die solche Probleme aufwerfen können, wenden sich Patrick Horster und Peter Schartner aus einer informationstechnischen Perspektive zu. Zum einen illustrieren ihre „Szenarien, die die Welt verändern“, welchen Nutzen neue Technologien und Anwendungen (wie RFID, Chip- und Speicherkarten, mobile Endgeräte, WLAN bzw. E-Commerce, E-Government, E-Health, Location Based Services) bieten können. Zum anderen zeigen sie kritisch auf, welche Möglichkeiten sich für eine missbräuchliche Nutzung anfallender Daten ergeben können, und sie begründen die Notwendigkeit einer Architektur transparenter, mehrseitiger Sicherheit. Im vierten Teil werden IKT in Bezug auf lebensweltliche Aspekte – in Form von Interaktionen mit und mittels IKT – thematisiert. Den Ausgangspunkt des Beitrags „Der Einfluss von Ubiquitous Computing auf Benutzungsschnittstellenparadigmen“ von Rudolf Melcher, Martin Hitz, Gerhard Leitner und David Ahlström bildet die zunehmende Verbreitung einer Vielzahl von miniaturisierten und spezialisierten IKT-Einheiten, durch welche die Bedeutung des Computers als „Universalmaschine“ unter Druck geraten ist. Ubiquitous Computing erfordere dementsprechend die Infragestellung gängiger Modelle der Mensch-Maschine-Interaktion. Anstelle der Orientierung an Einzelgeräten konzipieren die Autoren Anforderungen an Benutzungsschnittstellen, die den erweiterten Nutzungs-
18
Greif, Mitrea, Werner
kontexten gerecht werden können und den NutzerInnen eine individualisierte und selbstbestimmte Gestaltung ihres Zugriffs auf IKT und deren Funktionen ermöglichen. In „Emotionalität und Rationalität im digitalen Zeitalter“ analysiert Christina Schachtner das Internet als einen neuen Interaktionsraum, in dem spezifische Formen der Kommunikation von Emotionen zu Vergemeinschaftungsprozessen beitragen. In Auseinandersetzung mit der Position von Eva Illouz, die in ihrer Betrachtung des Zusammenhangs zwischen Emotionen und gesellschaftlicher Modernisierung im Internet einen Schauplatz radikaler Rationalisierung identifiziert, unterstreicht die Autorin die Vielgestaltigkeit des Kommunikationsraums Internet und plädiert für eine offene Analysehaltung, die nicht auf widerspruchsfreie Beschreibungsmuster abzielt, sondern die komplexe Dynamik zwischen Rationalität und Emotionalität im Cyberspace zu erfassen versucht. Der abschließende Teil befasst sich mit dem Zusammenhang zwischen IKT und Bildung. Monika Kastner analysiert in ihrem Beitrag „Computer als Lernmedium und Lerngegenstand in der Grundbildungsarbeit mit bildungsbenachteiligten Frauen“ den Zusammenhang zwischen Grundbildungsdefiziten, Computernutzung und differenten sozialen Ausschlüssen. Vor dem Hintergrund der Forderung nach lebenslangem Lernen untersucht sie die doppelte Funktion des Computers als Medium wie auch als Gegenstand des Lernens – gilt doch die Fähigkeit, mit Computern umgehen zu können, inzwischen als „vierte Grundkulturtechnik“. Anhand einer Fallstudie werden Möglichkeiten und Voraussetzungen diskutiert, durch die Vermittlung der Grundkulturtechniken unter Einschluss der Computernutzung Zugänge zu lebenslangem Lernen zu schaffen. Karin Kornprath stellt die Frage „Ist das Konzept des Blended Learning eine zufriedenstellende pädagogische Antwort auf didaktische Defizite des E-Learning?“ und analysiert Bedingungen für die erfolgreiche Integration digitaler Medien in Unterrichtskonzepte. Im Zentrum steht das Modell des Blended Learning, dessen Potential sie in der Kombination neuer Lernformen mit konventionellen präsenzorientierten Unterrichtskonzepten identifiziert. In Auseinandersetzung mit E-Learning-Ansätzen formuliert sie Anforderungen an die Gestaltung hybrider Lernarrangements, die sich durch wechselseitige Ergänzungen verschiedener Lernmethoden im Rahmen eines umfassenden didaktischen Konzepts auszeichnen. In ihrem Beitrag „IT-Frust statt Lust?“ präsentieren Peter Antonitsch, Larissa Krainer, Ruth Lerchster und Martina Ukowitz Ergebnisse eines Forschungsprojekts zur Studienwahl von Jugendlichen unter besonderer Berücksichtigung von IT-Studiengängen. Hintergrund ist das schlechte Image und das mangelnde Interesse, auf welches diese Studiengänge bei SchulabgängerInnen treffen. Angesichts der Tatsache, dass sich die Stu-
Einleitung
19
dienwahl als eine multikriterielle Entscheidung darstelle, in der verschiedene Institutionen und Akteure eine Rolle spielen, betonen die AutorInnen die Notwendigkeit systemübergreifender Kooperationen im Bildungssektor, um die Attraktivität von IT-Studiengängen zu erhöhen, und diskutieren vor dem Hintergrund des Ansatzes der Interventionsforschung mögliche Kooperationsarenen und Maßnahmen. Bei allen thematischen Nähen zwischen den einzelnen Beiträgen variieren natürlich die jeweiligen Problemsichten und Erkenntnisinteressen. Diese Vielfalt ist aber so gewollt, bietet sie doch in ihrer Gesamtheit ein facettenreiches Bild der Wechselwirkungen zwischen Information, Informationstechnologien und Gesellschaft sowie der Herausforderungen, die sich aus diesen Wechselwirkungen ergeben. Nicht zuletzt dient der interdisziplinäre Zugang zu diesem Thema der Suche nach Anschlussmöglichkeiten über die Disziplinengrenzen hinweg. So liegt denn auch ein Ziel der Klagenfurter Workshopreihe sowie der Publikation der Beiträge darin, nicht nur thematisch überlappende Interessen entdeckt zu haben, sondern auch Anknüpfungspunkte für die Entwicklung gemeinsamer Fragestellungen und sich ergänzender Forschungsperspektiven zu identifizieren.
Literatur Bateson, Gregory (1982): Geist und Natur. Eine notwendige Einheit. Frankfurt am Main: Suhrkamp (Mind and Nature dt.). Bell, Daniel (1973): The Coming of Post-Industrial Society. A Venture of Social Forecasting. New York: Basic Books. Kuhlen, Rainer (2004): „Information”. In: Rainer Kuhlen, Thomas Seeger und Dietmar Strauch, Hg.: Grundlagen der praktischen Information und Dokumentation. Band 1: Handbuch zur Einführung in die Informationswissenschaft. 5., völlig neu gefasste Ausgabe. München: Saur-Verlag, S. 3-20. Latour, Bruno (1991): „Technology is society made durable“. In: John Law, Hg.: A Sociology of Monsters. London: Routledge, S. 103-131. Machlup, Fritz (1962): The Production and Distribution of Knowledge in the United States. Princeton: Princeton University Press. Shannon, Claude E. und Warren Weaver (1949): The Mathematical Theory of Communication. Urbana: University of Illinois Press.
Teil I: Technikphilosophische Perspektiven
Vergesellschaftung durch Information Arno Bammé, Wilhelm Berger und Ernst Kotzmann*
Die Technik ist auf dem Wege, eine solche Perfektion zu erreichen, dass der Mensch bald ohne sich selbst auskommt. Stanisław Jerzy Lec
Vergesellschaftung Formale Rationalisierung und kommunikatives Handeln gelten unter Soziologen neben dem Marktmechanismus als die grundlegenden Koordinationsmechanismen der modernen Gesellschaft. Kommunikation schafft und reproduziert den gesellschaftlichen Konsens, der in der Vormoderne normativ gesichert war. Das Prinzip der kommunikativen Koordination gewann für Sozialwissenschaftler allerdings erst recht spät theoriebildende Bedeutung. Die Klassiker der Soziologie sprachen wenig über Kommunikation, aber viel von formaler Rationalisierung und von den Gesetzen des Marktes. Erst mit der Umfokussierung von einer handlungs- zu einer kommunikationsorientierten Wissenschaft, wie sie am prononciertesten wohl von Luhmann, aber auch von Habermas vertreten wird, reagierte die Soziologie auf den Wandel der gesellschaftlichen Koordinationsmechanismen. Während Habermas dem erfolgsorientierten, zweckrationalen Handeln das verständigungsorientierte, das eigentlich kommunikative Handeln gegenüberstellt, begreift Luhmann Kommunikation in einem eher technischen Sinn als Einheit von Information, Mitteilung und Verstehen. Weder Intentionalität noch Sprachlichkeit sind notwendige Bestandteile seiner Begrifflichkeit. Einen Einblick über Gemeinsamkeiten und Unterschiede beider Ansätze gewährt Kiss (1987, S. 54 ff; 1990, S. 20 ff). Heute wird diese mittlerweile selbst schon fast klassische Diskussion von Bemühungen überlagert oder sogar verdrängt, die zugleich traditionelle Grenzen zwischen Natur- und Gesellschaftswissenschaften aufheben wollen: Unter den Bedingungen der technologischen Zivilisation *
Institut für Technik- und Wissenschaftsforschung, Universität Klagenfurt.
24
Bammé, Berger, Kotzmann
erweise sich eine nach wie vor getrennte Betrachtung von Natur und Gesellschaft als unangemessen. Beide Sphären seien in der realen Welt gesellschaftlicher Reproduktion längst zur Synthese zusammengeschmolzen, zur vergesellschafteten Natur geworden. „Das Ozonloch ist zu sozial […], um wirklich Natur zu sein, die Strategie der Firmen und Staatschefs zu sehr angewiesen auf chemische Reaktionen, um allein auf Macht und Interessen reduziert werden zu können“ (Latour 1998, S. 14). Wissenschaftliche Experimente haben die geschlossenen Räume der Laboratorien verlassen. Sie werden heute zum Teil im Maßstab 1:1 und in Echtzeit durchgeführt. Die traditionelle Unterscheidung zwischen wissenschaftlichen Laboratorien, so Latour, in denen mit Theorien und Phänomenen experimentiert wird, und einer politischen Situation außerhalb, in der Nicht-Experten mit Werten, Meinungen und Leidenschaften agieren, sei obsolet geworden. Dieser Sachverhalt des Ineinander-Aufgehens zweier zuvor getrennt gedachter Bereiche führt zu Denkmodellen, in denen auch die anfangs skizzierten Koordinationsmechanismen der modernen Gesellschaft als quer zur klassischen Grenze von Natur und Gesellschaft liegend betrachtet werden können. So entwickelt der Biologe Dawkins ein naturalistisches „Programm mit […] universalem Anspruch“ (Greif 2005, S. 117). Allerdings schließt Dawkins nicht, wie Sozialdarwinisten oder Soziobiologen das üblicherweise tun, einfach per Analogie von natürlichen auf soziale Phänomene, sondern unternimmt den systematischen Versuch einer einheitlichen Erklärung unter Verweis auf ein gemeinsames Drittes: das Prinzip der Selbstreplikation. Die Mechanismen der Replikation und Selektion, wie sie in der Natur der Gene festgelegt sind, gelten ihm als substratunabhängig: Die Bedingungen dafür, als Replikator zu fungieren, seien nicht an die Substanz der DNA-Sequenzen gebunden. Prinzipiell seien alle Dinge, die zu einer modifizierenden Selbstreplikation fähig sind, Träger des Kausalmechanismus ihrer Evolution. Die Mechanismen, die Gegenstand einer solchen Deutung sind, finden sich Dawkins zufolge nicht nur in der Natur, sondern auch in der Gesellschaft. Die Kultur, über die eine Gesellschaft verfügt, sei das Produkt eines neuartigen, eines nichtbiologischen Prozesses, mit neuen Replikatoren, neuen Wegen der Variation, Selektion und Vererbung. Diese „neuen Replikatoren“ hat Dawkins im Unterschied zu den Genen „Meme“ getauft (1978, S. 223-237), ein Begriff, der mittlerweile in das Oxford English Dictionary aufgenommen wurde (Blackmore 2000, S. 34). Danach ist ein Mem „Element einer Kultur, das offenbar auf nicht genetischem Weg, insbesondere durch Imitation, weitergegeben wird“. Beispiele eines Mems sind Melodien, Gedanken, Schlagworte, Kleidermoden, die Art, Töpfe zu machen oder Bögen zu bauen. „So wie Gene sich im Genpool
Vergesellschaftung durch Information
25
vermehren, indem sie sich mit Hilfe von Spermien oder Eiern von Körper zu Körper fortbewegen, so verbreiten sich Meme im Mempool, indem sie von Gehirn zu Gehirn überspringen mit Hilfe eines Prozesses, den man in einem allgemeinen Sinn als Imitation bezeichnen kann“ (Dawkins 1978, S. 227). Meme sollten „als lebendige Strukturen verstanden werden, nicht nur im übertragenen, sondern im technischen Sinne.“ Denn wenn jemandem ein fruchtbares Mem in seinen Geist eingepflanzt wird, so wird ihm im wahrsten Sinne des Wortes ein Parasit ins Gehirn gesetzt und er wird auf genau die gleiche Weise zu einem Vehikel für die Verbreitung des Mems gemacht, wie dies mit dem genetischen Mechanismus einer Wirtszelle geschieht, die von einem Virus befallen wird. „Und dies ist nicht einfach nur eine Redeweise – das Mem für, nehmen wir zum Beispiel einmal an, »den Glauben an das Leben nach dem Tod« ist tatsächlich physikalisch verwirklicht – Millionen von Malen besteht es als eine bestimmte Struktur in den menschlichen Nervensystemen auf der ganzen Welt“ (ebd.). Ähnlich wie bei Latour (Law and Hassard 1999) hat sich auch um den Ansatz von Dawkins eine rege Diskussion entfaltet (vgl. Dennett 1997; Blackmore 2000; Aunger 2000). Wenn sich sowohl Latour als auch Dawkins einer, gemessen an akademischen Standards, ungewöhnlichen und metaphernreichen Sprache bedienen, um Begriffe zu vermeiden, die eine Unterscheidung von Natürlichem und Sozialen voraussetzen, so reflektiert sich eben darin dieser Sachverhalt: die reale Aufhebung einer ursprünglichen Dichotomie. Der Dualismus von Natur und Gesellschaft wird unter den Bedingungen einer technologischen Zivilisation obsolet. Beide Sphären gelangen in der gesellschaftlichen Reproduktionspraxis zur Synthese. Die Einbeziehung von non-humans, insbesondere technischer Artefakte, als Akteure und Träger sozialen Geschehens verweist auf die Eigendynamik soziotechnischer Konstellationen. Wenn Dawkins formuliert, wir müssten lernen, Dinge durch die Augen von non-humans zu sehen, dann entspricht das, bei allen sonstigen Differenzen, durchaus der Sichtweise eines Latour, der den Begriff des Aktanden eingeführt hat, um der Rolle, die non-humans im Sozialgeschehen zunehmend spielen, gerecht zu werden. Dieser Zusammenhang wird leicht übersehen, weil sich die Kontroverse um Dawkins’ Ansatz etwas vorschnell und vordergründig am Reizwort des Darwinismus festgemacht hat (Dennett 1997, S. 502 ff; Aunger 2000). Tatsächlich lässt sich das aus der Biologie abgeleitete Prinzip der Selbstreplikation nicht nur in metaphorischer Redeweise nutzen, etwa in den Kulturwissenschaften, sondern, wie noch zu zeigen sein wird, auch unmittelbar handlungspraktisch, als technologisch zu realisierendes Projekt, das sowohl die Natur- als auch die Sozialwissenschaften tangiert.
26
Bammé, Berger, Kotzmann
Information Schon immer befanden und befinden sich die Menschen in einem Ozean von Information. Neue Codes stellten dabei Reaktionen auf soziale Bedürfnisse dar und führten selbst gesellschaftliche Veränderungen herbei. Nach Flusser (1998) wurde die bisherige Menschheitsgeschichte im wesentlichen durch vier Codes bestimmt: Bild, Text, Technobild, ApparatOperator. Diese Codes sind jeweils das Regelwerk für die Manipulation der verwendeten Symbole. Je nach Materialisation dieser Symbole ergeben sich technische Möglichkeiten für die Speicherung, für den Transport und für die Manipulation von Information. Dabei ist der Begriff „Information“ doppeldeutig. Einerseits ist er fixer Bestandteil der Alltagssprache: Information als Nachricht, als Inhalt, als etwas, was Bedeutung trägt. In dieser Verwendung bleibt der Begriff – wie viele andere, deren wir uns durchaus sinnvoll bedienen – unpräzis und ungeeignet, Eingang in mathematische Modelle zu finden. Andererseits steht Information in der Informationstheorie bzw. Informatik für eine Größe, die in Bits gemessen wird. Hier ist der Begriff zwar mathematisch operational, aber er schließt jeglichen Bedeutungsgehalt von Information aus, wie die Väter der Informationstheorie, Claude Shannon und Warren Weaver, immer wieder betonten: Thema der Informationstheorie ist die Qualität von Informationsübertragung, bei der Symbolketten vom Sender bis zum Empfänger eine oder mehrere Übersetzungsphasen von einem Code in einen anderen durchlaufen, der semantische Aspekt ist dabei völlig irrelevant. In den Naturwissenschaften ist ein Auftreten derartiger Größen, deren Sinn einfach darin liegt, dass sie gemessen werden können, nicht ungewöhnlich. Zirka 250 Jahre hat es beispielsweise gebraucht, um für die Größe Temperatur, die einfach nur einen gemessenen Wert auf der Thermometerskala darstellte, eine Definition zu finden, die den Anforderungen eines Gesamtkonzepts der Physik gerecht wurde und damit auch die Kluft zwischen dem Alltagsverständnis von Temperatur und deren Bedeutung in der Thermodynamik um einiges schließen konnte. Für die Größe Information fehlt noch ein ähnlicher Erklärungsprozess. Und damit bleibt ungeklärt, wie die verschiedenen Ebenen von Information zusammenhängen. Lässt sich Semantik auf Syntax zurückführen, Pragmatik auf Semantik oder müssen völlig neue Denkansätze entwickelt werden, um schließlich zu einer effizienten, operativen Logik des Handelns zu gelangen, wie sie von manchen Sozialwissenschaftlern diskutiert wird?
Vergesellschaftung durch Information
27
Information und Gesellschaft Wir wollen dieses Problem um eine andere Frage erweitern: Was sind adäquate Zugänge und Ebenen, um das Thema der Vergesellschaftung durch Information zu erörtern? Ausgehend von den zuvor skizzierten Diskussionen, wollen wir prüfen, inwieweit Information als Grundlage des Sozialgefüges gedacht werden kann. Üblicherweise wird davon ausgegangen, dass Gesellschaften in der staatlichen Form, die sie sich geben, und in der Kultur, die sie repräsentieren, begrenzt sind zum einen durch den Raum, den sie ausfüllen, zum anderen durch die Zeit, über die sie sich erstrecken. Dieses bislang fraglos hingenommene Selbstverständnis bezüglich traditioneller Grenzziehungen sozialer Raum-Zeit-Strukturen scheint im Wandel begriffen. Gesellschaft und Natur gehen, vermittelt über Technologie, ineinander auf. Vordem getrennte Lebenswelten überschneiden sich sowohl in ihren räumlichen als auch in ihren zeitlichen Dimensionen. Folgen und Voraussetzungen menschlichen Handelns, die in ihrer Reichweite und Eingriffstiefe durch technische Artefakte maßlos gesteigert werden, überschreiten den Horizont jener Gesellschaften, die ihnen ursprünglich zu Grunde liegen. Durch Information gelingt es, tradierte Raum- und Zeitstrukturen zu überbrücken. Unübersehbar spielt Information in allen Bereichen menschlicher Aktivitäten eine entscheidende, wenn nicht gar die wesentliche Rolle sozialen Geschehens. Soziale Organisationsformen hängen von ihrer Kommunikationsstruktur ab, also davon, wie und welche Nachrichten weitergeleitet, festgehalten und zu weiteren Informationen verarbeitet werden. Es lässt sich, wie gesagt und durchaus mit Blick auf Luhmann und Habermas, zeigen, dass Gesellschaft sich konstituiert und begrenzt durch die Kommunikation, die sie führt, aber, und das vor allem ist entscheidend, eben nicht nur hinsichtlich der Informationsinhalte, die sie austauscht, sondern gerade auch über die Mittel, die diesen Austausch leisten. Dabei können die Mittel den Inhalten nicht als deren bloße materielle Basis äußerlich gegenüber gestellt werden. Vielmehr beeinflussen sie das, was sie transportieren, in erheblichem Ausmaß. Deutlich wird das hinsichtlich der Ebenen des gesellschaftlichen Raumes und der gesellschaftlichen Zeit. So hörte zum Beispiel die homerische Gesellschaft, die auf einer Kultur des gesprochenen Wortes basierte, auf zu existieren durch Einführung und Verallgemeinerung der phönizischen Alphabetschrift. Es entstand buchstäblich ein neuer Mensch (Jaynes 1988; Havelock 1990; Ong 1982). Vernunft trat an die Stelle des Mythos, und die griechische Kultur verbreitete sich über den gesamten Mittelmeerraum. Eine zweite, in ihrer Dramatik vergleichbare Revolution trat durch die Erfindung und Verbreitung des Buchdrucks ein. Die entscheidende
28
Bammé, Berger, Kotzmann
Innovation Gutenbergs bestand darin, die einzufärbende Druckform aus beweglichen Metalltypen zusammenzusetzen, die in beliebiger Anzahl, aber in vollkommen gleicher Gestalt mit Hilfe von Stempel, Matrize und Gießinstrument gefertigt wurden. Die sozialhistorischen Folgewirkungen dieses mechanischen Verfahrens können kaum überschätzt werden. Eine Konsequenz war die voranschreitende Normierung relativ unterschiedlicher regionaler Dialekte zu geregelten „Schriftsprachen“, die die Vorherrschaft des Lateinischen als mehr oder minder einzige Schriftsprache zum Erliegen brachten und später als wesentliches Identitätskriterium für die Abgrenzung aufkommender Nationalstaaten dienten. Eine andere hat wesentlich zur Demokratisierung des kulturellen Lebens beigetragen. Soziale Erneuerungsbewegungen wie die Reformation wären ohne das massenhaft verbreitete Medium „Buch“ gar nicht denkbar. Die für Pietismus und Erweckungsbewegung typische Bibellektüre und Bibelinterpretation unter Ausschaltung amtlich besoldeter Kirchenautoritäten bedeutete zugleich eine Profanisierung und Demokratisierung des Sakralen durch die Bürger selbst, vergleichbar der Inbesitznahme der Schrift durch die Kaufleute, Handwerker und Soldaten des klassischen Griechentums, und korrespondierte mit dem, was Max Weber so griffig als „die protestantische Ethik und den Geist des Kapitalismus“ bezeichnete. Wichtige Einschnitte ergaben sich weiterhin durch die Einführung und Verbreitung des Telefons, des Rundfunks, des Fernsehens und der Xerographie (McLuhan 1995). Als revolutionär und in seinen Auswirkungen auf Kultur und Gesellschaft noch gar nicht absehbar dürften sich die Miniaturisierung und Digitalisierung der bei der maschinellen Informationsverarbeitung verwendeten Bauelemente und Verfahren erweisen (Drexler 1990; Kurzweil 1999a/b; Schirrmacher 2001). Auf ihrer Basis „entsteht die Netzwerk-Gesellschaft und verbreitet sich auf der Welt als dominierende Gesellschaftsform unserer Zeit. Die Netzwerk-Gesellschaft ist eine Sozialstruktur, die aus Informationsnetzwerken besteht“ (Castells 2001, S. 191). Ebenso bedeutungsvoll wie die sozialen Auswirkungen der Informationstechnologie ist die epistemische Affinität von Informationsund Gentechnologie. Drei Schnittstellen sind entscheidend: „Erstens ist die Gentechnik, rein analytisch betrachtet, eine Informationstechnologie, da sie sich auf die Entschlüsselung und eventuelle Reprogrammierung der DNA bezieht, den Informationscode des Lebens.“ Darüber hinaus besteht zweitens zwischen der Mikroelektronik und der Gentechnologie eine sehr enge instrumentell-technische Beziehung. „Ohne die entsprechende Rechnerkapazität und die Simulationsfähigkeit hoch entwickelter Software wäre das Humangenom-Projekt nie vollendet worden, noch wäre es Wissenschaftlern möglich gewesen, den Sitz und die Funktionen bestimmter Gene herauszufinden.“ Und „drittens besteht eine
Vergesellschaftung durch Information
29
theoretische Annäherung zwischen den beiden technischen Bereichen um das analytische Paradigma, das auf Vernetzung, Selbstorganisation und nicht vorhersagbaren Eigenschaften basiert“ (Castells 2001, S. 188 f; ferner Dawkins 1996, S. 25 ff). Angesichts der modernen Informations- und Kommunikationstechnologien ist der „Großbefund einer Auflösung der alten Raumbindung“ (Guggenberger 1997, S. 150) schon zum wissenschaftlichen Gemeinplatz geworden. So stimmen zum Beispiel Rifkin (2000) und Guéhenno (1994), zwei Autoren, die in ihrer politischen Bewertung gesellschaftlicher Zukünfte wohl gegensätzlicher nicht sein könnten, darin überein, dass traditionale territoriale Grenzziehungen zunehmend an Bedeutung verlieren. Das „Territorium“ und die räumliche Nähe werden zunehmend belangloser: Wir werden uns in einem abstrakten Raum bewegen, mit einer veränderten Wahrnehmungsstruktur. „Nicht die Herrschaft über ein Territorium ist fortan wichtig, sondern der Zugang zu einem Netz“ (Guéhenno 1994, S. 26). Die Finanzgeschäfte, die vordergründig noch an den großen Börsenplätzen der Welt abgewickelt werden, haben sich schon längst von dem Ort, an dem sie sich vorgeblich befinden, abgelöst, und die elektronisch getätigten Transaktionen haben sich ins Virtuelle abstrahiert. Etwas dramatischer beschreibt Rifkin die Veränderungen des überkommenen Raum-Zeit-Gefüges und ihre Auswirkungen: „Der Wandel vom physischen Raum zum Cyberspace […] stellt den Gesellschaftsvertrag grundsätzlich in Frage.“ Die Vorstellung, dass sich gesellschaftliche Einflussnahme in Zukunft mittels Zugriff auf Informationsnetzwerke realisiert, werde die Dynamik gesellschaftlicher Entwicklungen nicht weniger machtvoll verändern, als es die Vorstellungen von Eigentum und Markt zu Beginn der Neuzeit getan haben. „In dieser neuen Welt, die mit Informationen und Diensten, mit Bewusstsein, Erlebnissen und Erfahrungen handelt, in der das Materielle dem Immateriellen weicht und vermarktete Zeit wichtiger wird als die Aneignung von Raum, verlieren die konventionellen Auffassungen von Eigentumsverhältnissen und Märkten, die das Leben im Industriezeitalter bestimmt haben, immer mehr an Bedeutung“ (Rifkin 2000, S. 23 f).
Technologische Enträumlichung und Verräumlichung Die Mittel der Kommunikation, so hatten wir gesagt, tangieren die Raum- und Zeitstruktur von Gesellschaften in fundamentaler Weise. Die Diagnose, wie sie zum Beispiel von Virilio (1980, 1992) vorgetragen wird, lautet: „Enträumlichung“. Mit der technologischen Enträumlichung
30
Bammé, Berger, Kotzmann
menschlicher Lebenswelten gehen aber neue Formen der Verräumlichung einher. Dieser Prozess hat makro- und mikrosoziologische Aspekte. Unter makrosoziologischer Perspektive konstituiert sich, vermittelt über Informations- und Kommunikations-Technologien so etwas wie „Weltgesellschaft“, paradoxerweise obwohl oder weil das Phänomen des (konkreten) Raumes durch genau jene Technologien an Bedeutung verliert. Jedenfalls, und darin ist Luhmann (1975, S. 51 ff) sicher recht zu geben, bildet sie heute ein alle Gesellschaftsgefüge tangierendes Globalsystem, das durch allmähliches Verschwinden territorialer Grenzen und kommunikativer Limitationen gekennzeichnet ist. Um Einzelphänomene der Globalisierung angemessen einordnen zu können, wird die Bezugskategorie in Zukunft „Weltgesellschaft“ lauten müssen. Diese Weltgesellschaft verfügt über einen gewaltigen „Informationsraum“: Um künftig den Internetbenutzern genügend IP-Adressen zur Verfügung zu stellen, arbeitet die ICANN (Internet Cooperation for Assigned Names and Numbers) an der Version 6 der Internet Protokolle. Nach Umstellung der jetzigen Version 4 werden unglaubliche 2128 IPv6-Adressen die Bedürfnisse der User abdecken. Hinter dieser ‚harmlosen’ Darstellung 2128 verbirgt sich eine unvorstellbar große Zahl. Theoretisch ließen sich jedem Quadratmillimeter der Erdoberfläche mehr als 600 Billiarden Adressen zuordnen – derzeit stehen insgesamt gerade einmal 4,3 Milliarden Internetadressen zur Verfügung. Oder: Schätzt man die Zahl der Atome, die ein menschlicher Körper enthält, auf zirka 1028, dann könnte jedes einzelne Atom von 10 Milliarden Menschen mit einer Internetadresse belegt werden. Mikrosoziologisch gesehen verändert die alles durchdringende Vernetzung ganz unterschiedlicher Lebensbereiche mit Hilfe von Mikroprozessoren und Sensoren die räumliche Binnenstruktur der Lebenswelt der davon betroffenen Menschen. Anders als beim Personal Computer (PC), der einem bestimmten Nutzer zugeordnet ist, wird durch eine pervasive bzw. ubiquitäre Computertechnik („pervasive computing“, „ubiquitous computing“) jede Person in ein Netz von Computern eingebettet, die über ein mobiles ad-hoc-Geflecht miteinander kommunizieren (vgl. Hansmann et al. 2003). Erste Anwendungsgebiete einer solchen Umgebungsintelligenz („ambient intelligence“) sind zum Beispiel das intelligente Haus, dessen sämtliche Einrichtungen (Heizung, Küchenmaschinen, Rollläden etc.) sich mit Hilfe mobiler Computer von überall her bedienen lassen und sich adaptiv auf die Bedürfnisse seiner Bewohner einstellen, sowie die effizientere Nutzung der Verkehrsinfrastruktur. Die Nutzung der Computerleistung erfordert nicht mehr Aufmerksamkeit als die Ausführung anderer alltäglicher Tätigkeiten wie Gehen, Essen oder Lesen. Weitere Nutzungsmöglichkeiten eröffnen sich durch tragbare Computersysteme („wearable computing“), die sich während der Anwendung am
Vergesellschaftung durch Information
31
Körper des Benutzers befinden, zum Beispiel Armbanduhren, die ständig den Puls messen, Brillen, deren Innenseiten als Bildschirm dienen, oder Kleidungsstücke, in die elektronische Bauelemente eingearbeitet sind, die unterschiedlichen Zwecken dienen können. Diese tragbare Datenverarbeitung trägt bei zur Umsetzung des „pervasive computing“, das heißt, der Vernetzung von Alltagsgegenständen durch Computer, und des „ubiquitous computing“, also der Allgegenwart von Computern. In diesem Zusammenhang bedeutet „context-awareness“, dass die Gebrauchsgegenstände (Kleidungsstücke etc.) sehr einfach zu bedienen sind und über Funktionen verfügen, die sich sensibel auf den Benutzer und seine Umgebung einstellen können, also sich „bewusst“ sind, in welchem Kontext sie eingesetzt werden. So sollte zum Beispiel ein tragbares Navigationssystem nicht die Eingabe des jeweiligen Standortes voraussetzen, um tätig zu werden, sondern ihn selbständig ermitteln und abhängig von Wetter, Preis und Vorlieben des Nutzers diesen zum gewünschten Ziel führen. Am MIT befindet sich derzeit das Projekt „Oxygen“ in Entwicklung (vgl. http://www.oxygen.lcs.mit.edu). Der Name deutet an, dass ein Informationssystem kreiert werden soll, das uns wie Sauerstoff überall umgibt. Fest installierte und mobile Terminals in der Größe von Mobiltelefonen übernehmen ähnliche Rollen wie Steckdosen und Batterien im Stromnetz. Die Terminals verfügen über keine Tastatur, sondern die Bedienung erfolgt über Touch-Screen, Sprache und Gestik. Insbesondere müssen daher zumindest Elemente auf der semantischen Ebene von Information simulierbar sein, umso mehr als die Mensch-Maschine-Kommunikation auch in verschiedenen Sprachen vor sich gehen kann und das System auch zwischen den verschiedenen Sprachen übersetzen können muss. Dieses System ist in Verbindung mit anderen Technologien zu sehen: mit diversen Haushaltsgeräten, mit Bürotechnologie, mit Verkehrsmitteln und natürlich mit allen Formen der Medientechnik. Die fix installierten Systemteile schaffen eine künstliche Umgebung, die derart vielfältig ist, dass sie als „Lebensraum“ bezeichnet werden kann. Ausgestattet mit Kameras, Mikrofonen, verbunden mit Computern und anderen technischen Geräten können unterschiedlichste Aktivitätsszenarien bewältigt werden. Geschäftsbesprechungen können mittels Oxygen mehrsprachig, detailliert dokumentiert, unter Zuhilfenahme aller Informationen und Unterlagen, inklusive technischer Blueprints, die computerunterstützt adaptiert oder verändert werden können, und unter Einbeziehung nicht anwesender Personen abgehalten werden. Literarisch hat bereits 1969 Oswald Wiener unter dem Namen „bioadapter“ eine weit radikalere artifizielle Umgebung vorweg genommen (Wiener 1985, S. 175). Es geht dabei um einen konkreten technischen Dekonstruktionsprozess des menschlichen Körpers und seiner materiel-
32
Bammé, Berger, Kotzmann
len Umwelt, der in einem solipsistischen Bewusstsein mündet: „… so ruht nun das bewusstsein, unsterblich, in sich selber und schafft sich vorübergehende gegenstände aus seinen eigenen tiefen“ (Wiener 1985, S. 183). Oxygen ist natürlich nicht mit dieser Utopie des „bio-adapters“ vergleichbar. Aber zum einen ist der gemeinsame Grundgedanke der Schöpfung einer globalen Technosphäre zur Befriedigung aller Wünsche erkenntlich. Zum anderen verdrängt ein neuer Trend das klassische Ziel der Artificial-Intelligence-Forschung, Maschinen menschliche Intelligenz zu verleihen bzw. auf Maschinen dieselbe zu simulieren. Es geht nicht mehr um einen Computer, einen Roboter, der als intelligent bezeichnet werden kann, sondern um eine ganze technische Umgebung, in der einzelne Maschinen Funktionen übernehmen können, deren Resultate bislang nur dem intelligenten Tun von Menschen vorbehalten waren. Industrieroboter sind dafür das beste Beispiel: Die Maschine, die etwa Autoreifen montiert, wuchtet das Rad nicht wie ein Mensch auf die Achse, das heißt, mittels einer Feedbackschleife zwischen visuellem Sensor und Steuerung des motorischen Apparats, sondern ihre Optik erkennt genau angebrachte Markierungen und kann dadurch das Rad in einem einzigen präzisen Schwung auf die Achse setzen. Ähnlich der Verkehrsinfrastruktur, ohne die auch das technisch beste Auto nur eingeschränkt benutzbar wäre, muss eine entsprechende Infrastruktur für intelligente maschinengestützte Kommunikations- und Handlungsformen jenseits bzw. unter Einbeziehung vorhandener Nachrichtennetze geschaffen werden. Die Maschine als unabhängiger Automat, dessen Intelligenz die des Menschen noch übertreffen soll, ist ein uralter Traum der Menschheit, ein klassisches Thema der Science-Fiction-Literatur, und weltweit wird in unzähligen Forschungseinrichtungen an der Erfüllung dieses Traums gearbeitet. Aber unabhängig davon gewann ein viel pragmatischerer Ansatz in der Informationstechnologie an Bedeutung: die Integration der bestehenden technischen Netzwerke zu einer gigantischen Technosphäre, die von Seismographen am Meeresgrund bis zu Nachrichtensatelliten im Weltraum reicht und deren Zusammenhalt und Steuerung wohl nur mit innovativen Mitteln der Informationstechnologie möglich sein werden.
Technologische Entzeitlichung und Verzeitlichung Eine weitere Diagnose, wie sie zum Beispiel ebenfalls von Virilio vorgetragen wird, lautet parallel dazu „Entzeitlichung“: Durch die technologische Beschleunigung schrumpfe Zeit auf einen rasenden Punkt zusammen, der keiner Zeitachse mehr folgt. Kritik und Lob der Beschleunigung gehören jedenfalls spätestens seit dem neunzehnten Jahrhundert zum
Vergesellschaftung durch Information
33
kulturellen Fundus der Moderne. Den Problematisierungen der Beschleunigung geht es dabei oft nicht um die äußerliche Wahrnehmung der technisch gesteigerten Geschwindigkeit, sondern um eine tiefgreifende Transformation. Der Primat eines ruhenden Raumes, in dem alle Veränderung stattfindet, wird vom Primat einer Bewegung abgelöst, die Räume sekundär als Abstände gegeneinander verzögerter Prozesse erzeugt (Berger 2006). Oder in der Sprache der Physik formuliert: Der ruhende Raum beschreibt einen relativen Zustand, abhängig vom Beobachterstandpunkt, wogegen die höchste physikalisch mögliche Geschwindigkeit, also die Geschwindigkeit des Lichts im Vakuum, die einzige von allen Beobachtungssystemen unabhängige Größe darstellt. Pragmatischer und mit Blick auf unsere Informationsthematik kann man sagen, dass die zunehmend hohe Geschwindigkeit, mit der umfangreiche Datenpakete gespeichert, transferiert und manipuliert werden, einen Beschleunigungseffekt in vielen Abläufen unserer Lebensbereiche bewirkt. Den Phänomenen der Entzeitlichung entsprechen aber ebenso Prozesse der Verzeitlichung. Auch sie können unter einer Mikro- und einer Makroperspektive betrachtet werden. In vielen der genannten Beispiele haben wir es mit der Vergegenständlichung gesellschaftlicher Integrationsleistungen zu tun, die auch nach ihrem unmittelbaren Gebrauch überdauern, während die formale Infrastruktur einer reinen face-to-face-Kommunikation nach Beendigung des Gesprächs zerfällt. Letztere muss immer wieder neu aufgebaut werden. Es ist genau dieser Sachverhalt, den Latour vor Augen hat, wenn er formuliert, dass ohne die Einbindung von non-humans, insbesondere von Artefakten, kein soziales Leben mehr denkbar sei. Ohne sie würden wir leben wie die Paviane. Latour strapaziert in seinen Beispielen das Sozialleben dieser Primaten gern und reichlich. Es demonstriert ihm, wie eine Gesellschaft aussehen würde, die ausschließlich auf direkter Interaktion beruhen würde. Menschen, im Kontrast dazu, bilden Kommunikationsstrukturen heraus, deren Erhalt nicht von ständiger face-to-face-Präsenz abhängig ist. Soziales Leben in seiner menschlichen Form beruht auf etwas anderem. Dieses „Andere“ sind die „allgegenwärtigen Dinge“. Sie stabilisieren das gesellschaftliche Zusammenleben der Menschen. Wie dieser Sachverhalt in einen solchen der langen Zeitdauer umschlägt und wie natürliche und gesellschaftliche Faktoren in der Technologie synthetisch amalgamieren, wird sehr schön deutlich in dem Zukunftsroman A wie Andromeda (Hoyle und Elliott 1970): In dem zweihundert Lichtjahre von der Erde entfernten Sternbild Andromeda gibt es eine Zivilisation, die ihre Kultur auf ferne Welten ausdehnen will. Direkt hinzureisen ist ausgeschlossen. Zum einen setzt die Lichtgeschwindigkeit der Schnelligkeit, mit der man im Universum von einem Ort zum ande-
34
Bammé, Berger, Kotzmann
ren kommen kann, eine theoretische obere Grenze, und mechanische Erwägungen erzwingen eine sehr viel niedrigere praktische Grenze. Zum anderen wüsste man auch gar nicht, in welche Richtung zu fahren sich lohnen würde. Ein viel besseres Mittel, um sich mit dem Rest des Universums zu verständigen, ist der Funk. Mit seiner Hilfe lässt sich eine große Zahl von Welten erreichen, weil man seine Signale in alle Richtungen, statt nur in eine einzige ausstrahlen kann. Doch es gibt ein technisches Problem. Radiowellen setzen sich mit Lichtgeschwindigkeit fort. Mithin benötigt das Signal zweihundert Jahre, um von Andromeda zur Erde zu gelangen. Eine authentische Unterhaltung zu führen, ist also ganz unmöglich. Jede der von der Erde nacheinander ausgesandten Botschaften würde von Menschen stammen, die zwölf Generationen auseinander liegen. Zweifellos: Obwohl Hoyle, einer der Autoren des Romans, von Hause aus Astronom ist, handelt es sich bei der Andromeda-Geschichte um Belletristik in Reinform. Gleichwohl: Sollten in nicht allzu ferner Zukunft bemannte Raumflüge zum Mars stattfinden, wird sich dieses Problem ebenfalls, wenn auch nicht in solch spektakulärer Weise, stellen. Um die Entfernung zwischen der Erde und dem Mars zurückzulegen, benötigen Radiowellen ungefähr vier Minuten, was zur Folge hat, dass die Raumfahrer an Stelle kurzer abwechselnder Sätze sich langer Monologe bedienen müssen, die eher Briefen ähneln als gesprochener Kommunikation. Die Bewohner von Andromeda in dem von Fred Hoyle und John Elliot gemeinsam verfassten Roman taten genau dasselbe. Da es keinen Sinn hatte, auf eine Antwort zu warten, stellten sie alles, was sie sagen wollten, zu einer ungeheuer langen, ununterbrochenen Botschaft zusammen und sandten sie in einem Rhythmus von mehreren Monaten immer wieder in den Weltraum hinaus. Der Clou des Romans, dessen Ausgang hier nicht verraten werden soll, besteht darin, dass die Botschaft aus verschlüsselten Anweisungen für den Bau eines riesigen Computers bestand. Sie wurden auf der Erde empfangen und entschlüsselt, und der Computer, der darauf programmiert war, die Herrschaft über die Welt an sich zu reißen, wurde gebaut. – Wir haben uns an eine sehr eigenwillige Interpretation der Geschichte angelehnt, die sich bei Dawkins (1978, S. 63 ff) findet, der sie ebenfalls zu didaktischen Zwecken nutzt. Von der Theorie der Selbstreplikation in der Verallgemeinerung, wie Dawkins sie vorgenommen hat, lassen sich recht zwanglos Brücken schlagen zu einer interdisziplinär geführten Diskussion über die soziale Gestaltung der Folgen von technologischen Innovationen, die seinerzeit in exemplarischer Weise von Semiotikern der Technischen Universität Berlin initiiert worden ist. Es ging um die Frage, wie man unsere Nachkommen innerhalb der nächsten zehntausend Jahre verlässlich über die Lagerstätten und Gefahren von Atommüll informieren könne. Eines der
Vergesellschaftung durch Information
35
mit der Lagerung verbundenen Probleme besteht zum Beispiel darin, dass durch plötzliche oder kontinuierliche Veränderungen der geologischen Situation Material, das vorher tief vergraben oder vom Meer bedeckt war, plötzlich zugänglich wird. Eine andere Gefahr liegt in der zufälligen Wiederentdeckung einer zwischenzeitlich in Vergessenheit geratenen Lagerstätte durch Menschen, die nicht auf die Möglichkeit der Strahlung gefasst sind (Bastide und Fabbri 1990, S. 86). Ein weiteres Problem besteht darin, dass sich Sprachen ziemlich schnell verändern. „Das moderne Englisch ist zum Beispiel nicht älter als fünfhundert Jahre und unterscheidet sich sehr stark vom Mittel- und Altenglischen. Nehmen wir eine Konstanz von 81 Prozent des Grundwortschatzes über tausend Jahre an, eine Zahl, die in lexiko-statistischen Studien bestimmt wurde (Swadesh 1952), so wird das Englische im Jahr 12000 nur etwa zwölf Prozent seines jetzigen Basisvokabulars enthalten. Noch geringer wird der Prozentsatz bei komplexeren lexikalischen Einheiten sein“ (Givens 1990, S. 112). Man wird also auf ein anderes Medium als das der natürlichen Sprachen ausweichen müssen. Von der technischen Seite her gibt es grundsätzlich zwei Möglichkeiten der Informationsüberlieferung über die Jahrtausende hinweg. Bei der ersten wird erstarrte, erosionsfreie Materie verwendet. Sie ist in jedem Fall sicherer als eine Speicherung der Botschaft auf elektronischen Datenträgern. Bei der zweiten Möglichkeit wird die Gentechnik in die Lösung des Problems einbezogen. Als Zeichenträger der Mitteilungen an die ferne Zukunft wird eine mathematische Kodierung auf lebendigem Trägermaterial benutzt, das sich wie alle Lebewesen selbsttätig erneuert. Die zweite Lösung ist ein kreisförmiger Selbsterneuerungsprozess, stellt also gewissermaßen eine Nachahmung der Weise dar, auf die in der biologischen Evolution die Erbinformation weitergegeben wird. „Diese Methode darf als das Perfekteste angesehen werden, was uns überhaupt bekannt ist, weil ja der DNA-Kode in seinem Alphabet, seiner Struktur und seiner Semantik heute noch derselbe ist wie vor etwa vier Milliarden Jahren. Hier gibt es allerdings die Schwierigkeit, daß wir heute noch keine Informationsträger nach diesem Muster produzieren können. Ich glaube aber, daß die raschen Fortschritte der Gentechnik diese Möglichkeit bald in den Bereich des Realisierbaren bringen werden“ (Lem 1990, S. 79 f). Die einzige Möglichkeit, technisches Wissen „auf ewig“ zu erhalten, besteht in seiner eigenen Reproduktion, das heißt in der Züchtung von Lebewesen, etwa von Tieren, die durch Genmanipulation in die Lage versetzt werden, bedrohliche radioaktive Strahlung zu überstehen und sie dem Menschen durch visuelle Zeichen, zum Beispiel durch Verfärbung ihres Fells, anzuzeigen. „Damit wir einen effektiven Detektor bekommen, sollte das Tier auf eine Zunahme der Strahlung mit einer merklichen
36
Bammé, Berger, Kotzmann
Änderung reagieren – allerdings nicht mit dem Tode. Der Tod könnte fälschlicherweise als natürlicher Tod gedeutet werden, der zufällig auftritt“ (Bastide und Fabbri 1990, S. 88). Weil Reproduktion ohne besondere äußere Motivation eine Eigenschaft von Leben ist, sei ein solcher lebender Strahlendetektor die optimale Lösung des Problems. Damit seine Trägerspezies nicht ausstirbt, müsse aber eine passende ökologische Nische geschaffen werden. Und welche Nische sei besser geeignet als die des Menschen selbst. Es sei deshalb eine Wahl zu treffen zwischen den vielen Tieren, die bislang durch den Menschen erhalten worden sind. Aus verschiedenen Gründen sei die Verwendung von Kleinlebewesen, Bakterien oder Viren nicht zielführend, wird argumentiert. Wenn hingegen „der Detektor ein nettes, wenig anspruchsvolles und freundliches Tier wäre, zum Beispiel eine Katze, die als Hausgenossin schon von den alten Ägyptern geschätzt wurde, so ist es wahrscheinlich, daß die Nachkommen seiner Art über die Jahrtausende fortdauern könnten. Die Tierart sollte einen sorgfältig gewählten Namen bekommen, der gleichzeitig suggestiv und rätselhaft ist. Er sollte die Neugierde neuer Generationen erregen. So könnten etwa durch die Erläuterung des Namens »Strahlenkatze« (engl. »ray cat«, frz. »radiochat«) die Detektor-Fähigkeiten des Tieres tradiert werden“ (ebd., S. 89). Sollten sich die Kosten für Raumflüge in Zukunft nicht drastisch senken lassen, so dass es auch mittelfristig nicht möglich ist, den radioaktiven Müll mit der Schubkraft von Raketen ins Weltall zu schleudern, bleibt kaum eine andere Möglichkeit übrig, als solche Zeiten überdauernde Hinweise auf die Gefahrenquelle zu implementieren.
Technologie: Gesellschaft und Natur Technologie ist Gesellschaft, auf Dauer gestellt, sagt Latour (1991). Und es ist genau dieser Sachverhalt, der Lorentzen (2002) dazu treibt, den kommunikationstheoretischen Soziologismus Luhmanns mit dem postsoziologischen Ansatz Latours zu verknüpfen. Er kann das, weil Luhmann seine Theorie nicht als „Menschenwissenschaft“, sondern als Wissenschaft von den sozialen Systemen konzipiert hat, weil es bei ihm nicht um „subjektiv gemeinten“, sondern um „objektiv prozessierten“ Sinn geht, also nicht um substanziell, sondern funktional gefasste Bewusstseinszustände. Zunächst bescheinigt Lorentzen dem Bielefelder, dass er die „Selbstreferenz des Sozialen“, um die es der Soziologie seit Durkheim immer zu tun war, in seiner Theorie sozialer Systeme endlich auf den Begriff gebracht habe: „Die überragende Bedeutung, die Luhmann in der zeitgenössischen Sozialtheorie zukommt, verdankt sich zum einen seiner Aus-
Vergesellschaftung durch Information
37
arbeitung des fachklassischen Konzepts der sozialen Differenzierung, zum anderen der eigentlich soziologischen Erschließung des Kommunikationsbegriffes. Sozialsysteme beschreiben sich zwar als Handlungszusammenhänge, konstituieren sich jedoch elementar als emergente Kommunikationen selbstreferentiellen Zuschnitts. Hierbei erwies sich der Nachweis der operativen Getrenntheit von psychischen Ereignissen (= Gedanken) und sozialen Ereignissen (= Kommunikationen), die gleichwohl im Supermedium Sinn gekoppelt sind, als bahnbrechende Schlüsselerkenntnis“ (Lorentzen 2002, S. 102). Soziologischer als Luhmann könne man nicht denken. Allerdings, so schränkt Lorentzen ein, stelle die damit einhergehende „Übersoziologisierung“ bei der Formatierung des Technikbegriffs in der Bielefelder Systemtheorie ein Problem dar. Die kulturelle Medialität von (Sach-) Technik trete in der Regel nämlich in Verbindung mit handfester Materialität auf, ein Umstand, mit dem Luhmanns Sozialkonstruktivismus nicht so recht umzugehen wisse. Wenn nämlich die anstößige Materialität der Technik einfach der Umwelt des Sozialsystems zugeschlagen werde, dann falle mit der sozialen Eigentümlichkeit der Technik ein soziologisch zu bearbeitendes Themenfeld ersatzlos unter den Tisch, und die Plausibilität der soziologischen Supertheorie für einen zeitdiagnostisch zentralen Problemzusammenhang stünde in Frage. Deshalb, so Lorentzen, müsse disziplinübergreifend nachgebessert werden. Ebenso wenig wie die Modesoziologie davon abstrahieren könne, dass es neben der eigentlich modischen kulturellen Medialität auch ein ressourcenhaft materielles Moment von Kleidung gibt im Sinne dessen, was wärmt und sich befühlen lässt, könne eine Soziologie der Technik es sich leisten, aus Ordnungserfordernissen der Theoriebildung die Handfestigkeit der (Sach-) Technik auszugrenzen (ebd.). Eine Technik, gar eine Technologie der Gesellschaft als soziales Subsystem, vergleichbar etwa dem der Wirtschaft, gibt es nicht. Daran ist Luhmann sicher Recht zu geben. Recht zu geben aber nicht in den Schlussfolgerungen, die er daraus zieht, wenn er die Technologie in die Umwelt der Gesellschaft verbannt. Denn das genaue Gegenteil ist der Fall: Technologie ist Gesellschaft. Mit Latour zu sprechen: „Technology is society made durable“ (1991). Mit Hilfe der Technologie gelingt es dem Menschen endgültig, die natürlichen Begrenzungen seiner individuellen Raum-Zeit-Struktur zu überwinden und ein Beziehungsgeflecht zu etablieren, das dauerhafter ist als die ad-hoc-Arrangements der face-to-faceKommunikation. Das geschieht auf Basis einer umfassenden Technologisierung der Lebenswelt des Menschen, durch die tradierte Dualismen eingeebnet werden. Neben der Gen- und Reproduktionstechnologie, der Nanotechnologie und der Weltraumforschung spielt die Informations- und Kommunikationstechnologie dabei eine zentrale Rolle (Kaku 1998; Dyson
38
Bammé, Berger, Kotzmann
2000). Modische Akronyme wie Bionik, Sozionik oder GNR-Technologie (Genetik, Nanotechnologie und Robotik) verweisen auf diesen Sachverhalt, ein Tatbestand, der auch für Kultur- und Sozialwissenschaftler zur ständigen Herausforderung wird. Denn gemeinsam ist all diesen Technologien, dass sie die alte philosophische Frage nach der Identität des Menschen, nach dem, was der Mensch sei, erneut auf die Tagesordnung setzen. Aber sie stellen sie auf einer historisch neuen Stufe der Auseinandersetzung des Menschen mit seiner Umwelt. Sie formulieren diese Frage nicht kontemplativ, sondern handlungspraktisch. Mit den Technologien, die wir heute entwickeln, entwerfen wir gesellschaftliche Zukünfte. Der sozialhistorische Übergang von der eher kontemplativ-philosophischen Auseinandersetzung des Menschen mit den Geheimnissen der Welt zu ihrer handlungspraktischen Um- und Neukonstruktion nimmt, auf erweiterter sozialer Stufenleiter, die Form eines gigantischen wissenschaftlichen Experiments an (vgl. Klagenfurt 1995, S. 7). Zukunftsszenarien stellen sich deshalb oft als Horrorvisionen dar. Was dabei nur allzu gern vernachlässigt wird, ist, dass sich die Gesellschaft und die Menschen in ihr mit der Technologie, die sie entwickeln, selbst verändern.
Literatur Aunger, Robert (2000), Hg.: Darwinizing Culture: The Status of Memetics as a Science. Oxford: Oxford University Press. Bastide, Françoise und Paolo Fabbri (1990): „Lebende Detektoren und komplementäre Zeichen: Strahlenkatze, brechendes Auge und Atomsirene“. In: Posner (1990), S. 85-94. Berger, Wilhelm (2006): Philosophie der technologischen Zivilisation. München: Fink. Blackmore, Susan (2000 [1999]): Die Macht der Meme oder Die Evolution von Kultur und Geist. Heidelberg und Berlin: Spektrum. Castells, Manuel (2001 [2001]): „Informationalismus und die NetzwerkGesellschaft“. In: Pekka Himanen, Hg.: Die Hacker-Ethik und der Geist des Informations-Zeitalters. München: Riemann, S. 179-204. Dawkins, Richard (1978 [1976]): Das egoistische Gen. Berlin, Heidelberg, New York: Springer. Dawkins, Richard (1996 [1995]): Und es entsprang ein Fluss in Eden. Das Uhrwerk der Evolution. München: Bertelsmann. Dennett, Daniel C. (1997 [1995]): Darwins gefährliches Erbe. Die Evolution und der Sinn des Lebens. Hamburg: Hoffmann und Campe. Drexler, K. Eric (1990 [1986]): Engines of Creation. New York: Anchor. Drexler, K. Eric (1992): Nanosystems. Molecular Machinery, Manufacturing, and Computation. New York: Wiley.
Vergesellschaftung durch Information
39
Dyson, Freeman J. (2000 [1999]): Die Sonne, das Genom und das Internet. Wissenschaftliche Innovationen und die Technologien der Zukunft. Frankfurt am Main: Fischer. Flusser, Vilem (1998 [1996]): Kommunikologie. Frankfurt am Main: Fischer. Givens, David B. (1990): „Was wir aus der Menschheitsgeschichte lernen können“. In: Posner (1990), S. 95-122. Greif, Hajo (2005): Wer spricht im Parlament der Dinge? Über die Idee einer nichtmenschlichen Handlungsfähigkeit. Paderborn: mentis. Guéhenno, Jean-Marie (1994 [1993]): Das Ende der Demokratie. München und Zürich: Artemis & Winkler. Guggenberger, Bernd (1997): „Grenzenlose Technik – Wiederaneignung des Raums“. In: Ernst Ulrich Weizsäcker, Hg.: Grenzenlos? Berlin, Basel, Boston: Birkhäuser. Hansmann, Uwe, Lothar Merk, Martin S. Nicklous und Thomas Stober (2003): Pervasive Computing – The Mobile World. Berlin: Springer. Havelock, Eric A. (1990 [1982]): Schriftlichkeit. Das griechische Alphabet als kulturelle Revolution. Weinheim: VCH. Havelock, Eric A. (1992 [1986]): Als die Muse schreiben lernte. Frankfurt am Main: Hain. Hoyle, Fred und John Elliot (1970 [1962]): A wie Andromeda. Geheimbotschaft aus dem All. Frankfurt am Main: Fischer. Jaynes, Julian (1976 [1988]): Der Ursprung des Bewusstseins durch Zusammenbruch der bikameralen Psyche. Reinbek: Rowohlt. Kaku, Michio (1998 [1997]): Zukunftsvisionen. Wie Wissenschaft und Technik des 21. Jahrhunderts unser Leben revolutionieren. München: Lichtenberg. Kiss, Gábor (1987): Paradigmawechsel in der Kritischen Theorie: Jürgen Habermas’ intersubjektiver Ansatz. Stuttgart: Enke. Kiss, Gábor (1990): Grundzüge und Entwicklung der Luhmannschen Systemtheorie. Stuttgart: Enke. Klagenfurt, Kurt (1995): Technologische Zivilisation und transklassische Logik. Eine Einführung in die Technikphilosophie Gotthard Günthers. Frankfurt am Main: Suhrkamp. Kurzweil, Ray (1999a [1999]): Homo s@piens. Leben im 21. Jahrhundert. Köln: Kiepenheuer & Witsch. Kurzweil, Ray (1999b): „Was bleibt vom Menschen?“ Die Zeit 61/46, 11. November: 6-7 (Beilage). Latour, Bruno (1991): „Technology is society made durable“. In: John Law, Hg.: A Sociology of Monsters. London: Routledge, S. 103-131. Latour, Bruno (1998 [1991]): Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Frankfurt am Main: Fischer. Law, John und John Hassard (1999), Hg.: Actor Network Theory and After. Oxford: Blackwell. Lem, Stanisław (1990): „Kodierung auf lebendem Trägermaterial“. In: Posner (1990), S. 79-83. Lorentzen, Kai F. (2002): „Luhmann goes Latour – Zur Soziologie hybrider Beziehungen“. In: Werner Rammert und Ingo Schulz-Schaeffer, Hg.:
40
Bammé, Berger, Kotzmann
Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt am Main, New York: Campus. Luhmann, Niklas (1975): „Weltgesellschaft.“ In: ders.: Soziologische Aufklärung. Band 2: Aufsätze zur Theorie der Gesellschaft. Opladen: Westdeutscher Verlag, S. 51-71. McLuhan, Marshall (1995 [1962]): Die Gutenberg-Galaxis. Das Ende des Buchzeitalters. München: Econ. Ong, Walter J. (1987 [1982]): Oralität und Literalität. Die Technologisierung des Wortes. Opladen: Westdeutscher Verlag. Posner, Roland (1990), Hg.: Warnungen an die ferne Zukunft. Atommüll als Kommunikationsproblem. München: Raben. Rifkin, Jeremy (2000 [2000]): Access. Das Verschwinden des Eigentums. Frankfurt am Main, New York: Campus. Schirrmacher, Frank (2001), Hg.: Die Darwin AG. Wie Nanotechnologie, Biotechnologie und Computer den neuen Menschen träumen. Köln: Kiepenheuer & Witsch. Swadesh, Morris (1952): „Lexico-Statistic Dating of Prehistoric Ethnic Contacts“. Proceedings of the American Philosophical Society 96: 452-463. Virilio, Paul (1980): Geschwindigkeit und Politik. Berlin: Merve. Virilio, Paul (1992): Rasender Stillstand. München und Wien: Hanser. Wiener, Oswald (1985): Die Verbesserung von Mitteleuropa. Reinbek: Rowohlt.
Die Henne, modernes Bewusstsein, das Ei moderne Technik? László Böszörményi*
[...] brauchbar ist eine Maschine erst dann, wenn sie von der Erkenntnis unabhängig geworden ist, die zu ihrer Erfindung führte. So vermag heute jeder Esel eine Glühbirne zum Leuchten zu bringen – oder eine Atombombe zur Explosion. [...] Unsere Wissenschaft ist schrecklich geworden, unsere Forschung gefährlich, unsere Erkenntnis tödlich. Friedrich Dürrenmatt: Die Physiker
Im Folgenden versuche ich meine Ideen in Kurzform – in Form einer Reihe von kurz kommentierten Fragen – zusammenzufassen. Die Grundfrage ist im Titel schon formuliert: Was für ein Bewusstsein hat die moderne Technik hervorgerufen, und welche Wirkung hat die durch Technik geprägte Welt auf die Weiterentwicklung des Bewusstseins? 1.
Gibt es überhaupt eine Entwicklung der Menschheit?
Auf diese Frage gibt es offensichtliche Antworten, wenn man die Äußerlichkeiten in Betracht zieht. Natürlich sieht eine Stadt von heute anders aus als vor etwa 2000 Jahren, sogar die Felder und die Wälder schauen mit Sicherheit anders aus. Die eigentliche Frage ist aber: Was steckt dahinter, oder anders formuliert: 2.
Gibt es Entwicklung im Bewusstsein der Menschheit?
Die Begriffs- und Vorstellungswelt eines heutigen Erwachsenen unterscheidet sich sicherlich von der eines Griechen zu Zeiten von Sokrates. Die eigentliche Frage ist aber: War das Bewusstsein etwa der alten Griechen qualitativ anders als das unsrige? Ich vermute, ja. Diese Vermutung wird einerseits durch Schriften wie die Homerischen Epen oder das Alte Testament ziemlich gut nachvollziehbar unterstützt. Sie wird auch dadurch untermauert, dass es auch heute bestimmte Bewusstseinszustände *
Institut für Informationstechnologie (ITEC), Universität Klagenfurt.
42
Böszörményi
gibt, die sich von den unseren qualitativ stark unterscheiden. Und zwar nicht nur bei Völkern, die noch in mehr oder weniger ungestörten archaischen Verhältnissen leben, sondern bei einer Menschengruppe, die uns allen ganz nahe steht: bei den kleinen Kindern. Ein Kind vor und während des Sprechenlernens lebt in einem ganz anderen Bewusstsein – und damit in einer ganz anderen Welt – als die Erwachsenen. Wäre das nicht so, könnten die Kinder das völlig unerklärbare Wunder des Erlernens der ersten Sprache nie zustande bringen. Wenn sich aber das Bewusstsein der Menschheit durch die Jahrhunderte qualitativ geändert hat, dann stellt sich die nächste Frage: 3.
Haben wir das Ende der Entwicklung erreicht?
Auch wenn wir oft das Gefühl haben, dass die Zeit der ‚Götterdämmerung’ immer wieder eine Art ‚Weltuntergangs-Stimmung’ hervorruft, hätte man doch ein schlechtes Gefühl dabei zu behaupten: Ja, die Welt hat gerade in uns ihren perfekten Endzustand erreicht, eine Weiterentwicklung des Bewusstseins ist nicht mehr möglich. Es könnte sich vielmehr darum handeln, dass die spontane, ohne eigene Anstrengung erreichte Entwicklung zu einem Endpunkt gekommen ist. Das muss aber nicht bedeuten, dass wir selber an dieser Entwicklung nicht arbeiten könnten und sollten. Ein Bewusstsein, das seiner selbst bewusst ist, müsste die Verantwortung für sich selbst übernehmen. Wenn das so ist, dann stellt sich die Frage: 4.
Gibt es eine wichtigere Aufgabe für die Wissenschaft, als der Frage der möglichen Weiterentwicklung des Bewusstseins nachzugehen?
Wieso beschäftigen wir uns mit allen möglichen Sachen, nur mit dieser Frage nicht? Welcher Naivität unterliegt das sonst so kritische wissenschaftliche Denken in diesem Punkt? Dazu müssen wir uns zuerst einige Fragen in Bezug auf das eigene, aktuelle Bewusstsein stellen. 5.
Was charakterisiert das ‚moderne’ Bewusstsein, das Bewusstsein der Erwachsenen des wissenschaftlichen Zeitalters?
Das moderne Bewusstsein ist dualistisch. Es wird dadurch geprägt, dass es sein Licht aus dem Denken und seine Empfindung der Realität aus der Wahrnehmung erhält. Wir haben keine Erfahrung unseres eigenen, aktuellen Denkens, weil wir damit völlig eins sind. Wir können aber auf die Produkte des Denkens, auf unsere Gedanken schauen und daraus letztlich auch folgern, dass diese Gedanken aus einem aktuellen, gegenwärti-
Die Henne, modernes Bewusstsein, das Ei moderne Technik?
43
gen Denken stammen. Die Gegenwart des Denkens wird aber nicht zur Erfahrung – und das ist die Quelle sehr vieler Missverständnisse. Wir erfahren nicht, wie unsere Gedanken entstehen, woher sie kommen. Wir schauen nur auf die Vergangenheit unseres Denkens. Es gibt aber keinen Grund anzunehmen, dass es prinzipiell unmöglich sei, die Gegenwart des Denkens zu erfahren. Die Schwierigkeit ist eher praktisch und liegt in der Schwäche der Aufmerksamkeit, die zunächst nicht die Kraft hat, das Licht des Denkens auszuhalten. Das aktuelle Denken muss zuerst absterben – in den Gedanken –, um von unserer Aufmerksamkeit ertragen werden zu können. Muss das so sein, oder ist das nur ein Kennzeichen der aktuellen Entwicklungsphase unseres Bewusstseins? Die Wirklichkeitsempfindung, die mit jeder Wahrnehmung verbunden ist, lässt uns leicht glauben, dass, während das Licht (die Wahrheit) in uns drinnen, die Wirklichkeit draußen liegt. Diese Trennung von Wahrheit und Wirklichkeit macht das Wesentliche des dualistischen Bewusstseins aus. Das kleine Kind lebt noch in einem nicht-dualistischen (monistischen) Bewusstsein, das aber – gerade in dieser Phase – noch kein Selbstbewusstsein ist. Mit der Entstehung des Selbstbewusstseins entsteht die Trennung, eigentlich gleich mehrere Trennungen, wie die von Wahrheit und Wirklichkeit, ich und Welt, Sprechen und Denken (wodurch das Lügen erst möglich wird) und noch einiges mehr. Es ist anzunehmen, dass das ‚archaische’ Bewusstsein viel mehr einheitlich, eines ‚erkennenden Fühlens’ fähig war. Die unwahrscheinlichen und unerklärlichen Leistungen der alten Technik und Kunst deuten zum Beispiel auf ein solches, von dem unseren stark abweichendes Erkennen hin. Bei uns hat das Fühlen – abgesehen von seltenen Momenten der vertieften Kunstbetrachtung und der uneigennützigen Liebe – keinen erkennenden, sondern vielmehr einen ‚genießenden’ Charakter, wie in Mensch und Übermensch von George Bernhard Shaw brillant dargestellt wird: Komtur: „Ich brauche nicht zu begreifen, warum ich genieße. Ja, ich ziehe es sogar vor, es nicht zu begreifen. Meine Erfahrung lehrt mich, dass unsere Vergnügungen nicht vertragen, dass wir über sie nachdenken.“ Don Juan: „Deshalb ist der Verstand so unbeliebt.“
Es stellt sich jedenfalls die nächste Frage: 6.
Wann und wie ist die ‚heutige’ Bewusstseinsstruktur entstanden?
Die Wiege des naturwissenschaftlichen Denkens liegt vermutlich in der Scholastik. Dort haben sich einerseits die hervorragenden Denkschulen (wie die von Thomas von Aquin) entwickelt, und es hat sich andererseits
44
Böszörményi
der nominalistische Standpunkt, die Neigung zur Abstraktion immer mehr durchgesetzt. In alten Kulturen hatten zum Beispiel noch manche Zahlen eine erlebbare Qualität (zum Beispiel in der Schule von Pythagoras). Die Zahl 1 war göttlich, stand für die alles umfassende Einheit. Die Zahl 2 war hingegen diabolisch, stand für die Trennung, Zweifel, Verzweiflung (wie das in vielen Sprachen überliefert ist: doubt, kétség etc.). Die Zahl 3 stand wiederum für Einheit, für Wiedervereinigung, wie das auch in der christlichen Mystik (Dreifaltigkeit) überliefert wurde. Solche erlebte Qualität macht die Mathematik einerseits zu einem Mittel der Gottessuche, schränkt sie andererseits jedoch in ihrer Freiheit ein. Erst die völlige Abstraktion erlaubt ein freies Hantieren mit den Zahlen – und praktisch mit allen anderen Begrifflichkeiten auch. Damit erhält die Wissenschaft einen unglaublichen Aufschwung – auf Kosten des Verlusts vieler Qualitäten. Alles kann in Frage gestellt werden, nichts ist mehr evident. Die Welt verliert jeden inhärenten Sinn. Damit ruft sie nach einer Sinn gebenden Instanz – nach Menschen, die ihr Sinn geben. Der bis jetzt bekannte Höhepunkt der Abstraktion ist zweifelsohne die Digitalisierung, die Automatisierung gewisser mathematischer Vorgänge. 7.
Was bedeutet die Digitalisierung?
Der Computer ist die rein mathematische Maschine. Wir sehen von den physikalischen Qualitäten der Bausteine (zum Beispiel Halbleiter-Komponenten) ab, wir wollen nur die berechenbaren Eigenschaften (etwa Einund Ausschalten) beibehalten. Bilder zum Beispiel werden im Computer als eine Matrix von Bildpunkten dargestellt. Das ist rein technisch gesehen von großem Vorteil – die Bildpunkte können ganz einfach auf einen Speicherbereich abgebildet und auf ein Darstellungsgerät (Bildschirm) übertragen werden. Sie können in beschränktem Ausmaß auch bearbeitet werden, etwa auf der Ebene von Farbe, Textur und Konturen. Auf der anderen Seite ist es klar, dass bei einer Menge von Bildpunkten praktisch jeglicher Bezug zum ursprünglichen, vom Menschen wahrgenommenen Bild verloren geht. Ganze Reihen von Verfahren der Bildanalyse beschäftigen sich damit, wie man aus der Punktemenge wieder zu einer Bedeutung, zur ‚Semantik’ gelangt. Das gelingt manchmal sogar verblüffend gut – es ist aber trotzdem nicht einmal annähernd vergleichbar mit dem kontinuierlichen und mehrfach unendlichen Bildeindruck der menschlichen Wahrnehmung. Die philosophischen Probleme fangen dort an, wo dieser nicht nur quantitative, sondern auch qualitative Unterschied vergessen wird. Der Computer ist die verkörperte Abstraktion, der konsequent durchgeführte Nominalismus.
Die Henne, modernes Bewusstsein, das Ei moderne Technik? 8.
45
Wie wirkt die Digitalisierung auf das Bewusstsein zurück?
Im Digitalcomputer wurde viel menschliches Verhalten nachgeahmt. Damit sind wir mit der Erkenntnis konfrontiert, dass vieles in uns nach berechenbaren Schemata abläuft. Das ruft in vielen eine Bewunderung, in anderen einen Hass gegenüber dieser Technik hervor. Die Bewunderung gilt dem Komfort, der Hass der Rückwirkung, die die mechanische Seite in uns zu verstärken scheint. Die wahre Chance in dieser Lage bestünde darin, die Frage zu stellen: Was in uns ist es, das nicht mechanisch-digital nachgeahmt werden kann? Wenn wir dieser Frage nachgehen würden, könnten wir vielleicht richtungweisende Erkenntnisse gewinnen. Wir könnten zum Beispiel erkennen, dass die Fähigkeit des Menschen, etwas ganz Neues zu denken, manchmal sogar auf ganz neue Weise zu fühlen, jeder mechanischen Abbildung widerstrebt. Mit dieser Erkenntnis könnten wir uns aus dem Dilemma der Technikfreundlichkeit vs. -feindlichkeit befreien. Und es taucht die nächste Frage auf: 9.
Woher nimmt die technisch-technologische Entwicklung ihre Ideale?
Man spricht oft von „Folgenabschätzung“ der Technologie. Es wird seltener die Frage gestellt: Was ist vorher, welche Ideale leiten die technologische Entwicklung? Im Alltag der technischen Forschung scheinen die Ideen aus der Technik selber zu kommen. Es werden in der Tat sehr oft schon vorhandene Techniken verfeinert und weiterentwickelt. Woher kommen aber die Grundideen der großen Entdeckungen? Um Technik auf hohem Niveau zu betreiben, kann der Verstand zweifelsohne nicht ‚unbeliebt’ sein. Stammen aber ihre Inspirationen auch aus dem Verstand, oder eher aus dem Genuss-Bereich? Es ist jedenfalls bedenklich, dass ein sehr großer Teil der Industrie mit der Herstellung von Produkten und Dienstleistungen beschäftigt ist, die bestenfalls unnötig, viel häufiger jedoch nachweislich schädlich für den Leib und/oder die Seele sind (damit ist gar nicht nur die Herstellung von Waffen gemeint, ein sehr großer Teil der Unterhaltungs- und Konsumindustrie gehört auch dazu). 10. Kann es eine neue Wissenschaft, eine neue Technik geben? In der Technik erzeugen wir Gegenstände, die dem praktischen Nutzen dienen – im Gegensatz zu den kultischen Gegenständen, die eine Bedeutung tragen, die in gewisser Hinsicht ‚sprechen’. Die meisten einfachen Gegenstände haben einen kultischen Ursprung: Der Tisch stammt vom Altar ab, der Stuhl vom Thron und so weiter. Die wirklich moderne Einstellung wäre nicht, den technischen Fortschritt in seinen schon bekann-
46
Böszörményi
ten Bahnen bis zum Gehtnichtmehr weiter zu verfeinern. Eine neue Wissenschaft müsste sich ihrer Wurzeln, der Quellen des Erkennens widmen. Sie müsste versuchen, auch die Natur anders zu deuten als bisher, mehr lesend als messend. Wenn der Mensch seine Erkenntnisprozesse miterleben, das Gegebenwerden seiner Gedanken und Wahrnehmungen zur Erfahrung machen würde, würde er in einer ganz anderen Welt leben. Er würde die Erkenntnis nicht nur erleiden, sondern mitgestalten. Ein Bewusstsein, das nur seine vergangenen Produkte sieht, verfällt leicht darauf, die Welt als hoffnungslos zu empfinden. Ein Bewusstsein, das die eigene Gegenwart aushält, könnte eine neue, viel verständnisvollere Wissenschaft aufbauen. Daraus könnte auch eine menschenfreundliche Technik abgeleitet werden, die zwar den Menschen von seinen mechanischen Lasten weitgehend befreit, ihm aber gleichzeitig hilft, seinem Leben einen neuen, erfüllenden und vielleicht beglückenden Sinn zu geben. Es bestünde die Chance auf eine Technik, welche die Umwelt nicht zerstört, weil sie die Bedürfnisse der Natur kennt (oder zumindest ahnt) und berücksichtigt; eine Technik, die sich nicht durch die fortlaufende quantitative Erhöhung von Kennzahlen (etwa Geschwindigkeit von Computer-Komponenten) definiert, sondern die manchmal auch verzichten, sich zurückziehen kann; eine Technik, die unnötige Komplexität und Unverständlichkeit vermeidet; eine Technik, die nicht notwendigerweise „von der Erkenntnis, die zu ihrer Erfindung führte“ unabhängig wird; eine Technik, die ihre Ideale nicht nach dem (genussvollen) Wahnsinn, sondern nach den wirklich dringlichen Bedürfnissen der Menschen ausrichtet. Und so ist denn die sinnlose Welt für ihn gerade die allein sinnvolle Welt. Nikolai Hartmann
Teil II: Handlungsfähigkeit
Information und technologische Handlungsfähigkeit Hajo Greif, Oana Mitrea und Matthias Werner*
Zum Begriff der Information Möchte man etwas Gehaltvolles zum Thema „Information und Gesellschaft“ oder gar „Informationsgesellschaft“ sagen, lässt man sich zwangsläufig auf zwei semantisch und normativ hochgradig aufgeladene Begriffe und die möglichen Unklarheiten ihrer Beziehung zueinander ein. Selbst wenn man die Gesellschaft erst einmal in guter Hoffnung in ihrer semantischen Black Box belässt und sich auf den Begriff der Information beschränkt, bleibt die Zahl der Definitionsangebote unübersichtlich und ihr Beitrag zur Klärung oft fraglich, zumal Alltagssprache und die Fachterminologien der unterschiedlichen Disziplinen jeweils unterschiedliche Vorstellungen von der Bedeutung von „Information“ haben (vgl. Kuhlen 2004). Wir möchten in unserem programmatischen Essay1 eine in unterschiedliche Richtungen anschlussfähige Annäherung an das Verhältnis zwischen Information und Gesellschaft herausarbeiten und dessen Implikationen für das Handeln von Akteuren in einer Informationsgesellschaft prüfen. Wir haben uns bei diesem Versuch von der Idee leiten lassen, gerade von den üblichen sozialwissenschaftlich-kommunikationsorientierten Definitionen des Informationsbegriffs einerseits und seinen Bestimmungen und Verwendungen in Informatik und Informationstechnik andererseits abzusehen, deren stillschweigende Voraussetzung auf beiden Seiten gerne zu Verwirrungen und Missverständnissen führt. Aus diesem Grund haben wir nach einer einigermaßen schlanken, wohldefinierten und voraussetzungsarmen, aber im Detail dennoch subtilen Definition von „Information“ gesucht und dabei berücksichtigt, dass diese Bestimmung, * 1
Institut für Technik- und Wissenschaftsforschung, Universität Klagenfurt und Interuniversitäres Forschungszentrum für Technik, Arbeit und Kultur (IFZ), Graz. Dieser Text entstand als erste theoretische Selbstverständigung einer neu gegründeten Forschungseinheit (bestehend aus einem Philosophen, einer Soziologin und einem Politologen) zur „Partizipativen Technikgestaltung im Bereich der Informations- und Kommunikationstechnologien“, die an der Schnittstelle zwischen Technik- und Sozialwissenschaften operieren soll.
50
Greif, Mitrea, Werner
um der Erklärung von Information als Gegenstand und Bestandteil gesellschaftlichen Handelns willen, sowohl von funktionaler Art sein sollte, also eher auf die Rolle als auf die innere Beschaffenheit von Informationen abhebt, als auch einen expliziten Bezug auf Handlungen aufweisen sollte. Ohne damit einer simplen Naturalisierung gesellschaftlicher Phänomene das Wort reden zu wollen, haben wir einen biologisch-naturalistischen Begriff von Information, der diesen Kriterien gerecht wird, als Ausgangspunkt unserer Überlegungen gewählt. In einem mittlerweile klassischen philosophischen Beitrag zur theoretischen Diskussion des Informationsbegriffs, Fred Dretskes Knowledge and the Flow of Information (1981), erscheint Information als eine bestimmte Art von stabiler und eindeutiger Korrelation zwischen zwei Sachverhalten A und B (Dingen, Eigenschaften, Ereignissen oder eine Kombination von solchen), die gemäß logischer bzw. naturgesetzlicher Notwendigkeit – oder zumindest gemäß historisch etablierter statistischer Regelmäßigkeiten (Millikan 2004) – besteht, von einem System interpretiert werden kann und bei ihm ein Verhalten C bzw. dessen Anpassung veranlasst.2 Die Interpretation besagt, dass A der Fall ist, wann immer B auftritt, so dass C zu tun ist. Anders als im Falle einer Kausalbeziehung muss A nicht zwangsläufig die Ursache für B sein. Die Bedingung der Stabilität ist bereits durch ein regelmäßiges gemeinsames Auftreten aufgrund einer gemeinsamen Ursache erfüllt, setzt aber voraus, dass die Bedingungen des gemeinsamen Auftretens über Raum und Zeit konstant bleiben, so dass unter diesen Übertragungsbedingungen B ein Signal für A sein kann. Ebenso anders als im Falle von Kausalbeziehungen, die unterschiedliche Ursachen für identische Effekte zulassen, muss hingegen ausgeschlossen sein, dass B gemeinsam mit einem anderen Sachverhalt A’ auftritt. Die Bedingung der Eindeutigkeit besagt, dass B nur dann eine Information über A übermitteln kann, wenn es nicht gleichzeitig mit anderen Sachverhalten korreliert – wohingegen auch ein anderer Sachverhalt B’ als Signal für A dienen kann. Seitens des interpretierenden Systems ist nicht notwendigerweise das Verfügen über Bewusstsein und Wissen vorausgesetzt; automatische Mustererkennungsprozesse genügen. Das über solche Prozesse veranlasste 2
Wenn man die Korrelation als logisch oder naturgesetzlich strikt interpretiert, folgt daraus, dass eine falsche Information letztlich gar keine Information ist, so wie eine wahre, aber aufgrund ungünstiger Übertragungsbedingungen nicht übermittelte Information keine Information ist – oder so, wie ein falscher Edelstein kein Edelstein ist (Dretske 2007). Wir können uns an dieser Stelle nicht auf eine genauere Diskussion dieser Annahme einlassen, sie ist jedoch, was den Status von Fehlinformationen anbetrifft, für eine Interpretation des Phänomens Informationsgesellschaft äußerst interessant.
Information und technologische Handlungsfähigkeit
51
Verhalten kann selbst wiederum als Information (oder Bestandteil einer Information) für andere Systeme oder andere Teile desselben Systems dienen. Anders als im Falle einer Aktion und Reaktion im physikalischen Sinne ist es die Korrelation zwischen A und B (und nicht deren konkrete physikalische Beschaffenheit), die den Unterschied zwischen C und nicht-C ausmacht. Um eines von Dretskes eigenen Beispielen zur Erläuterung heranzuziehen: Die Annäherung eines Raubtieres an eine Herde (A) korreliert mit dem Auftreten bestimmter sichtbarer Muster (B), zum Beispiel dem charakteristischen Schatten des kreisenden Adlers, aber unter bestimmten Bedingungen auch mit auf anderem Wege wahrnehmbaren Ereignissen (B’), zum Beispiel akustischen Reizen. Auch der Warnruf eines Artgenossen, der bereits auf dem zuvor beschriebenen Wege die Information erhalten hat, dass sich ein Angreifer nähert, kann als Information über denselben Sachverhalt fungieren. Sowohl durch den sichtbaren Schatten als auch durch den Warnruf wird dieselbe Information übertragen, nämlich, dass sich ein Raubtier nähert; diese dient als Auslöser für das entsprechende Verhalten, nämlich die Flucht. Vorbedingung ist das Vorhandensein bestimmter Kanäle, welche die im Einzelfall unterschiedlichen Ereignisse zuverlässig bündeln und ihre Wahrnehmung als von demselben Typ gewährleisten. Doch diese theoretische Rekonstruktion des Funktionierens von Informationen zielt nicht nur auf biologische Systeme ab. Ein analoges Beispiel aus menschlichen Lebenswelten ist die Übermittlung einer Nachricht über verschiedene Medien (etwa E-Mail und Telefon), die denselben Inhalt hat, in ein anderes Medium übersetzt werden kann und dennoch stets denselben Typ von Reaktion nach sich zieht. Dies gilt allerdings nur idealtypisch, insofern als bereits die Wahl des Mediums interpretierbar ist und eine Information über Zustände und Eigenschaften des Senders übermittelt. An dieser Feststellung lässt sich zugleich der Unterschied zu ersterem Beispiel verdeutlichen: Er besteht in der natürlichen vs. intentionalen Art der Selektion relevanter Korrelationen als Information. Eine weitere Schlüsseleigenschaft von Information besteht in ihrer Einbettung in eine stabile Umwelt. Diese ist Voraussetzung für die Selektion der jeweils richtigen und wichtigen Informationen, die Beständigkeit der Informationskanäle und die Zuverlässigkeit ihres Funktionierens. Als Umwelt ist nicht einfach die Umgebung des jeweiligen Systems zu verstehen, sondern die Menge der für sein Fortbestehen und den Erfolg seines Verhaltens relevanten Umgebungsbedingungen.3 Diese können 3
Dieser evolutionstheoretisch-ökologische Begriff von Umwelt lehnt sich an Lewontin (1982) an. Bedingungen, die für einen Organismus irrelevant sind, kön-
52
Greif, Mitrea, Werner
sehr einfach, aber auch beliebig komplex sein, und sie können auch von anderen Systemen produzierte Informationen umfassen. In einem weiteren von Dretske eingeführten Beispiel sind in der natürlichen Umwelt von Fröschen im Gesichtsfeld erscheinende sich schnell bewegende schwarze Punkte, die von Fliegen verursacht werden (aber weder sehen Frösche scharf genug, um sie als Fliegen erkennen zu können, noch verfügen sie über das Konzept „Fliege“), ein Zeichen für Nahrung, die gefangen und gefressen werden kann. Genau dies und nicht mehr ist für sie unter natürlichen Bedingungen relevant. Die Korrelation zwischen sich schnell bewegenden schwarzen Punkten im Gesichtsfeld und Fliegen ist für Frösche unter natürlichen Bedingungen eine hinreichende Information über ihre Nahrungsquelle. Experimentatoren, die kleine Bleikugeln im Gesichtsfeld der Frösche umherschwirren lassen, (zer-) stören diese ansonsten zuverlässige Korrelation. Im Falle menschlicher Gesellschaften sind die relevanten Umweltbedingungen von komplexerer Art, und dementsprechend sind die Informationskanäle und die verfügbaren Informationen ebenso vielfältiger wie die den Menschen auf deren Grundlage verfügbaren Handlungsmöglichkeiten und -varianten. Dennoch gilt auch in diesem Fall nicht weniger, dass nur vor einem zuverlässig etablierten, stabilen Hintergrund erwartbarer Tatsachen, Ereignisse und bereits vorhandener Informationen bestimmte Korrelationen zwischen Dingen und Ereignissen als Informationen funktionieren können: Die Übertragungsbedingungen müssen Bestand haben oder zumindest eine Anpassung erlauben – was sie nicht selbstverständlich tun in einer Welt, die sich durch menschliches Handeln verändert. Wenn man die populären (aber auch Teile der akademischen) Debatten um die Entwicklung und Auswirkungen der Informationstechnologien betrachtet, so stellt sich des öfteren der Eindruck ein, dass die Menschen, die in einer Welt technisch aufbereiteter und übermittelter Informationen leben, sich entweder – in der pessimistischen Variante – in keiner sehr viel vorteilhafteren Position befinden als Dretskes Frösche im Labor oder – in der optimistischen Variante – ohne Umweltbindung in einem Raum von technologisch freigesetzten Informationen umherflottieren; entweder erscheinen die Menschen den Bedingungen einer Umwelt ausgeliefert, auf deren Form und Gestalt sie selbst keinen Einfluss haben und nen für einen anderen überlebenswichtig sein. Sie sind, ebenso wie die Art und Menge der verfügbaren Übertragungskanäle und Effekte von Informationen, Resultate einer Selektionsgeschichte. Im Falle der Menschen (und einiger anderer Spezies, welche Traditionen eines Werkzeug- und Symbolgebrauchs kennen), tritt eine Geschichte des Lernens und des Tradierens hinzu. Zu diesem Ansatz vgl. insbesondere Millikan (2004).
Information und technologische Handlungsfähigkeit
53
an die sie sich bestenfalls anpassen können (dieses Bild wird von Edwards 1994 pointiert kritisiert), oder ihre durch das Verfügen über die unbegrenzten Möglichkeiten der Informationstechnologien gespeiste Autonomie erscheint in unrealistischer Weise übersteigert (solche technologischen Utopien werden besonders markant von Kurzweil 2002 und einigen anderen Beiträgen in Denning 2002 vertreten). Dass sich die Wahrheit wie immer zwischen den Extremen findet, halten wir für offensichtlich. Unsere Aufgabe soll an dieser Stelle darin bestehen, diese vernünftige Einsicht in Fragestellungen zu überführen, die es erlauben, die Schattierungen technologischer Handlungsfähigkeit in der Gestaltung und Nutzung von und der Interaktion mittels moderner Informations- und Kommunikationstechnologien (IKT) genauer zu erfassen. Wenn das Leben in modernen Gesellschaften tatsächlich so sehr von Informationen und Informationstechnologien bestimmt sein sollte, dass das Kennzeichen der „Informationsgesellschaft“ eine Berechtigung hat, dann stellt sich die Frage, unter welchen Bedingungen eine Teilhabe an dieser Gesellschaft möglich ist. Diese Bedingungen können wir im Rahmen eines kurzen Essays zwar nicht en detail untersuchen, aber wir können einige nützliche Unterscheidungen und Perspektiven vorschlagen und ihre Auswahl begründen.
Informationen, Technologie und Gesellschaft Wenn Information ein Gegenstand technologischer Betätigung wird – was auch schon für Technologien gilt, die lange vor dem Computerzeitalter etabliert waren, wie etwa Buchdruck und Messtechnologien –, dann unterscheidet sie sich in ihren Effekten in einer wesentlichen Hinsicht von der technologischen Bearbeitung von Rohstoffen für die Produktion oder den Transport von Gütern: Letztere verändert die Umwelt in dem Sinne, dass die Struktur und Anordnung von Dingen – und im Zuge dessen möglicherweise als Nebeneffekt auch die Wahrnehmung und der Umgang mit ihnen – modifiziert wird. Hingegen setzt die technologische Erzeugung und Bearbeitung von Informationen direkt und gezielt am kognitiven Zugang zur Umwelt, also der Wahrnehmung, dem Denken und dem Darstellen an, in relativer Unabhängigkeit von der materiellen Art und Weise, wie dies geschieht, aber durchaus mit Folgen für die Bearbeitung der materiellen Bedingungen. Die industrielle Erzeugung von Energie aus natürlichen Rohstoffen zur Produktion oder zum direkten Verbrauch mag die Umwelt so restrukturieren, dass die Menschen diese fortan anders wahrnehmen, etwa als weniger bedrohlich und besser kontrollierbar. Die technologische Erzeu-
54
Greif, Mitrea, Werner
gung und Zurichtung von Informationen hingegen, wie etwa die Katalogisierung der verfügbaren Rohstoffe, das Verbreiten von Anweisungen, wie mit ihnen umzugehen ist, oder die genaue Organisation der Arbeitsabläufe im Zuge ihrer Verarbeitung, erzeugt erst Korrelationen zwischen zuvor unverbundenen Sachverhalten, die als Auslöser für neue und bisweilen neuartige Verhaltensweisen dienen. Die Zurichtung von Informationen strukturiert in einem grundlegenden Sinne die Art und Weise, wie die Umwelt wahrgenommen und behandelt wird. Nicht zuletzt trägt sie zur Herausbildung einer reich gegliederten sozialen Umwelt bei. Der Einsatz von Schrift zur Buchhaltung und die Einführung mechanischer Uhren zur standardisierten Zeitmessung mögen hierfür als Beispiele dienen, deren Auftreten in eine historische Epoche fällt, auf die der Begriff der „Informationsgesellschaft“ noch nicht anwendbar ist. Wenn über die schlichte Tatsache hinaus, dass dieser Begriff eine gängige Beschreibung der Gegenwartsgesellschaft ist, in einem gehaltvollen Sinne von einer Informationsgesellschaft die Rede sein soll, ist damit in einer ersten Annäherung eine Gesellschaft gemeint, in der die Erzeugung und Bearbeitung von Informationen im zuvor erläuterten Sinne in Menge und Wichtigkeit für soziales Handeln gegenüber dem unmittelbaren Handeln, Umgang und Handel mit materiellen Gütern das Übergewicht gewinnt.4 Die Tatsache, dass der Zugang zur Umwelt zuallererst auf dem Wege von Informationen erfolgt, wird von der Grundbedingung gesellschaftlichen Handelns zum primären Gegenstand desselben. Auch eine subsistenzbasierte Agrargesellschaft könnte nicht ohne Informationen funktionieren (wie wird die Arbeitsteilung bestimmt, wie mit widrigen Naturereignissen oder Verteilungskonflikten umgegangen?), aber ihr Substrat sind klar identifizierbare, in Substanz und Eigenschaften fest bestimmte materielle Dinge. In einer zweiten Annäherung träfe das Prädikat „Informationsgesellschaft“ auf Gesellschaften zu, in denen die Herstellung neuer Informationskanäle und die so gewonnenen Informationen zugleich zum primären Mittel gesellschaftlichen Handelns werden. Dies geschieht auf dem Wege von Technologien zur Erzeugung, Verarbeitung und Übermittlung von Informationen. Dass Information zum primären Gegenstand und Mittel des Zugriffs auf die menschliche Umwelt wird, impliziert zwar keineswegs eine ‚Immaterialisierung’, so wie sie oft beschworen wird (vgl. vor allem 4
Dies ist die Bestimmung von Informationsgesellschaft, welche die Pioniere Machlup (1962) und Bell (1973) im Sinn hatten. Ob man, so wie sie selbst, besagtes Übergewicht ökonomisch-quantitativ interpretiert oder eher kulturell-qualitativ (wie etwa Wersig 2000), kann an dieser Stelle offen bleiben. Ein genauer Umschlagspunkt, an dem eine Gesellschaft zu einer Informationsgesellschaft wird, wird sich ohnehin schwerlich identifizieren lassen.
Information und technologische Handlungsfähigkeit
55
Hardt und Negri 2003), aber die materiellen Grundlagen nehmen in ihrer Beschaffenheit fortan einen sekundären Status ein – oder so scheint es zumindest. Wenn nun die eingangs angeführten Hypothesen zu den Eigenschaften von Information zutreffen, dann ergibt sich in etwa folgendes Bild: Während die Beständigkeit der Umwelt für deren unmittelbar physikalische Seite insofern gewährleistet ist, als zwar nicht unbedingt die einzelnen Tatsachen, aber die Naturgesetze Bestand haben, ist die Beständigkeit des Funktionierens von Informationen nicht in der gleichen Weise sichergestellt. Das technische Handeln mit Informationen erzeugt nicht nur informationale Sachverhalte, die Bestandteile der Umwelt werden, sondern modifiziert auch die Kanäle, mittels welcher die Interaktion mit der Umwelt zuallererst hergestellt wird. Als einfaches Beispiel hierfür können etwa die zusätzlichen Informationskanäle gelten, die durch den Einsatz von Mobiltelefonen erzeugt werden: Zahlreiche Informationen erreichen die NutzerInnen in unterschiedlicher Form (Anruf, SMS) an hierfür zuvor unzugänglichen Orten in hierfür zuvor unzugänglichen Situationen und werden zu Sachverhalten, mit denen die NutzerInnen umzugehen gefordert sind. Ein weiteres Beispiel bieten die sogenannten Location Based Services, die mobil verfügbare Informationen über den Ort bereitstellen, an dem man sich befindet oder zu dem man unterwegs ist, und über ihre ganze Bandbreite von Routeninformationen über touristische Hinweise bis hin zu nutzerprofilangepassten Werbeeinblendungen hinweg das Mobilitätsverhalten und die Orientierung der NutzerInnen modifizieren. Ein drittes Beispiel ist die Delegation von Informationsarbeit an automatisierte Agenten angesichts des Anfallens unüberschaubarer Datenbestände. Diese Situation verlangt nutzerseitige Selektionshandlungen dahingehend, welche der gesammelten und gespeicherten Informationen als denselben Wahrheitswert und dieselbe Relevanz habend eingeschätzt werden wie von ihnen auf direktem Wege gewonnene Informationen – und zwar auch dann, wenn die Option des selbst Nachschauens praktisch nicht mehr verfügbar ist. Unter diesen Bedingungen stellt sich das Problem der Möglichkeiten und Begrenzungen des Handelns mit und durch technisch erzeugte Gegenstände und Strukturen im Falle der Informationstechnologien in einer besonderen Weise: So schwierig und unzulänglich die Unterscheidung zwischen Handlungsmittel und Handlungsgegenstand bereits für ‚konventionelle’ Technologien sein mag, und so sehr Mittel und Zwecke des Handelns miteinander in Wechselwirkung treten mögen – im Falle der Informationstechnologien werden diese Kategorien an sich problematisch. Der Gegenstand des Handelns sind Informationen, und insofern diese zugleich die elementaren Mittel des Weltzugangs sind, verändert
56
Greif, Mitrea, Werner
sich dieser Zugang selbst durch das Handeln mit Informationstechnologien, und damit verändern sich auch die Modi und die Spielräume des Handelns und deren Wahrnehmung. Dieses ist das erste Analyseproblem. Das zweite besteht in den Widerständigkeiten der Technik selbst – dem Beharrungsvermögen einmal geschaffener Strukturen und den vielen kleinen Zwängen und Zumutungen, die sie in ihrer Struktur den Anschlusshandlungen ihrer NutzerInnen auferlegen und so ihre Handlungsmöglichkeiten beeinflussen. Beide Analyseprobleme sind im Blick zu behalten. Wenn man seinen Blick allein auf den Gehalt und die Form der Informationen richtet, welche durch die Technik erzeugt, prozessiert und übermittelt werden (siehe ‚Immaterialisierung’), traut man der technisch modifizierten Handlungsfähigkeit der Menschen zu viel zu. Interpretiert man hingegen die Widerständigkeit der technischen Gegenstände als Ursache allein für einen Verlust an Handlungsfähigkeit – und nicht auch als produktiven Bestandteil derselben –, erscheinen die Informationstechnologien als in einem übersteigerten Maße wirkungsmächtig. In beiden Fällen werden die Wechselwirkungen zwischen Technologie und Handeln gerade dort ignoriert, wo sie besonders intensiv sind und sich die Frage nach einer technologischen Handlungsfähigkeit besonders eindringlich stellt. Technologische Handlungsfähigkeit Wenn Handlungen ein Verhalten sind, das absichtlich und freiwillig geschieht und für das von seinen Urhebern Begründungen gegeben werden können, dann besteht Handlungsfähigkeit in der Möglichkeit, Zwecke des Handelns zu setzen und Mittel zu ihrer Erreichung zu wählen. Dies ist handlungstheoretischer common sense.5 Wenn wir von technologischer Handlungsfähigkeit sprechen, so meinen wir damit die Möglichkeit, mittels technischer Gegenstände weiter gesteckte Handlungsziele zu erreichen, als dies ohne solche Mittel möglich wäre. Sie besteht sowohl darin, weitergehende Zwecke zu setzen, für deren Erreichung technische Mittel eingesetzt werden – der Aspekt der Nutzung –, als auch darin, über Einflussmöglichkeiten auf Form und 5
Diesen – philosophischen – common sense entnehmen wir Davidson (1985) und Meggle (1977). An dieser Stelle kann offen bleiben, ob Handlungen planvoll in dem Sinne geschehen, dass vorab definierte Verhaltensprogramme ausgeführt werden, oder ob sie situationsgebunden sind und erst im Nachhinein als planvoll dargestellt und begründet werden (vgl. Suchman 1987). Ebenso sollen an dieser Stelle nicht Handlungsroutinen ausgeschlossen werden, die durch die Akteure in der Regel erst post hoc begründbar sind.
Information und technologische Handlungsfähigkeit
57
Funktion der Mittel zu diesen Zwecken zu verfügen – der Aspekt der Gestaltung. Diese beiden Aspekte können mehr oder weniger stark ineinandergreifen. Definitorisch-abstrakt gesehen sind beide Bestandteil der technologischen Handlungsfähigkeit eines Individuums oder einer Gruppe, doch im konkreten Fall geben für ihre Gewichtung und Ausgestaltung die jeweiligen Handlungskontexte den Ausschlag. Voneinander scharf getrennt und in Reinform werden sich diese Aspekte empirisch kaum auffinden lassen. Die Erweiterung der Handlungsmöglichkeiten unter beiden Aspekten impliziert jedoch nicht notwendig einen Zugewinn an Freiheitsgraden des Handelns. Dem Zugewinn an Möglichkeiten und Reichweite des Handelns in bestimmten Bereichen stehen korrelierende Beschränkungen gegenüber, insofern technisches Handeln eine komplexere Umwelt für das weitere Handeln erzeugt, die ihrerseits Anpassungen verlangt. Materielle Widerständigkeiten der technischen Gegenstände müssen ebenso in Betracht gezogen werden wie die größere Zahl und bisweilen andere Art der weiteren Betroffenen. Die veränderte Handlungsfähigkeit stellt sich folglich möglicherweise nicht als ein qualitativer Zugewinn dar; jedenfalls ist solch eine Erweiterung nicht selbstverständlich gegeben. So normativ diese Beobachtung auch lesbar sein mag, geschieht sie an dieser Stelle (zunächst) in analytischer Absicht. Im Falle der modernen Informations- und Kommunikationstechnologien werden, wie bereits angedeutet, neben den technischen Strukturen selbst nunmehr die mittels jener Technologien bereits erzeugten Informationen in einem signifikant steigenden Ausmaß ein Bestandteil der Umwelt – während zugleich der Zugang zu dieser Umwelt durch die Erzeugung neuer Informations- und Kommunikationskanäle modifiziert wird. Wenn nun Informationstechnologien dazu dienen sollen, die Handlungsfähigkeit der Akteure tatsächlich zu erweitern, sind die Ansprüche an die Gestaltung dieser Technologien von einer besonderen Art, da diese schon Auswirkungen auf den Zugang zur – und nicht nur den Umgang mit der – Umwelt hat. Die schon sprichwörtlichen Versuche, den „Nutzer zu konfigurieren“ (Woolgar 1991), also seinen Zugang zu Technik und Umwelt im Gestaltungsprozess festzulegen, und ihr regelmäßiges Scheitern einerseits sowie die ungleich erfolgreicheren kreativen Aneignungsstrategien von im Gestaltungsprozess nicht intendierten Funktionen durch die NutzerInnen andererseits (Haddon et al. 2005; Rogers 2005) mögen dafür als Zeugnis dienen. Die im Folgenden erörterten Beispieldiskussionen sollen dazu beitragen, die Bedingungen möglicher Erweiterungen technologischer Handlungsfähigkeit näher zu beleuchten und die Bedeutung des Wechselspiels zwischen Nutzungs- und Gestaltungsaspekten derselben zu illustrieren:
58
Greif, Mitrea, Werner
1.
Nutzbarkeit und Nutzererfahrung: Strategien der Einbeziehung von NutzerInnen und Nutzungsperspektiven in Gestaltungsprozesse; IKT und Nachhaltigkeit: Handlungsmuster und -konzepte in IKTEntwicklungsprozessen; Digital Divide: zum Zusammenhang zwischen sozialer Ungleichheit, IKT-Nutzung und gesellschaftlicher Teilhabe.
2. 3.
Die skizzierten Beispiele stammen aus aktuellen Projekten unseres Forschungsbereichs, so dass sie zunächst recht heterogen wirken mögen, insofern sie auf je unterschiedliche Ebenen IKT-bezogener Handlungsfähigkeit abstellen. Andererseits kann gerade dieser Umstand zur Illustration der Anwendungsmöglichkeiten der vorgeschlagenen Perspektive beitragen. Nutzbarkeit und Nutzererfahrung Gegenwärtig werden auf dem Mobilfunkmarkt massive Anstrengungen unternommen, um der mobilen Breitbandtechnologie zum von Herstellern und Netzbetreibern erhofften Durchbruch zu verhelfen. Auf den ersten Blick gesehen zielt diese Technologie eindeutig darauf ab, die Mobilität und Flexibilität ihrer NutzerInnen zu erhöhen und ihre Handlungsmöglichkeiten weit über das aus der Mobiltelefonie bekannte Maß hinaus zu erweitern. Der jederzeit und überall mögliche Zugang zu den unterschiedlichsten Formen von Information soll vorzugsweise über Smartphones erfolgen, die in einem Gerät alle relevanten Anwendungen vereinen. Es zeigt sich allerdings, dass die neuen Dienste bislang bei weitem nicht so großen Anklang finden, wie es die Verbreitung der Geräte an sich vermuten ließe (vgl. Sugai 2007; Suhl 2005). Ein Teil der Erklärung für die langsame Ausbreitung der Nutzung mobiler Breitband-Anwendungen kann nun, neben noch nicht ausgereifter, also unzuverlässiger und zu komplexer Technik sowie der Organisation der Angebote (etwa zu hohen und/oder intransparenten Tarifen, unattraktiven Inhalten), auch in Diskrepanzen zwischen den im Entwicklungsprozess intendierten und den im Gebrauch realisierten Funktionen liegen. Damit werden die den Geräten und Anwendungen zugrunde liegenden Gestaltungsziele zum Erklärungsgegenstand. Einige vorläufige Beobachtungen hierzu ergeben in etwa das folgende Bild: Der Tendenz zur Konvergenz und Integration der Funktionen der Smartphones steht eine Diversifizierung möglicher Nutzungen und Nutzungskontexte gegenüber. Als vorherrschendes Entwicklungsziel kann die maximale Integration und Automatisierung vielfältiger Funktionen unter vielfältigsten Bedingungen – und damit deren möglichst voraussetzungsarme universelle Einsetzbarkeit – identifiziert werden. Dies erfolgt aller-
Information und technologische Handlungsfähigkeit
59
dings unter Reduzierung der Möglichkeiten zur Spezialisierung und detaillierten Steuerbarkeit dieser Funktionen, wie sie für den Personal Computer charakteristisch sind. Diese Design-Strategie wurde von Satyanarayanan (2005) unter dem Begriff des „Swiss Army Knife“ kritisch verhandelt: Der praktische Nutzen des auf universelle Einsetzbarkeit zielenden Geräts wird durch die notgedrungen unvollständige, unspezialisierte Implementierung der einzelnen Funktionen geschmälert. Um diesem Problem entgegenzuwirken, wird bisweilen auf das Design-Konzept der „Information Appliances“ (Norman 1998) zurückgegriffen, welches die Idee der Vereinigung zahlreicher Funktionen in einem Gerät aufgibt und sich funktional stärker spezialisierten, sich weitestgehend selbst konfigurierenden und nach Bedarf automatisch untereinander kommunizierenden Geräten zuwendet. Die NutzerInnen können sich mit einer wunschgemäß zusammengestellten Anordnung unterschiedlicher Information Appliances umgeben. Zum Beispiel sollen digitale Kameras die von ihnen aufgenommenen Bilder und Videos möglichst mühelos und automatisch den jeweils anderen relevanten Geräten und Anwendungen zuspielen können. Jegliche nutzerseitige Notwendigkeit – aber damit auch Möglichkeit –, tiefer in das jeweilige System einzusteigen und Funktionsfestlegungen und Konfigurationen selbst vorzunehmen, wird als entbehrliches Überbleibsel des Design-Konzepts des Personal Computers angesehen. Insofern der Nutzbarkeit einer wachsenden Bandbreite an Funktionen – ob in einem Gerät oder in einer vernetzten Menge von solchen – der Vorrang vor der selbstgesteuerten Implementierung ausgewählter Funktionen gegeben wird, wird der Gewinn an Nutzbarkeit um den Preis eines Verlustes an Handlungsmöglichkeiten der NutzerInnen an anderer Stelle erkauft, im Sinne einer geringeren Tiefe und Freiheit im Umgang mit den Anwendungen und in der Kontrolle über sie. Anders als im Falle der eingeschränkten Nutzungsmöglichkeiten mobiler Office- und Internet-Applikationen aufgrund der begrenzten Speicher- und Displaygröße mobiler Geräte ist dies nicht einfach nur ein technisch begründetes praktisches Problem, sondern es liegt nahe, dass es sich um ein konzeptuelles Problem handelt. Dieses konzeptuelle Problem besteht zum einen in dem Versuch, verschiedene Typen von NutzerInnen und Nutzungskontexten so weit wie möglich zu vereinheitlichen und die Eigenschaften beider vorab und von oben herab festzulegen – während sich unterschiedliche NutzerInnen, wie bereits angedeutet, unterschiedlicher, oft schwer zu antizipierender Aneignungsstrategien bedienen, um sich die Funktionen einer Technologie zu eigen zu machen. Zum anderen liegt die Schwierigkeit besagter Ansätze darin, dass die Nutzbarkeit eines Gerätes oder einer Anwendung
60
Greif, Mitrea, Werner
gegen ihre Funktionalität, also die Bandbreite und Steuerungstiefe der zur Verfügung stehenden Funktionen ausgespielt und als unvermeidlicher trade-off dargestellt wird, der entweder zu Kompromissen oder zur Entscheidung in die eine oder andere Richtung zwingt (zu einer Kritik dieser gängigen Vorstellung vgl. Goodwin 1987). Der Fokus auf vorgegebene Funktionen und Nutzbarkeitskriterien hat seine Wurzeln im traditionellen usability engineering (vgl. Davis 1989; Nielsen 1994; Shackel 1991). Dieses adressierte die Computernutzung am Arbeitsplatz auf dem Stand der frühen Jahre und orientierte sich dementsprechend an den dort vorgegebenen, klar definierten Zielen, Funktionen und Nutzungsmöglichkeiten. Hierfür wurden Standards und Messkriterien der effizienten Nutzung – eine gegebene Aufgabe schnell, zuverlässig und fehlerfrei zu erledigen – etabliert, während die übergeordneten Ziele der Nutzung als Gesamthandlung nur bedingt adressiert wurden. Vertreter der „New Usability“ (Jordan 2000; Thomas und Macredie 2002) machen demgegenüber geltend, dass die steigende Komplexität der Technologien und die Vervielfältigung ihrer Einsatzmöglichkeiten die Erwartungen an Funktionen unklarer macht. Im Sinne eines alternativen Ansatzes wird Nutzbarkeit als eine Eigenschaft der Erfahrung durch die NutzerInnen (quality of experience, McNamara und Kirakowski 2005) betrachtet, die es vornehmlich qualitativ zu erfassen gelte – zumal sich die Qualität der Nutzererfahrung nicht nur in einem wahrgenommenen rationalen Nutzen äußert, sondern auch in genuin emotionalen Regungen im Umgang mit der Anwendung. 6 Ein zweiter alternativer Ansatz ist unter der Kennzeichnung „Participatory Design“ (Bjerknes et al. 1987; Schuler und Namioka 1989) bekannt geworden: Über Fragen der Nutzbarkeit hinaus soll die Erweiterung der Handlungsmöglichkeiten der NutzerInnen durch ihre direkte, organisierte Mitbestimmung in Prozessen der Technikgestaltung gewährleistet werden. Diese Erweiterung soll nicht nur in Hinblick auf konkrete Anwendungen und Funktionen erfolgen, sondern auch in Bezug auf das, was die NutzerInnen mittels derselben im weiteren Sinne tun und erreichen können. Wenn man, diesen beiden Ansätzen folgend, Funktionalität und Nutzbarkeit als Qualitäten der Interaktion spezifischer NutzerInnen mit Geräten und Anwendungen betrachtet, und wenn man anerkennt, dass sich diese Interaktionen für unterschiedliche NutzerInnen mit unterschiedlichen Informationsbedürfnissen in unterschiedlichen Nutzungskontexten 6
Auch eher traditionellere usability-Ansätze (zum Beispiel Davis 1989 und Shackel 1991) erkennen eine Relevanz subjektiver Faktoren an, stellen sie jedoch gegenüber messbaren Kriterien in die zweite Reihe.
Information und technologische Handlungsfähigkeit
61
nicht vorab festlegen lassen, spricht dies dafür, den NutzerInnen offenere Architekturen und weitreichendere Kontrollmöglichkeiten anzubieten, die ihnen, insoweit gewünscht, selbständige Anpassungen an die eigenen Bedürfnisse erlauben. Ein solches Design-Konzept könnte sich als gangbare Ergänzung oder gar Alternative zum Spektrum zwischen Swiss Army Knives und Information Appliances erweisen, die über Fragen der Durchsetzung mobiler Breitbandtechnologien hinausweist, indem die NutzerInnen gezielt zu MitgestalterInnen der Technologie und damit zu MitgestalterInnen ihrer Handlungsmöglichkeiten und -umwelten gemacht werden.7 IKT und Nachhaltigkeit In der letzten Zeit hat das Konzept der nachhaltigen Entwicklung auch in den IKT-Bereich Einzug gefunden: Unter der allgemeinen normativen Zielvorgabe, die eigenen zukünftigen Handlungsmöglichkeiten und die Lebensgrundlagen zukünftiger Generationen zu bewahren, sollen zum einen die Entwicklungs- und Produktionsprozesse von IKT umwelt- und sozialverträglich gestaltet werden. Zum anderen sollen die IKT-Produkte selbst als Mittel zur Sicherung zukünftiger Handlungsmöglichkeiten auf sozialer, ökologischer und ökonomischer Ebene dienen können. Während sich ersterer Aspekt ohne weiteres in das konventionelle dreiteilige Begriffsschema „ökologisch-ökonomisch-sozial“ der Befragung der Folgen technologischer Entwicklungs- und Produktionsprozesse – etwa hinsichtlich ihres Ressourcenverbrauchs, der Lebensdauer der Produkte, der globalen Arbeitsteilung in der Produktion – einordnen lässt,8 verdient der zweite Aspekt an dieser Stelle besondere Aufmerksamkeit: Insofern Informationen Grundlage sozialer Interaktionen sind und nicht den Knappheitsgesetzen natürlicher Ressourcen unterliegen, wird ein erweitertes Verständnis der Sozial- und Umweltverträglichkeit und zugleich eine Perspektive auf neue, IKT-basierte Handlungsmöglichkeiten eröffnet. Die Hoffnung ist, dass ein zielgerichteter Einsatz von IKT gesellschaftliche Stabilität, Selbstorganisationskräfte und Lernprozesse, Vielfalt in Gesellschaft, Kultur und Wirtschaft, verstärktes Bewusstsein für lokale Identitäten, Gerechtigkeit und Solidarität sowie Partizipation und Vernetzung begünstigen könne (vgl. Schwarzer et al. 2006). Doch wie lassen sich solche Ziele in der Technikgestaltung ansprechen? Sind die Gestaltungsprozesse überhaupt so ausgelegt, dass sie die 7 8
Einer ähnlichen Grundidee folgt etwa das OpenMoko-Projekt, das sich explizit an Open-Source-Idealen orientiert (http://www.openmoko.com). Zu den im hier betrachteten Zusammenhang weniger relevanten ‚klassischen’ Anschlüssen des Diskurses über die „nachhaltige Informationsgesellschaft“ an die allgemeinen Nachhaltigkeitsdebatten siehe überblicksartig Böhle (2005).
62
Greif, Mitrea, Werner
Formulierung und Verfolgung dieser Ziele begünstigen oder überhaupt nur zulassen? Eine wichtige Frage in Bezug auf die Gestaltung der IKT ist, wie IngenieurInnen und InformatikerInnen in der Produktentwicklung ihre Tätigkeit, die Technik, die durch sie eröffneten Möglichkeiten und die durch sie bedingten Folgen wahrnehmen und verstehen, und wie sie im Anschluss daran handeln. In der Tat zeigt sich, dass der von ihnen wahrgenommene Zusammenhang zwischen nachhaltigen Entwicklungszielen und IKT ziemlich heterogen und manchmal überraschend ausfällt. Das explorative Forschungsprojekt „Die nachhaltige Entwicklung von Informations- und Kommunikationstechnologien in Kärnten“ (Mitrea et al. 2007) hat Einstellungen zur und Praktiken der Technikgestaltung unter diesen Gesichtspunkten untersucht. Die Auswertung der Interviews mit IKT-IngenieurInnen ergibt ein in interessanter Weise uneinheitliches Bild: Während den Befragten eine Perspektive auf die IKT als Mittel der nachhaltigen Entwicklung der Gesellschaft nahe liegt, wird der Zusammenhang zwischen Nachhaltigkeit und Technikentwicklung auf der operativen Ebene nur in begrenztem Umfang gesehen und adressiert. Als nachhaltigkeitsfördernde Aspekte der IKT werden auf Seiten der Technikentwicklung die Prinzipien der Wiederverwendung bereits entwickelter Konzepte in neuen Systemen, das komponentenorientierte Entwickeln, die Standardisierung und die Mehrzweckverwendbarkeit von IKTKomponenten und -anwendungen genannt. Auf Seiten der Nutzung der IKT werden die Verbesserung von Kommunikationsmöglichkeiten und Informationszugang, die IKT als Wissens- und Machtbasis, die Förderung zivilgesellschaftlicher Partizipation, Effizienzsteigerung und Innovation sowie die Vermeidung von (fortan) unnötigem Verkehr als positive Effekte identifiziert. Zugleich werden als hierfür notwendige Anforderungen an die IKT deren Kompatibilität und Flexibilität genannt, ebenso wie die Entscheidungsfreiheit der NutzerInnen über Konfigurationen und Verwendungen, die Vermeidung des Ausschlusses sozialer Gruppen von der IKT-Nutzung und das Respektieren der Privatsphäre der NutzerInnen. In dieser Hinsicht formulieren die befragten IngenieurInnen ähnliche Erwartungen und Forderungen an die IKT, wie sie in den öffentlichen Diskussionen gängig sind. Diese Erwartungen und Forderungen finden in der Organisation der Entwicklungsprozesse jedoch nur wenig Widerhall. Im Sinne einer Trennung zwischen Konzeptentwicklung und Produktentwicklung bekommen IngenieurInnen nicht selten schon sehr genau die Eigenschaften und Funktionalitäten eines Produktes vorgegeben; sie sind insofern nur für die Strukturierung des Produktes auf diesen Zweck hin zuständig. So fühlen sie sich denn teilweise auch als der falsche Adressat für Fragen zur strategischen Orientierung der Produktentwicklung am Ziel der Nachhal-
Information und technologische Handlungsfähigkeit
63
tigkeit. Sie beschreiben ihre Handlungen vielmehr als „operativ“. Entsprechend kann, in Abhängigkeit von der jeweils eigenen Position in der Organisationsstruktur, durchaus eine Diskrepanz zwischen (individuellen) Einstellungen und organisiertem Gestaltungshandeln bestehen. Nachhaltige Entwicklung mag auf der Ebene der Unternehmensstrategien ein Thema sein, in der täglichen Praxis der Technikentwicklung wird sie es nur selten. Oft sehen IngenieurInnen ihre gestalterische Rolle allerdings in der Antizipation von Bedürfnissen, ausgehend von der Annahme fehlender bewusster und artikulierter Bedürfnisse seitens der NutzerInnen. Es wird also unterstellt, dass IKT-NutzerInnen sich nicht vorstellen können, welche Informationsbedürfnisse sie haben oder haben werden. Andererseits sind TechnikgestalterInnen selbst auch NutzerInnen, aber ihre Bedürfnisse und Interessen als NutzerInnen spielen in den Gestaltungsprozessen nicht notwendigerweise eine produktive Rolle. Zwar sind die IKT fester Bestandteil der Arbeit wie auch Freizeit der TechnikgestalterInnen, so dass Nutzungs- und Gestaltungshandlungen oft auf komplexe Weise miteinander verschmelzen. Doch können sie einander bisweilen auch widersprechen. Persönliche Einstellungen und korrespondierende Nutzungsmuster und -erfahrungen können, sofern sie denn wirksam werden, zu vorsichtigeren und Risiko minimierenden Handlungen in der Technikgestaltung führen, oder auch zu dem, was oft als „I-methodology“ bezeichnet wird (Akrich 1995): Die EntwicklerInnen stellen zuallererst und oft ausschließlich sich selbst als NutzerInnen vor; entsprechend gehen ihre eigenen Interessen, Tätigkeiten und Erfahrungshintergründe leitend in den Gestaltungsprozess ein. Die Zukunftsorientierung der IKT-Entwicklung wird von deren EntwicklerInnen als selbstverständlich betrachtet, aber die Entwicklung just dieser Technologien wird von ihnen selbst zugleich als langfristig kaum berechenbar wahrgenommen. Infolgedessen stellt sich nicht nur das Problem der engen Abgrenzung von Arbeitsbereichen, die von Funktion und Zwecksetzung her eng umgrenzte Lösungen begünstigt. Auch auf der Ebene zeitlicher Abfolgen zeigt sich in analoger Weise eine Beschränkung vieler technischer Lösungen auf die absehbare Zukunft, die folglich darauf abzielen, dringende Probleme innerhalb dieses Zeithorizonts in den Griff zu bekommen, auch auf das Risiko hin, dass die gefundene Lösung nur kurzfristig Bestand haben und bald neue Probleme aufwerfen wird. Die in der Managementliteratur (zum Beispiel ÖIN 2003) oft beschworenen und eingeforderten „pro-aktiven“ Einstellungen, verstanden als die Fähigkeit zu projektivem Denken und Handeln und damit als die Fähigkeit, die allgemeineren Auswirkungen des eigenen Handelns und dessen Kontext zu verstehen, sind im untersuchten Feld relativ selten zu finden.
64
Greif, Mitrea, Werner
Genau der Ausbildung dieser Fähigkeiten stehen die wahrgenommenen Sachzwänge der Technologieentwicklung im Bereich der IKT, vor allem deren Organisationsweise, aber auch deren Geschwindigkeit, oft im Wege. In diesem Sinne ist der Bedarf nach Förderung einer konsistenten Perspektive und Beständigkeit bzw. Voraussicht genau in demjenigen Technologiebereich besonders groß, welcher die unmittelbarsten und dauerhaftesten Auswirkungen auf den Weltzugang und die Handlungsmöglichkeiten seiner NutzerInnen, seiner EntwicklerInnen und seiner EntwicklerInnen-als-NutzerInnen hat. Schließung des Digital Divide In den Debatten um den Digital Divide wird das Verständnis informationstechnologischer Handlungsfähigkeit als eine grundlegende Bedingung für die Teilhabe an der Informationsgesellschaft unmittelbar angesprochen, avancierte der Begriff in den letzten Jahren doch zum Schlagwort für die „Bedeutung von Informations- und Kommunikationstechnik [...] für ‚soziale Inklusion’ bzw. gesellschaftliche Teilhabe generell und die sozial ungleichen Voraussetzungen dafür“ (Aichholzer 2003, S. 181). Die Diskussionen um den Digital Divide drehten sich zunächst stark um materielle Zugangsaspekte, also das Verfügen über Computer und (Breitband-) Internetanschlüsse. In jüngerer Zeit sind vermehrt auch nicht-technische Faktoren (wie allgemeine Bildung, Medienkompetenz oder kulturelle Aspekte) analysiert worden, die Einfluss auf unterschiedliche Möglichkeiten ausüben, die neuen IKT zu nutzen. Zugleich hat sich die Betrachtungsweise ausdifferenziert, indem zum einen verschiedene Trennlinien betrachtet wurden, etwa im globalen Rahmen, zwischen verschiedenen Gruppen innerhalb einer Gesellschaft oder in bezug auf politische Nutzungsweisen (Norris 2001). Zum anderen ist die jüngere Diskussion von der Betonung einer doppelten Wirkungsbeziehung zwischen sozialer Ungleichheit und ungleichen Chancen der Nutzung neuer Medien geprägt, während die Schließung der digitalen Spaltung in den frühen Debatten vor allem als das Vorhaben aufgefasst wurde, die allgemeinen Zugangs- und Nutzungsbedingungen digitaler Medien anzugleichen (und damit nicht zuletzt auch eine Voraussetzung für eine Erweiterung der Nachfrage nach E-Government- und E-Commerce-Angeboten zu schaffen). Die neue Aufmerksamkeit gegenüber dem wechselseitigen Bedingungsverhältnis zwischen sozialer und digitaler Spaltung erweiterte den Blick auch auf die Möglichkeiten, durch den Einsatz von IKT zur Überwindung sozial ungleicher Chancenverteilungen beizutragen. Ohne diese Debatten hier en detail aufrollen zu wollen, soll im Folgenden anhand
Information und technologische Handlungsfähigkeit
65
einzelner Aspekte des Themas aufgezeigt werden, dass die Berücksichtigung des Wechselspiels zwischen den Ebenen der Techniknutzung und Technikgestaltung umfassendere Perspektiven auf Strategien der Überwindung des Digital Divide eröffnen kann.9 Der Zusammenhang zwischen technologischer Handlungsfähigkeit und gesellschaftlicher Teilhabe ist gerade im politischen Bereich offenkundig: Neue Formen politischer Prozesse, die sich auf das Internet als Mittel zur Verbesserung des Informationszugangs, zur Meinungsbildung, zur politischen Kommunikation und zur Partizipation stützen (E-Democracy), sehen sich (neben einer Reihe anderer kritischer Punkte) mit dem Problem konfrontiert, schon aufgrund der Wahl des Mediums selektiv nur einen Teil der Bevölkerung anzusprechen. In ähnlicher Weise stellt sich dieses Problem auch für die Behördenkontakte und die Leistungserstellung der Verwaltungen im Online-Verfahren (E-Government). Analog zur ‚Entdeckung’ (der Unterschiedlichkeit) der NutzerInnen in Bezug auf den Digital Divide lässt sich in Bezug auf die öffentlichen digitalen Angebote eine Hinwendung zu den NutzerInnen feststellen, die maßgeblich die organisatorische und technische Gestaltung betrifft: Orientierten sich die früheren Angebote noch vornehmlich am zum jeweiligen Zeitpunkt technisch Machbaren, an der inneren bürokratischen Logik oder (inadäquaten) Vorbildern aus der Privatwirtschaft (E-Commerce), so bemühen sich die öffentlichen Angebote in jüngerer Zeit stärker darum, den Perspektiven der NutzerInnen gerecht zu werden. Wenngleich die NutzerInnenorientierung der E-Government-Angebote noch deutlich ausbaufähig ist, können solche Ansätze, die Nutzungsund Gestaltungsaspekte miteinander zu verbinden – etwa in Form partizipativer Nutzbarkeitsstudien oder der Orientierung an Barrierefreiheit –, nicht nur zur Qualitätssteigerung von E-Government beitragen, sondern sich so auch als geeignetes Mittel zur Förderung von sozialer Inklusion erweisen.10 Die Gestaltung der Systeme bleibt dabei im Übrigen nicht auf die BürgerInnen als AdressatInnen von E-Government-Angeboten beschränkt, sondern lässt sich ebenso auf die innere Organisation und Prozesse der informatisierten Verwaltung beziehen. Einige Motive der Diskussion über Implikationen des Digital Divide in der Arbeitswelt versprechen hier nützliche Ansatzpunkte, etwa in Form einer Konzeptualisierung von „technological practice“, welche die Verwobenheit von IKT9 10
Für einen Überblick über die Diskursverläufe und verschiedene Konzeptualisierungen siehe Aichholzer (2003). Vgl. zum Beispiel Aichholzer (2003, S. 193), der solche Gestaltungsaspekte, neben Ansätzen zur Verbesserung des materiellen Zugangs zu IKT und der Förderung individueller Fertigkeiten für den Umgang mit diesen, als Maßnahmen zur Schließung des Digital Divide betont.
66
Greif, Mitrea, Werner
Gestaltung, Nutzungsweisen und Organisationsstrukturen betont (vgl. Schienstock 2003). Ein weiterer Aspekt der Diskussionen um den Digital Divide mit Bezug auf die Technikgestaltung besteht jedoch in einer Tendenz zur Übersteigerung inklusionsfördernder Effekte der IKT-Nutzung im Sinne eines „sozio-technischen Determinismus“ (Weber 2006). Gegenstand der Kritik ist die Annahme, dass die Forcierung der Verbreitung von IKT und die Förderung ihrer Nutzung als hinreichende Lösung vielfältiger gesellschaftlicher Problemlagen dienen könne, seien es fehlendes wirtschaftliches Wachstum und Arbeitslosigkeit oder Politikverdrossenheit und schwindender Gemeinsinn in den westlichen Demokratien, oder seien es Analphabetismus, Armut und demokratische Defizite im globalen Maßstab. Anhand der Betrachtung der globalen Perspektive kann dies besonders deutlich gemacht werden. Das Scheitern von diversen Versuchen, mittels der Bereitstellung von IKT etwa soziale Problemlagen in Entwicklungsländern zu lösen, kann maßgeblich auf die fehlende Einbeziehung der lokal Betroffenen bereits in die Gestaltung der Technik (und ihrer Nutzungsbedingungen), derer sie sich bedienen sollten, zurückgeführt werden (vgl. ebd.).11 Den Digital Divide vor allem oder ausschließlich als ein Problem der Verbreitung und Nutzung von IKT zu thematisieren und nicht als ein Problem, das auch die Technikgestaltung betrifft, kann, so sollten die hier angeführten Ausschnitte aus den Debatten unterstreichen, den Blick auf wichtige Bedingungen seiner Überwindung verstellen. Die Beachtung des Wechselspiels zwischen Gestaltung und (den jeweiligen Bedingungen und Kontexten der) Nutzung eröffnet hingegen den Blick auf Problemlagen, welche die Einbeziehung der NutzerInnen in die Gestaltung technischer Systeme als ein wichtiges Erfordernis erscheinen lässt – bezogen auf die Gestaltung sowohl der inhaltlichen als auch der technischen Seite der Angebote (die ohnehin vielfach nicht zu trennen sind). Spezifische Anwendungszusammenhänge, seien sie lokaler oder ökonomisch-materieller Art, oder seien sie mit anderen sozialen Interessenlagen verbunden, aus der Technikgestaltung auszublenden, läuft darauf hinaus, die Erfolgsbedingungen solcher Angebote zu ignorieren – von der Tendenz zur Blindheit gegenüber sozialen Effekten und Machtverhältnissen ganz zu schweigen. Eine solche Praxis vernachlässigt damit auch mögliche Implikationen unterschiedlicher informationaler Weltzugänge seitens der potentiellen NutzerInnen. Eine erweiterte Berücksichtigung technologischer 11
Dies gilt auch für Versuche, gleichsam von außen, das heißt ohne relevante Einbindung lokal Betroffener, eine sozusagen ‚global angepasste’ Technologie einzuführen (wie zum Beispiel die Projekte des Simputers oder des 100-Dollar-Laptops).
Information und technologische Handlungsfähigkeit
67
Handlungsfähigkeit im Sinne der Fähigkeit zur Einwirkung auf die IKTGestaltung erscheint hingegen auch vor dem (normativen) Hintergrund sozialer Inklusion als eine sinnvolle wie notwendige Ergänzung. Resümee Die zuvor verhandelten Beispiele haben illustriert, dass eine Erweiterung technologischer Handlungsfähigkeit im Sinne eines Zugewinns an Handlungsmöglichkeiten erzielt werden kann, wenn sich Nutzungs- und Gestaltungsperspektive wechselseitig ergänzen. Solch eine wechselseitige Ergänzung kann sich zum einen in ‚besseren’, ‚nutzerfreundlicheren’, und das heißt auch marktfähigeren Produkten und Dienstleistungen niederschlagen. Zum anderen haben die Beispiele auch Hinweise darauf gegeben, dass eine wechselseitige Ergänzung von Nutzungs- und Gestaltungsperspektive auch unter stärker normativen Gesichtspunkten, nämlich im Sinne einer Teilhabe an der Informationsgesellschaft, hilfreich und nützlich sein kann. Unsere in der ersten Hälfte des Essays etablierte Hypothese wiederum, dass die Informationstechnologien nicht nur den Umgang mit Informationen, sondern auch den individuellen und kollektiven Zugang zur Umwelt, also die Art, wie diese Umwelt wahrgenommen wird, in unmittelbarer Weise verändern, bietet dem an sich noch recht vagen Teilhabe-Gedanken eine Engführung an. Betrachtet man Großtechnologien, die zum einen nur in einem indirekten Sinne NutzerInnen haben, insofern ihre normalen Effekte in deren Lebenswelt nur vermittelt auftreten, so erscheint die Teilhabe an der Technikgestaltung als eine sehr allgemeine, elementare Entscheidung: Im Falle von Atomkraftwerken etwa kann Partizipation (in unterschiedlichen institutionellen Verankerungen) bedeuten, auszuhandeln, ob man diese Technologie überhaupt will, woher man ein zuverlässiges Wissen zur Beantwortung dieser Frage bezieht, welche Forschung gefördert werden soll und auf welchem Wege man technologische sowie technologiepolitische Entscheidungen über Art, Einsatz und Standorte revidieren kann. Der Gegenstand der Teilhabebestrebungen sind mithin primär die Implementation der Technologien und der Umgang mit ihren Folgen. Andere Technologien, die sehr wohl unmittelbare EndnutzerInnen haben, sind solchen politischen Debatten und Prozessen in der Regel insofern enthoben, als die Entscheidungen über ihren Entwicklungsweg in der Mehrzahl von privatwirtschaftlichen Akteuren getroffen werden, während die Entscheidungen über ihre Durchsetzung auf dem Markt erfolgen. Automobildesigns etwa mögen Gegenstand umwelt- und verkehrspolitischer Erwägungen und regulativer Rahmenbedingungen sein
68
Greif, Mitrea, Werner
(zum Beispiel durch die Festlegung von Emissionsgrenzwerten oder steuerliche Anreizsysteme). Auf die Art, Menge und Gestalt der Fahrzeuge oder gar das Konzept der Automobilität wirken diese politischen Prozesse aber, abgesehen vielleicht von der Festsetzung grundlegender Sicherheitsstandards, allenfalls indirekt über ihre Effekte auf das Nachfrageverhalten. Die Frage der Technikgestaltung stellt sich in diesem Bereich entsprechend nicht als eine (über Marktforschung hinausgehende) Frage der Einbindung der NutzerInnen in die Produktentwicklung. Stärker als in diesen Technologiefeldern scheint es im Falle der Informations- und Kommunikationstechnologien jedoch angemessen, die Rolle der NutzerInnen – über ihre Rolle als Kaufentscheidungen treffende KonsumentInnen oder als an technologiepolitischen Partizipationsprozessen beteiligte BürgerInnen hinaus (vgl. Nentwich et al. 2006) – auch auf die Gestaltungsprozesse als solche auszuweiten und damit nicht nur Implementationsprobleme, sondern bereits frühe Phasen der Technikentwicklung als Partizipationsgegenstand zu adressieren. Dies gilt aus zwei Gründen: Insofern die IKT bereits den Weltzugang gesellschaftlicher Akteure prägen, indem sie die Art, Menge, Verfügbarkeit und bisweilen auch den Inhalt von Informationen strukturieren, werden zum einen die Art und Weise, wie sie dies tun, sowie das Ausmaß, in dem sie dies tun, nicht erst im Lichte ihrer Folgen relevant. Je mehr das Verfügen über IKT und die Fähigkeit, mit ihnen umzugehen, bereits Grundvoraussetzungen dafür sind, überhaupt an gesellschaftlichen Aushandlungsprozessen teilzuhaben, desto weniger lassen sich genau diejenigen Fragen, welche sich aus Schwierigkeiten beim Zugang zu und beim Umgang mit ihnen ergeben, von den Betroffenen angemessen zu Gehör bringen. Je früher solche Schwierigkeiten bemerkt, mit den potentiell Betroffenen verhandelt und gemeinsam mit ihnen auf Lösungsmöglichkeiten überprüft werden, desto geringer ist das Risiko, dass ein Mangel an technologischer Handlungsfähigkeit zu einem Mangel an allgemeiner gesellschaftlicher Handlungsfähigkeit und Teilhabe gerät. Zum anderen werden die Grenzen zwischen GestalterInnen und NutzerInnen der IKT sowie zwischen Gestaltungs- und Nutzungshandeln um so unklarer, je tiefer diese Technologien in die menschlichen Lebenswelten eingelassen sind, und je mehr Handeln im Allgemeinen auf dem Wege dieser Technologien im Besonderen erfolgt. Gerade darum erscheint das in ein und derselben Person zu findende Auseinanderfallen von Gestaltungs- und Nutzungsperspektive in den operativen Bereichen der IKT-Entwicklung so bemerkenswert, und genau darum wirkt die kreative Aneignung von Funktionen durch NutzerInnen sowohl auf die Technikgestaltung als auch auf ihre eigene allgemeine Handlungsfähigkeit zurück.
Information und technologische Handlungsfähigkeit
69
Soll eine Teilhabe an der Gestaltung solcher Technologien möglich sein, verlangt dies nach Strategien und Modi, die zum einen direkt und eng an die spezifischen Lebenswelten der NutzerInnen gekoppelt sind. Zum anderen sollten sie den informationstechnisch strukturierten Weltzugang nicht nur als Gegenstand, sondern auch als Rahmenbedingung der allgemeinen gesellschaftlichen Teilhabe berücksichtigen. Für ein solches Vorhaben bieten Ansätze nutzerorientierter Gestaltungsmethoden sowie Theorieangebote, die das Verhältnis zwischen technologischer Innovation und Nutzungsmustern thematisieren (zum Beispiel Bjerknes et al. 1987 und Schuler und Namioka 1993 bzw. Haddon et al. 2005), mögliche Anschlusspunkte. Insbesondere vor dem Hintergrund der Implikationen technologischer Handlungsfähigkeit auf die allgemeine gesellschaftliche Teilhabe wären die unterschiedlichen Rollen und Handlungsmöglichkeiten von NutzerInnen und GestalterInnen in IKT-Entwicklungsprozessen genauer zu untersuchen (vgl. Rohracher 2006, insbesondere S. 17 ff u. 63 ff). Das Ergebnis einer solchen Vertiefung wäre eine genauere Kenntnis der Rahmenbedingungen, Arenen, Akteure und möglichen Reichweiten der Teilhabe an der Informationsgesellschaft als Teilhabe an der Nutzung und Gestaltung derjenigen Technologien, welche eine Informationsgesellschaft und das Handeln in ihr erst ermöglichen. Literatur Aichholzer, Georg (2003): „‚Digital Divides’ in Österreich“. In: Rundfunk & Telekom Regulierungs-GmbH, Hg.: Breitband: Infrastruktur im Spannungsfeld mit Applikationen, Content und Services. Wien: RTR, S. 181-195. Akrich, Madeleine (1995): „User Representations: Practices, Methods and Sociology“. In: Arie Rip, Thomas J. Misa und Johan Schot, Hg.: Managing Technology in Society. London und New York: Pinker Publishers, S. 167-184. Bell, Daniel (1973): The Coming of Post-Industrial Society. A Venture of Social Forecasting. New York: Basic Books. Bjerknes, Gro, Pelle Ehn und Morten Kyng (1987), Hg.: Computers and Democracy. Aldershot: Averbury. Böhle, Knud (2005): „Ein kurzer Blick auf die ‚nachhaltige Informationsgesellschaft’. Eine Sammelrezension“. Technikfolgenabschätzung – Theorie und Praxis 14/1: 118-123. Davidson, Donald (1985): Handlung und Ereignis. Frankfurt: Suhrkamp (Essays on Actions and Events dt.). Davis, Fred D. (1989): „Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology“. MIS Quarterly 13: 319-340. Denning, Peter J. (2002), Hg.: The Invisible Future. The Seamless Integration of Technology into Everyday Life. New York: McGraw-Hill.
70
Greif, Mitrea, Werner
Dretske, Fred (1981): Knowledge and the Flow of Information. Cambridge: MIT Press. Dretske, Fred (2007): „The Metaphysiscs of Information“. Eröffnungsvortrag des 30. ALWS-Symposiums, Philosophy of the Information Society, Kirchberg am Wechsel, 06.08.2007. Edwards, Paul (1994): „From ‚Impact’ to Social Process. Computers in Society and Culture“. In: Sheila Jasanoff et al., Hg.: Handbook of Science and Technology Studies. Thousand Oaks: Sage, S. 257-285. Goodwin, Nancy C. (1987): „Functionality and Usability“. Communications of the ACM 30/3: 229-233. Haddon, Leslie, Enid Mante, Bartolomeo Sapio, Kari-Hans Kommonen, Leopoldina Fortunati und Annevi Kant (2005), Hg.: Everyday Innovators. Researching the Role of Users in Shaping ICTs. Dordrecht: Springer. Hardt, Michael und Antonio Negri (2003): Empire. Die neue Weltordnung. Frankfurt am Main: Campus. Jordan, Patrick W. (2000): Designing Pleasurable Products: An Introduction to the New Human Factors. London: Taylor & Francis. Kuhlen, Rainer (2004): „Information”. In: Rainer Kuhlen, Thomas Seeger und Dietmar Strauch, Hg.: Grundlagen der praktischen Information und Dokumentation. Band 1: Handbuch zur Einführung in die Informationswissenschaft. 5., völlig neu gefasste Ausgabe. München: Saur-Verlag, S. 3-20. Kurzweil, Ray (2002): „Fine Living in Virtual Reality“. In: Denning (2002), S. 193-215. Lewontin, Richard (1982): „Organism and Environment“. In: Henry Plotkin, Hg.: Learning, Development and Culture. Chichester: Wiley and Sons, S. 151-170. Machlup, Fritz (1962): The Production and Distribution of Knowledge in the United States. Princeton: Princeton University Press. McNamara, Niamh and Jurek Kirakowski (2005): „Defining Usability: Quality of Use or Quality of Experience?“. Proceedings of the 2005 International Professional Communication (IPCC) Conference. Kein Ort, S. 200-204. Meggle, Georg (1977), Hg.: Analytische Handlungstheorie. Band 1: Handlungsbeschreibungen. Frankfurt: Suhrkamp. Millikan, Ruth (2004): Varieties of Meaning. The 2002 Nicod Lectures. Cambridge: MIT Press. Mitrea, Oana, Matthias Werner und Hajo Greif (2007): Die nachhaltige Entwicklung von Informations- und Kommunikationstechnologien in Kärnten. Projektbericht. Klagenfurter Beiträge zur Technikdiskussion, Heft 115. Klagenfurt: Institut für Technik- und Wissenschaftsforschung. Nentwich, Michael et al. (2006): Techpol 2.0: Awareness – Partizipation – Legitimität. Vorschläge zur partizipativen Gestaltung der österreichischen Technologiepolitik. Wien: ITA. Nielsen, Jakob (1994): Usability Engineering. San Francisco: Morgan Kaufmann. Norman, Donald A. (1998): The Invisible Computer. Cambridge: MIT Press. Norris, Pippa (2001): Digital Divide. Civic Engagement, Information Poverty, and the Internet Worldwide. Cambridge: Cambridge University Press.
Information und technologische Handlungsfähigkeit
71
ÖIN – Österreichisches Institut für Nachhaltige Entwicklung (2003): Reporting about Sustainability. In 7 Schritten zum Nachhaltigkeitsbericht. Wien: ÖIN. http://www.abcsd.at/content/respact/service/dokumente/article/2140.html (Online-Ressource). Rogers, Everett M. (2005): Diffusion of Innovations. 5th edition. New York: Free Press. Rohracher, Harald (2006): The Mutual Shaping of Design and Use. Innovations for Sustainable Buildings as a Process of Social Learning. München: profil. Satyanarayanan, Mahadev (2005): „Swiss Army Knife or Wallet?“ IEEE Pervasive Computing 4/2: 2-3. Schienstock, Gerd (2003): „Technological Practices and Social Exclusion Risks in Information Society – A Conceptual Framework“. In: Gotthard Bechmann, Bettina-Johanna Krings und Michael Rader, Hg.: Across the Divide. Work, Organization and Social Exclusion in the European Information Society. Berlin: Edition Sigma, S. 17-41. Schuler, Douglas und Aki Namioka (1993), Hg.: Participatory Design. Principles and Practices. Hillsdale: Erlbaum. Schwarzer, Steve, Michael Ornetzeder und Judith Feichtinger (2006): Sozialkapital und nachhaltige Entwicklung. http://www.nachhaltigkeit.at/reportagen.php3?id=5 (Online-Ressource). Shackel, Brian (1991): „Usability – Context, Framework, Definition, Design and Evaluation“. In: Brian Shackel und Simon Richardson, Hg.: Human Factors for Informatics Usability. Cambridge: Cambridge University Press, S. 21-37. Suchman, Lucy (1987): Plans and Situated Actions. The Problem of HumanMachine Communication. Cambridge: Cambridge University Press. Sugai, Philip (2007): „Exploring the Impact of Handset Upgrades on Mobile Content and Service Usage“. International Journal of Mobile Communications 5/3: 281-299. Suhl, Sven-Olaf (2005): „Mobile Multimedia liegt noch brach“. c’t – Magazin für Computertechnik 22/6: 64. Thomas, Peter und Robert D. Macredie (2002): „Introduction to The New Usability“. ACM Transactions on Computer-Human Interaction 9/2: 69-73. Weber, Karsten (2006): „Closing the Digital Divide – local, nicht global“. Beitrag zur Zweiten Konferenz des Netzwerks TA, Technology Assessment in der Weltgesellschaft, Berlin, 22.-24.11.2006. Abstract unter: http://www.itas.fzk.de/v/nta2/abstr/kweb06a.htm (Online-Ressource). Wersig, Gernot (2000): „Wege aus der Informationsgesellschaft“. Vortrag auf der Veranstaltung Wege aus der Informationsgesellschaft, Förderkreis Arbeitsbereich Informationswissenschaft, Freie Universität Berlin, 04.12.2000. http://www.kommwiss.fu-berlin.de/425.html (Online-Ressource). Woolgar, Steve (1991): „Configuring the User. The Case of Usability Trials“. In: John Law, Hg.: A Sociology of Monsters. London: Routledge, S. 57-99.
Alle Online-Quellen geprüft im August 2007.
Herausforderung künstlicher Handlungsträgerschaft. Frotzelattacken in hybriden Austauschprozessen von Menschen und virtuellen Agenten Antonia L. Krummheuer*
1
Einleitung1
Der Begriff der Informationsgesellschaft versucht die Entwicklungen, Strukturen und gesellschaftlichen Veränderungen zu erfassen, die durch den Eintritt neuer Informations- und Kommunikationsmedien in Alltag, Freizeit und Arbeitswelt entstehen.2 Medien ermöglichen eine Entgrenzung der Kommunikation von Zeit und Raum. Gerade die Entwicklung neuer Informations- und Kommunikationstechnologien hat zur Ausbildung einer Vielzahl von „Interaktion[en] ohne Gegenüber“ (Ayaß 2005) geführt. Das ‚fehlende’ anwesende Gegenüber kann beispielsweise über Handy, Videotechnik oder Chat technisch vermittelt oder als hypothetischer Rezipient angesprochen werden, zum Beispiel in Onlineforen oder im Fernsehen. Dabei werden Kommunikationen zunehmend auch mit einem digitalen Gegenüber gestaltet, das uns zum Beispiel als durch Menschen gesteuerte Spielfigur in Onlinespielen (Avatare) oder als programmgesteuerter Chatterbot oder virtueller Agent (zum Beispiel im Internet) gegenübertritt. Virtuelle Agenten sind Softwareprogramme, die innerhalb einer Umwelt ein autonomes Verhalten aufzeigen, insofern sie diese Umwelt wahrnehmen, auf sie reagieren und eigenständige Ziele verfolgen, zum Beispiel eine Aufgabe ausführen (Definition nach Franklin und Graesser * 1
2
Institut für Kultur-, Literatur- und Musikwissenschaft, Universität Klagenfurt. Für die Lektüre und Kommentierung früherer Fassungen dieses Textes sei Ruth Ayaß und den Teilnehmern ihres Kolloquiums herzlich gedankt. Der Dank gilt ebenso Claudia Küttel, Hajo Greif und Jürgen Struger für die Überprüfung der Transkripte und die Korrektur des Textes. Für Erklärungen und Ausführungen zu Agentensystemen danke ich Christian Becker, Stefan Kopp, Marc Latoschik, Matthias Rehm und Ipke Wachsmuth. Zu einer Diskussion der vielfältigen Verwendung dieses doch recht uneindeutigen Begriffs siehe Webster (2006).
74
Krummheuer
1997).3 Je nach Entwicklungsszenario sollen die Agenten interaktiv, intelligent, lernfähig, sozial, emotional und/oder reflexiv sein. Die Agenten können sich dabei im Austausch mit anderen Agenten befinden oder in hybride ‚Interaktionen’ mit menschlichen Akteuren verwickelt sein. Darunter fallen zum Beispiel die Rechtschreibprüfung des Textverarbeitungsprogramms, die den Text nach eigenen Regeln überprüft, der interaktive Fahrkartenautomat, der im Austausch mit einem Kunden eine Fahrkarte bucht, oder Systeme verteilter künstlicher Intelligenz, in denen zum Beispiel mehrere Rechner verbunden sind und untereinander Daten austauschen (vgl. auch Rammert und Schulz-Schaeffer 2002b, S. 19 f). Die Entgrenzung der Kommunikation durch neue Medien bezieht sich somit nicht nur auf die technische Vermittlung zwischenmenschlicher Kommunikation, sondern auch auf den Austausch mit einem programmgesteuerten, digitalen Gegenüber. 1.1 Fragestellung und Datenmaterial Die folgende Analyse basiert auf Videoaufnahmen von Interaktionen von Nutzern mit dem virtuellen Agenten Max.4 Der Fokus richtet sich auf Nutzer, die den Agenten kaum oder gar nicht kannten. Es handelt sich somit um eine Situation des Kennenlernens, in denen sich die Nutzer den Agenten Max aneignen. Bei der Auswertung der Videoaufnahmen können einerseits Aneignungsprozesse beobachtet werden, in denen sich die Nutzer dem kommunikativen Angebot von Max anpassen und sich sozusagen an den Programmstrukturen ‚entlang hangeln’. Andererseits 3
4
Die hier aufgeführte Definition ist eine Kurzform der Definition, die Franklin und Graesser vorschlagen, um einen gemeinsamen Nenner für die unzähligen mehr oder minder strikten Definitionen von Agenten zu etablieren, die in verschiedenen Anwendungsszenarien zu finden sind und sich teilweise widersprechen (vgl. auch Bradshaw 1997). Braun-Thürmann (2002) führt diese unbestimmte Sprachregelung darauf zurück, dass Agenten Artefakte in einer frühen Innovationsphase sind. Ihre Bestimmung befinde sich im gesellschaftlichen Aushandlungsprozess (S. 91-115). Dabei diene die Metapher „Agent“ nicht nur als Stilmittel, sondern habe handlungsorientierende Funktion. Der Begriff generiere Erwartungen, an denen Nutzer ihr Verhalten im Umgang mit der neuen Technik orientieren, und biete Entwicklern ein „Leitbild“ (ebd., S. 107) für deren (Weiter-) Entwicklung der Technik. Der Agent wurde maßgeblich von Stefan Kopp in der Arbeitsgruppe „Wissensbasierte Systeme“ am Lehrstuhl von Prof. Dr. Ipke Wachsmuth an der Technischen Fakultät der Universität Bielefeld entwickelt. Es gibt sehr unterschiedliche Versionen des Agentensystems, in denen Max in verschiedenen Szenarien auftritt (mehr Informationen unter http://www.techfak.uni-bielefeld.de/~skopp/max.html). Von der hier vorgestellten Version ist ein ähnliches Exemplar im Heinz-NixdorfMuseumsForum in Paderborn ausgestellt (siehe auch Kopp et al. 2005).
Herausforderung künstlicher Handlungsträgerschaft
75
können häufig herausfordernde Handlungen beobachtet werden, in denen die Nutzer die sozialen und kommunikativen Grenzen des Agenten austesten. Dazu zählen zum Beispiel provokative Fragen, Beleidigungen, Frotzeleien oder auch der Versuch, den ‚Absturz’ des Programms zu veranlassen. Ausgehend von diesen Beobachtungen stellen sich die Fragen: Welche interaktiven Strukturen nehmen diese Herausforderungen an? Inwiefern unterscheiden sie sich von zwischenmenschlichen Formen des Herausforderns, und welche Ähnlichkeiten können beobachtet werden? Welche Funktion haben die Herausforderungen im Austausch mit dem Agenten? Die kommunikative Gattung des „Frotzelns“ als eine verbale Attacke zwischen „Scherz und Schmerz“ (Günthner 1996, S. 81) wurde im deutsprachigen Raum detailliert erarbeitet (Günthner 1996 und 1999). Vor dem Hintergrund dieser Studien zum zwischenmenschlichen Frotzeln wird hier exemplarisch die Analyse einer Frotzelsequenz im hybriden Austausch vorgestellt. Der Vergleich der kommunikativen Strukturen in den verschiedenen Interaktionen soll Aufschluss über die oben gestellten Fragen geben. Zudem werden aus dem Vergleich wesentliche Erkenntnisse über Merkmale des hybriden Austauschs geschlossen. Die Analyse der hybriden Frotzelsequenz kann zugleich als Herausforderung soziologischer Theorien gesehen werden. Virtuelle Agenten werden von ihren Entwicklern als „interaktiv“ und „dialogfähig“ beschrieben. Diese Verwendung des Begriffs der Interaktion für technische Artefakte hat innerhalb der Soziologie zu einer kontroversen Diskussion über die Handlungsträgerschaft interaktiver Technologien geführt (zum Beispiel Christaller und Wehner 2003; Fohler 2003; Rammert und SchulzSchaeffer 2002b). Es stellt sich somit die Frage, ob es sich um eine Interaktion im soziologischen Sinne handelt und ob Technik zur „Teilnehmerin sozialer Wirklichkeit“ (Braun-Thürmann 2002) werden kann. Dieser Frage geht die vorliegende Studie vor dem Hintergrund des interpretativen Paradigmas nach. Dieses versteht soziale Ordnung und sozialen Sinn nicht als vorgegebene, fixe Strukturen, sondern als interaktive und situative Konstruktionen, die von den Alltagsteilnehmern hervorgebracht werden (vgl. Abels 2004; Wilson 1981). 1.2 Datenmaterial und Erhebung Die im Folgenden analysierten Aufnahmen fanden an einem verkaufsoffenen Samstag im Februar 2004 von 11-18 Uhr im Rahmen der Veranstaltung „Campus:City!“ statt.5 Die Interaktionen mit Max wurden mit zwei 5
„Campus:City!“ war die Abschlussveranstaltung des Eventjahres „Wissen schafft Einblicke“, das die Bielefelder Hochschulen gemeinsam mit der Stadt organisier-
76
Krummheuer
Kameras aufgenommen, die das Geschehen vor dem Bildschirm sowie den Bildschirm selbst filmten (siehe auch Krummheuer 2005). Das Datenmaterial umfasst zweimal sieben Stunden, aus denen 29 Interaktionen von erwachsenen Nutzern mit Max analysiert wurden, die den Agenten nicht oder kaum kannten.6 Das Datenmaterial wurde nach den Prinzipien der ethnomethodologischen Konversationsanalyse ausgewertet. Die Aufnahmen wurden transkribiert und in ihrem sequentiellen Ablauf auf regelmäßig wiederkehrende Muster untersucht, um so die kommunikative Herstellung sozialer Ordnung zu erforschen (vgl. Bergmann 1981). 1.3 Gliederung Im folgenden Abschnitt 2 wird der techniktheoretische Hintergrund dieser Arbeit vorgestellt und der Begriff der „künstlichen Interaktion“ (BraunThürmann 2002) erarbeitet. Anschließend wird der Agent Max als Interaktionspartner vorgestellt (Abschnitt 3). Es folgt die Analyse der Frotzelsequenz im hybriden Austausch, die mit zwischenmenschlichen Formen des Frotzelns verglichen wird. Abschnitt 5 fasst die Ergebnisse zusammen. 2
Die Zuschreibung von Handlungsträgerschaft
Die klassischen Techniktheorien schreiben allein dem Menschen Handlungsfähigkeit zu, die auf seiner Autonomie, Flexibilität, Willensfreiheit, Intentionalität und Reflexivität beruhe. Technik wird jeweils als Werkzeug, als Objekt menschlichen Handelns gesehen. Wenn Technik selbständig arbeite, dann in Form vorgegebener, deterministischer Schemata oder Automatismen, die vorherbestimmt und vorhersagbar seien. Das Verhältnis zwischen Technik und Sozialem (immer begrenzt auf den Menschen) wird dabei entweder technikdeterministisch bestimmt, inso-
6
ten. An einem verkaufsoffenen Samstag wurde der Campus sozusagen in die Innenstadt verlegt. In der Fußgängerzone und in Einkaufszentren wurden wissenschaftliche Objekte und Forschungsergebnisse (zum Beispiel ein virtueller Agent, ein Roboter, ein Chemielabor) vorgestellt, mit denen sich interessierte Passanten auseinander setzen konnten. Die ausgewählten Interaktionen stammen aus einem Korpus von über 50 Interaktionen. Jedoch wurden für die Analyse Interaktionen von Kindern und den Entwicklern mit Max ausgelassen. Zudem wurden als Vergleichsmaterial weitere Aufnahmen von Interaktionen mit der Agentin Cosima erhoben, die an dieser Stelle nicht weiter berücksichtigt werden (siehe auch Krummheuer 2005). Cosima wurde von Prof. Dr. Werner Kießling und Stefan Fischer am Lehrstuhl für Datenbanken und Informationssysteme der Universität Augsburg entwickelt (http://www.mycosima.com/).
Herausforderung künstlicher Handlungsträgerschaft
77
fern Technik soziale Strukturen und menschliches Handeln forme, oder als Ergebnis sozialer Handlungen und Strukturen beschrieben (sozialer Reduktionismus). Einige Ansätze verbinden beide Seiten und gehen von einem wechselseitigen Verhältnis aus, jedoch bleibt die ontologische Differenz zwischen Technischem und Sozialem weiterhin bestehen (vgl. Law 1991, S. 8; ebenso Fohler 2003; Rammert und Schulz-Schaeffer 2002b; Werle 2002).7 Bruno Latour und die an ihn anschließende Akteur-Netzwerk-Theorie kritisieren diese Dualität (Latour 2005; Law 1991). Statt Technisches und Soziales als zwei differente Einheiten zu sehen, gehen sie von hybriden Netzwerken aus, in denen menschliche und nicht-menschliche Knotenpunkte gemeinsam Handlungen vollziehen. Die Beziehung zwischen Mensch und Technik wird dabei als gleichwertig angesehen. Diese Symmetrie zeigt sich zum Beispiel im Begriff des „actant“ (Latour 2005, S. 54), der nicht mehr zwischen Mensch und Technik unterscheidet, sondern eine Entität jeglicher Art bezeichnet, die handeln kann. Während die ontologische Unterscheidung Technik als Handlungsträger theoretisch ausschließt, sieht die Akteur-Netzwerk-Theorie „humans and nonhumans“ (Johnson [= Latour] 1988) als gleichwertige Handlungsträger, ohne ihre differenten Handlungsfähigkeiten zu unterscheiden. Rammert und Schulz-Schaeffer (2002b) schlagen dagegen einen Perspektivwechsel vor, in dem nicht die Akteure, sondern die Handlungen und die darin enthaltenen Zuschreibungsprozesse betrachtet werden: Die Frage, ob Maschinen handeln können, ist aus dieser Perspektive die Frage danach, welche Techniken in welchen Handlungszusammenhängen und unter welchen gesellschaftlichen Bedingungen als (Mit-) Handelnde definiert und behandelt werden und inwieweit sich diese Sichtund Handlungsweise mit welchen Folgen durchsetzt. (ebd., S. 56)
Es ist somit nicht mehr der Wissenschaftler, der durch a priori gesetzte Annahmen die Beziehung zwischen Mensch und Technik definiert, sondern es wird vielmehr gefragt, ob die Interaktionsteilnehmer ein Verhalten zeigen, dem man Handlungsträgerschaft zusprechen kann. 7
Neben den hier aufgezählten technisch-soziologischen Ansätzen beschäftigen sich auch die Workplace Studies, die Studien des Computer Supported Cooperative Work (CSCW) und die Studien der Human-Computer Interaction (HCI) mit dem Zusammenspiel von Technik und Akteur sowie technisch vermittelter Interaktion in detailreichen Interaktionsanalysen (vgl. Luff, Hindmarsh und Heath 2000). Es gibt jedoch nur wenige Arbeiten, die sich explizit mit dem Umgang mit interaktiven Techniken beschäftigen, zum Beispiel Suchman (1987); siehe auch die Arbeiten im Sammelband von Luff, Gilbert und Frohlich (1990) und Hutchby (2001), S. 146-172.
78
Krummheuer
Aufbauend auf dieser Perspektive geht Braun-Thürmann der Frage nach, wie Agenten interagieren. Anhand seiner Beobachtungen in zwei Forschungsfeldern, in denen interaktive Artefakte entwickelt werden, definiert er den (operativen) Begriff der „künstlichen Interaktion“ (2002, S. 15). Es handelt sich dabei um „jene Interaktionen, an denen technische Dinge in einer Weise teilnehmen, dass sie von menschlichen BeobachterInnen als Subjekte einer sozialen Interaktion wahrgenommen werden können“ (ebd.). Er unterscheidet zwei Formen künstlicher Interaktion: „Intraaktionen“ (ebd., S. 14) von Agentensystemen untereinander und „Interaktivität“ (ebd.), sequentielle Aktivitäten zwischen Mensch und Agent, die hier von weiterem Belang sind. Am Beispiel des Agenten Hamilton im Architekturprojekt VIENA (VIrtual ENvironments and Agents) zeigt Braun-Thürmann, welche Möglichkeiten der Interaktivität dem Agenten und seiner virtuellen Umwelt implementiert wurden, durch die der Austausch zwischen Agent und Mensch gestaltet wird. Er zeigt, dass die Mechanismen technisch bestimmt und limitiert sind, gleichzeitig aber auch eine Orientierung an sozialen Mustern zwischenmenschlicher Interaktionen aufweisen. Konstitutiv für eine künstliche Interaktion in hybriden Kontexten sind ein virtueller Raum, ein virtueller Agent sowie die „Mechanismen der Interaktivität“ (ebd., S. 117-148; vgl. auch Braun-Thürmann 2003). Im Fall von VIENA ist der virtuelle Raum ein Bürozimmer, das gemeinsam eingerichtet werden kann. Der virtuelle Raum dient zur „Schaffung einer gemeinsamen Bezugswirklichkeit“ (Braun-Thürmann 2003, S. 241), in der der Agent als koexistent wahrgenommen werden kann. Hier können Agent und Nutzer gemeinsam den Raum gestalten, zum Beispiel die Position einer Pflanze verändern. Den virtuellen Agenten bezeichnet Braun-Thürmann als „Schwellen-Objekt zwischen zwei Welten“, das „weder Ding noch Mensch“ ist (2002, S. 133) und als Ansprechpartner dazu motiviert, in eine Art Dialog mit der Technik zu treten. Wesentlich für den Austausch zwischen Nutzer und Agent sind die Mechanismen der Interaktivität, welche den Austausch einerseits ermöglichen, andererseits aber auch begrenzen. So kann der Agent Hamilton nicht sprechen, aber er reagiert auf sprachliche Eingaben: Er hebt die Hand zum Gruß, nachdem er gegrüßt wurde, oder kommt näher, wenn er dazu aufgefordert wird (vgl. ebd., S. 140 ff). Die Interaktivität zeichnet sich dabei auch dadurch aus, dass der Austausch Möglichkeiten bietet, welche die alltäglichen, realweltlichen Erfahrungen des Nutzers überschreiten. Zum Beispiel kann der Nutzer in den ‚Körper’ von Hamilton ‚schlüpfen’ und den virtuellen Raum aus der Perspektive des Agenten betrachten (vgl. ebd., S. 136 ff). Die verschiedenen technisch geformten Mechanismen ermöglichen im begrenzten Maß die „Erfahrung von einer gemeinsamen Welt“,
Herausforderung künstlicher Handlungsträgerschaft
79
durch die der Eindruck entsteht, dass Agent und Nutzer in einem „intersubjektiven Verhältnis zueinander stünden“ (ebd., S. 145). Braun-Thürmann zeigt, wie sozial orientierte Mechanismen der Interaktivität die Handlungsfähigkeit von Agenten gestalten, so dass der Eindruck einer „künstlichen Interaktion“ (ebd., S. 15) entstehen kann. Die Frage, wie Nutzer und Agent gemeinsam diese Interaktion gestalten, diskutiert er jedoch nur ansatzweise. Der Frage nach der Aneignung eines interaktiven Artefakts ist Lucy Suchman in ihrer als Klassiker geltenden Studie Plans and Situated Actions (1987) zum Umgang mit einem interaktiven Fotokopierer nachgegangen. Sie unterscheidet verschiedene Situationen, in denen sich Nutzer und Maschine befinden, sowie differente Interaktionsannahmen, auf denen die Beteiligten ihre Aktivitäten und Handlungen aufbauen. Suchman legt dar, dass die Aktivitäten von Nutzer und Maschine dem jeweils anderen nur bedingt zugänglich sind. So kann der Kopierer zum Beispiel Sprachhandlungen nicht wahrnehmen, sondern nur die Tätigkeiten, die an ihm ausgeführt werden. Dem Nutzer hingegen sind die programminternen Auswahlschritte der Maschine nicht zugänglich. Entsprechend unterscheidet Suchman die „situation of the user“ und die „situation of the machine“ (ebd., S. 119), die im interaktiven Austausch kombiniert werden müssen. Mensch und Maschine sind jedoch nicht nur in unterschiedliche Situationen eingebunden, innerhalb derer sie die Handlungen des anderen deuten und ihre eigenen gestalten. Sie begründen ihre Aktivitäten auch auf jeweils unterschiedlichen Interaktionsannahmen: Suchman zeigt, dass die planbasierten Interaktionsmodelle, welche die Entwickler der interaktiven Technik implementierten, auf Nutzer treffen, die zwar um die Limitation des Artefakts wissen, aber dennoch situative Aushandlungsprozesse anwenden, in denen der Sinn einer Handlung und auch die weitere Interaktion sukzessiv ausgehandelt wird. An verschiedenen Beispielen zeigt sie, wie es aufgrund dieser Diskrepanzen (zwischen planbasierten und situierten Situationswahrnehmungen und Interaktionsunterstellungen) immer wieder zu Kommunikationsproblemen kommt (ebd., S. 118-177). Im Folgenden wird der Fokus auf den hybriden Austauschprozess zwischen Nutzern und Agent gelegt werden. Wie fügen sich die Mechanismen der Interaktivität in den Austausch von Max und Nutzer ein, und wie gehen die Nutzer mit dem interaktiven Angebot des Agenten um? Auf welche Merkmale künstlicher Interaktionen kann daraus geschlossen werden? Dazu soll zudem der Kontext gewechselt werden: Während Braun-Thürmann in die Forschungszentren gegangen ist und dort die Interaktivitäten der Agenten mit ihren Entwicklern beobachtete, werden in der vorliegenden Studie Situationen betrachtet, in denen sich Nutzer ein für sie ungewohntes Artefakt aneignen.
80 3
Krummheuer Der virtuelle Agent Max als Interaktionsteilnehmer
Max ist ein Embodied Conversational Agent (ECA) – ein autonomes Softwareprogramm mit künstlicher Intelligenz, das durch ein Dialogsystem ein menschenähnliches Kommunikationsverhalten aufweisen soll und durch einen virtuellen Körper präsentiert wird (Gesellensetter 2004, Kopp et al. 2003). Durch die Verkörperung des Agenten, aber auch durch seine kommunikativen Fähigkeiten soll eine zwischenmenschliche Gesprächssituation nachempfunden werden, um den Umgang mit computerbasierter Technologie zu vereinfachen (Cassell et al. 2000). Der Agent Max ist als Präsentationsagent konzeptualisiert (Gesellensetter 2004; Kopp et al. 2005). Er kann über sich, seinen Entstehungskontext (zum Beispiel das Thema künstliche Intelligenz) sowie das Event „Campus:City!“ Informationen geben, ist aber auch zu einem informellen Gespräch (zum Beispiel über das Wetter) in der Lage und beherrscht ein Ratespiel.
Abbildung 1: Max auf dem Hochschulevent „Campus:City!“ Während der Präsentation bei „Campus:City!“ tritt Max dem Nutzer auf einem 2,10 m hohen und 1,70 m breiten „Cykloop“ entgegen, der aus einem Sockel besteht, auf dem ein Bildschirm befestigt ist (Abb. 1). Max wird dort als lebensgroßer, männlicher Ansprechpartner mit menschen-
Herausforderung künstlicher Handlungsträgerschaft
81
ähnlichen Zügen dargestellt. Seine Virtualität zeigt sich im Kontrast zwischen seiner comicartigen Figur und dem realweltlichen Hintergrund, der ein Foto der Universität Bielefeld zeigt. Max kann somit als „SchwellenObjekt“ (Braun-Thürmann 2002, S. 133) wahrgenommen werden, das kein Mensch ist, aber menschenähnliche Züge aufweist und als adressierbarer Ansprechpartner zu einem Dialog motiviert. Der Nutzer kann die virtuelle Welt des Agenten über die Texteingabe ‚betreten’. Dazu wird ein Tisch mit Tastatur vor dem Bildschirm aufgebaut. Die Texteingabe kann im weißen Feld am unteren Rand des Bildschirmbildes mitverfolgt und gegebenenfalls auch korrigiert werden (vgl. Abb. 1). Wird die Enter-Taste gedrückt, erscheint der Text im oberen, grau unterlegten Feld und wird an das Dialogsystem gesendet.8 Das Dialogsystem analysiert die Textnachricht nach vorgegebenen Regeln und wählt eine passende Anschlussreaktion aus, die dem Nutzer über ein Sprachsystem auditiv übermittelt wird (mehr dazu siehe Gesellensetter 2004).9 Die Interaktion zwischen Max und dem Nutzer kann somit als ein technisch vermittelter Austausch bezeichnet werden, in der den beiden Gesprächspartnern unterschiedliche Möglichkeiten der Teilnahme zur Verfügung stehen: Während Max spricht, kann der Nutzer über die Eingabe von Textnachrichten an der Kommunikation teilnehmen. Zudem müssen die verschiedenen kommunikativen Fähigkeiten der Gesprächspartner berücksichtigt werden. Die Handlungsfähigkeit des Agenten unterscheidet sich grundsätzlich von derjenigen der menschlichen Akteure, da sie auf vorprogrammierten Strukturen aufbaut, die die Interaktionsfä8
9
In einem anderen Szenario kann der Nutzer auch mit dem Agenten sprechen. Jedoch kann der Agent bei starken Umgebungsgeräuschen die Äußerungen des Nutzers nicht identifizieren, daher wurde für die Präsentation im Einkaufszentrum die Spracheingabe über die Tastatur gewählt. Das Dialogsystem greift auf die von Rao und Georgeff entwickelte BDI-Struktur (BDI steht für Beliefs, Desires, Intentions) zurück, durch die die Vorstellungen des Agenten und sein Interaktionsverhalten gesteuert werden (vgl. Gesellensetter 2004). Max wurden für die hybriden Interaktionen bestimmte Umweltvorstellungen, Vorlieben und Interessen sowie Handlungsziele und -muster implementiert, deren Zusammenspiel durch verschiedene Regeln situativ bestimmt wird, das heißt, das System kann sich Situationen anpassen und zum Beispiel Handlungsziele aufnehmen oder fallen lassen. Die Auswertungen der Textnachrichten beruhen auf einer grammatikbasierten Textanalyse und einem so genannten Pattern Matching. Äußerungen des Nutzers werden auf Syntax, Schlüsselwörter und Schlüsselzeichen geprüft, denen eine bestimmte kommunikative Funktion zugewiesen ist. Ein Fragezeichen ist zum Beispiel mit der kommunikativen Funktion einer Frage verbunden, das Wort „hallo“ wird als Gruß interpretiert. Aufgrund der zugewiesenen kommunikativen Funktion (zum Beispiel Frage oder Gruß) wird aus einer Anzahl vorgeschriebener Anschlussreaktionen eine Äußerung ausgewählt. Diese Auswahl wird zudem von dem Emotionssystem des Agenten beeinflusst.
82
Krummheuer
higkeiten des Agenten bestimmen und auch begrenzen (vgl. auch die Beobachtungen von Braun-Thürmann 2002 und Suchman 1987). Zudem ist den Gesprächspartnern die jeweilige Situation des anderen nur begrenzt zugänglich. Max ist vom verbalen und nonverbalen Verhalten vor dem Bildschirm so gut wie ausgeschlossen, da das Dialogsystem hauptsächlich auf der Auswertung der Textnachrichten beruht.10 Des Weiteren sind die Gesprächspartner unterschiedlich situativ eingebunden. Während Max einen Dialog mit einem Nutzer führt, ist der Nutzer in ein komplexes Interaktionsgefüge vor dem Bildschirm verwickelt, in dem er vor einem beobachtenden Publikum eine ihm selbst unvertraute Technik ausprobiert. Kurz gesagt: Es handelt sich um eine technisch vermittelte Interaktion zwischen zwei unterschiedlichen Wesen mit unterschiedlichen Situationswahrnehmungen und unterschiedlichen Kommunikationsfähigkeiten, die sich zudem an (stofflich) unterschiedlichen Orten befinden. 4
Frotzelattacken als Spiel im Spiel
Im Folgenden wird ein Ausschnitt vorgestellt, in dem eine Nutzerin (Rosmarie) Max mit einer Frotzelattacke herausfordert. Das Transkript gibt die Äußerungen und Handlungen von Max und Rosmarie (Ros.) sowie die Texteingaben (Text) der Nutzerin in ihrer zeitlichen Abfolge wieder. Dabei wird versucht, die Realisation der Äußerung wiederzugeben (vgl. Selting et al. 1998). Das Transkript wurde nicht nach der deutschen Rechtschreibung angefertigt: Sprachliche Äußerungen werden klein geschrieben, und Satzzeichen oder Großbuchstaben kommt eine eigene Bedeutung zu. Die Darstellung der Transkriptionskonventionen ist im Anhang (S. 95) zu finden. Für die bessere Lesbarkeit wurde das Transkript vereinfacht und der sprachliche Austausch zwischen Max und Rosmarie fett hervorgehoben. Kurz vor dem folgenden Ausschnitt hat Max Rosmarie mehrere Themen vorgeschlagen, über die er ihr etwas erklären könnte. Rosmarie hat das Thema Künstliche Intelligenz (KI) gewählt; ihre Auswahl ist noch im oberen Textfeld zu sehen (Abb. 2). Max beginnt daraufhin mit einer längeren Ausführung zu diesem Thema, in der er sich selbst als künstliche Intelligenz bezeichnet. Nach einiger Zeit unterbricht Rosmarie Max’ Ausführungen mit einer Frage: 10
Prinzipiell kann das Agentensystem auch über eine Kamera seine Umwelt wahrnehmen. Jedoch werden diese Bilder allein daraufhin ausgewertet, ob und wo sich Personen vor dem Bildschirm befinden. Der Agent richtet dann entsprechend seine Augen aus oder fängt an zu winken. Aussehen, Mimik und Gestik der Nutzer werden nicht ausgewertet.
Herausforderung künstlicher Handlungsträgerschaft
83
Beispiel 1: „bist du doof“ (Teil 1)
Abbildung 2: Max erklärt Rosmarie etwas zum Thema „Künstliche Intelligenz“ 01 02 03 04 05 06 07 08 09 10 11 12
Max:
Ros.: Text: Ros.: Max:
Ros.:
< DER begriff DEr künstlichen intelliGENZ> geht auf das jahr neunZEHNhundertsechsundvierzig zurück. ((blickt auf die Tastatur, tippt)) *wer hat dich programmiert* ((blickt zu Max)) < das weiß keiner> ((fängt an sich am Kopf zu kratzen, blickt nach unten)) [so gen|au. [(zieht die Augenbrauen hoch, lächelt)) < ha ha ha> ((atmet lachend ein))(Abb. 3)
Abbildung 3: Max weiß nicht, wer ihn programmiert hat – Rosmarie lacht
84 13 14 15 16 17 18 19 20 21 22
Krummheuer Ros.: ?: ?: Max: Ros.: Text: Ros.:
Max:
[< hehehe> ((schaut lächelnd zu Max)) [haha hahaha [((nimmt Arm runter, schaut nach vorn)) [((blick auf die Tastatur, tippt lächelnd)) *bist du doof* ((leckt sich die Lippen, legt mit einer federnden Bewegung den Kopf leicht nach hinten, blickt zu Max)) [((wippt leicht mit dem Körper)) (Abb. 4) [((hebt Hände, Handflächen nach außen, vor den Körper))
Abbildung 4: Rosmarie fragt Max, ob er doof sei, Max hebt abwehrend die Hände 23 24 25
Max: Ros.:
ich H|OFFe [< du> meinst die FRAge=nicht ernst. [((zieht die Lippen ein))
An diesem Beispiel zeigt sich, dass der hybride Austausch Ähnlichkeiten mit interaktiven Strukturen zwischenmenschlichen Austauschs aufweist. Max und Nutzerin stehen einander frontal gegenüber und zeigen einander ihre gegenseitige Aufmerksamkeit. Auch kommt es zu einem wechselseitigen Austausch, in dem die Äußerungen des anderen jeweils als (mehr oder weniger sinnvolle) Anschlusshandlungen an die jeweils vorangehende Äußerung gesehen werden können. Es entsteht der Eindruck, als würden die Akteure einen gemeinsamen Bezugsrahmen und Fokus haben. Max erscheint als Subjekt der Interaktion. Im Sinne von BraunThürmann kann somit von einer „künstlichen Interaktion“ (2002, S. 15) gesprochen werden.
Herausforderung künstlicher Handlungsträgerschaft
85
Trotz dieses Eindrucks, dass es zu einem wechselseitigen kommunikativen Austausch kommt, wirken die Anschlüsse von Max häufig ‚gebrochen’ oder ‚schief’. So scheint Max Rosmaries Frage, wer ihn programmiert hat, auszuweichen (Z. 5-10). Der schiefe Anschluss ist auf das dem Agenten zu Grunde liegende Dialogsystem zurückzuführen (siehe Fußnote 10). Das Dialogsystem hat auf die Zusammenstellung der eingegebenen Wörter keine passende vorgefertigte Äußerung zur Verfügung. Max erkennt die Wortfolge als eine Frage und wählt entsprechend eine Äußerung aus, die ihm die Informatiker als „universale Anschlussreaktion“ für uneindeutige Situationen implementiert haben. Diese unstimmigen Anschlüsse von Max werden von den Nutzern zu Anfang der Interaktionen meist ignoriert. Doch greifen viele Nutzer die Unstimmigkeit nach einiger Zeit auf und konfrontieren den Agenten damit. Das Beispiel von Rosmarie ist eines von mehreren, in denen die Nutzer im Umgang mit Max kommunikative Strukturen anwenden, die starke Ähnlichkeiten mit den Strukturen aufweisen, die Günthner (1996 und 1999) als „Frotzeln“ bezeichnet. 4.1 Strukturen und Funktionen des Frotzelns in zwischenmenschlichen Interaktionen Susanne Günthner bezeichnet Frotzeln als „spielerische Provokation“ (1999, S. 300), die sich ähnlich wie beispielsweise Aufziehen, Necken und Hänseln zwischen „Scherz und Schmerz“ (1996, S. 102) bewegt. Für die kommunikative Form des Frotzelns beschreibt sie eine prototypische Teilnehmerkonstellation mit drei Interaktionsrollen, die situativ eingenommen werden und an typische Äußerungsformate gebunden sind. Sie unterscheidet: – – –
das „Frotzelsubjekt“, das durch eine „Frotzeläußerung“ die Frotzelsequenz einleitet; das „Frotzelobjekt“, eine anwesende Person, die Ziel der Frotzeläußerung ist und auf diese reagiert; das „Frotzelpublikum“, die Rezipienten der Frotzeläußerung, die nicht gefrotzelt werden, aber als Rezipienten der Frotzelei ebenfalls auf diese reagieren (ebd.; vgl. auch Günthner 1999, S. 303 f).
Das folgende Beispiel (aus Günthner 1996, S. 89) zeigt exemplarisch den Ablauf einer Frotzelsequenz:
86
Krummheuer
Beispiel 2: „Schlafstörungen“11 01. 02. 03. 04. 05. 06. 07. 08. 09. 10. 11. 12. 13. 14.
Bert: Ira: Bert: Ira:
Eva: Ira: Bert: I&E:
du STEIGERST dich aber auch TOTAL REIN. < und redest von NIX anderm mehr.> kann man gut s- sa((hi))gen wenn man selbst ((hi)) KEINE Schlafpr- STÖRUNGEN hat. naja. aber [die Eva] [der hihi] ist hi < DERART UNsensible. dass de-dass beim DEM man- kann man nachts auf SEIM KOPF DISKO tanzn, und er=würd=friedlich=weiterschlummern.> hihihi[hihihi] [hihihi] also ECHT. du hast vielleicht ne FRECHE KLAPPE. UNVERSCHÄMT hahahahahahaha
Im obigen Beispiel wirft Bert Eva vor, sich in ihre Schlafprobleme „reinzusteigern“ (Z. 1), woraufhin Ira (Z. 3) eine Frotzelattacke auf Bert initiiert, den sie als unsensibel gegenüber Evas Problemen darstellt. In dieser Äußerung weist Ira Bert die Rolle des Frotzelobjekts zu, da ihre Äußerung gegen ihn gerichtet ist. Dabei stellt sie in ihrer Äußerung eine Verbindung zu einer vorherigen Handlung des Frotzelobjekts (die Aussage von Bert in Z. 1) her, die mit einem Charakterzug der Person (Berts Schlafverhalten) verbunden wird. Deutlich zeigt sich hier die „Doppelbödigkeit“ (Günthner 1999, S. 305) der Frotzelsequenz als spielerische Kritik, die sich vor allem durch den „Rahmenwechsel“ (ebd.) von ernsthaft zu spielerisch auszeichnet (vgl. auch Günthner 1996, S. 91 f). So kritisiert Ira einerseits Berts Verhalten als unsensibel und markiert damit seine Äußerung als „abweichend, übertrieben, nicht den Erwartungen entsprechend“ (Günthner 1999, S. 310). Gleichzeitig schwächt Ira die Attacke durch die laterale Adressierung, das Lachen und die hyperbolische Übertreibung ab und bettet die Äußerung scherzhaft ein (Günther 1996, S. 89 f). Durch diese scherzhaft spielerische Rahmung ist es möglich, das Gegenüber zu kritisieren, ohne mit sozialen Interaktionskonventionen zu brechen oder das „face“ (nach Goffman 1980) des anderen zu verletzen. Auch die Reaktionen des Frotzelobjekts zeichnen sich meist durch einen doppelbödigen Charakter aus, insofern die Äußerungen sowohl 11
Die Zeilenangaben unterscheiden sich vom Original, da das Transkript für diese Arbeit vereinfacht und den hier verwendeten Transkriptionskonventionen angepasst wurde.
Herausforderung künstlicher Handlungsträgerschaft
87
eine Orientierung an der scherzhaften Rahmung als auch an der Kritik zeigen. So zeigt die Äußerung von Bert (Z. 12) eine Orientierung an Iras Kritik, die ihn etwas überrascht. Gleichzeitig markiert er durch die Lachpartikel, dass er die scherzhafte Rahmung verstanden hat (Günthner 1996, S. 93). Während Bert die Frotzelei zurückspielt, zeigen andere Beispiele, dass das Frotzelobjekt die Kritik oder Provokation ablehnt (vgl. ebd., S. 100 ff und Drew 1987). Günthner zeigt auch Fälle auf, in denen die Frotzelobjekte die Sequenz spielerisch weiterspinnen (1996, S. 96 ff). Auch das Publikum nimmt an dem kommunikativen Austausch teil, indem es zum Beispiel durch Lachen die scherzhafte Rahmung unterstützt oder sich auf die Seite einer Partei schlägt. Im obigen Beispiel scheinen sich die beiden Frauen gerade durch ihr gemeinsames Lachen (Z. 10, 11 und 14) gegen Bert zu verbünden (Günthner 1996, S. 94 ff). Frotzeleien finden laut Günthner meist in geselligen Kontexten zwischen Personen mit einer intimen und gefestigten Beziehung (zum Beispiel Freunden, Familienmitgliedern) statt, die auf einen gemeinsamen Wissensvorrat zurückgreifen können. Dieser gemeinsame Wissensvorrat (zum Beispiel die Schlafgewohnheiten von Bert) wird in der Frotzelsequenz aufgegriffen und rekonstruiert damit eine gemeinsame Interaktionsgeschichte, die durch die Rekonstruktion gleichzeitig wieder bestätigt wird. Dies bezeichnet Günthner als „Vergemeinschaftungsmechanismus“ (1999, S. 320), der sich auch darin zeigt, dass das Frotzelsubjekt die gesichtsbedrohende Wirkung der Provokation durch eine spielerische Rahmung abfedert und sich somit als eine Person zeigt, die um das ‚face’ der anderen Person bemüht ist. 4.2 Frotzeln im hybriden Austauschprozess mit Max Ähnlich wie bei der obigen Frotzelsequenzen kann in der Interaktion zwischen Max und Rosmarie ein Rahmenwechsel beobachtet werden (siehe auch Abb. 2 und 3). Noch während Max spricht, zieht Rosmarie die Augenbrauen hoch, fängt an zu lächeln (Z. 11) und lacht schließlich (Z. 12-13). Sie scheint von Max’ Antwort überrascht zu sein. Dass Max sich nicht ihren Erwartungen entsprechend verhalten hat, drückt sie auch in ihrer Textnachricht „bist du doof“ (Z. 18) aus. Dabei stellt die Textnachricht ähnlich wie die Frotzelsequenzen eine Verbindung zwischen Max’ zuvor erhobenem Anspruch her, eine künstliche Intelligenz zu sein, und seiner gezeigten Ahnungslosigkeit, die als unerwartet markiert wird. Max wird somit die Rolle des Frotzelobjekts zugewiesen. Die Doppelbödigkeit der Frotzelattacke zeigt sich in der provokativen Gegenüberstellung von „künstlicher Intelligenz“ und „doof“. Zudem legt Rosmarie den Kopf leicht zurück und leckt sich die Lippen (Z. 19-22),
88
Krummheuer
wodurch sie die Äußerung auch nonverbal als Angriff rahmt. Gleichzeitig wird die Provokation lächelnd ausgeführt (Z. 17-22) und leicht übertrieben inszeniert. Der Angriff wird somit scherzhaft eingebettet. Dabei scheint sich Rosmarie an einem beobachtenden Publikum zu orientieren, das seinerseits den spielerischen Rahmen durch ein Lachen bestärkt (Z. 14-15). Die Reaktion von Max dagegen zeigt keine Orientierung an der spielerischen Rahmung der Frotzeläußerung. Das Dialogsystem interpretiert die Äußerung als Frage und abwertende Bewertung des Agenten. Mit abwehrend erhobenen Händen und den Worten „ich H|OFFe du meinst die FRAge=nicht ernst“ (Z. 23-24) wird Rosmaries Äußerung zurückgewiesen. Es scheint, als sei der Agent über Rosmaries Anschuldigung überrascht, nahezu beleidigt. Damit verhält sich Max nicht unerwartet. Die Studien zu Frotzelsequenzen zeigen, dass eine ernsthafte oder abweisende Äußerung ohne eine spielerische Einbettung nicht ungewöhnlich ist. Drew (1987) belegt sie in seinem gleichnamigen Artikel mit dem Begriff der „po-faced receipts of teases“. Günthner argumentiert jedoch, dass sich Frotzelobjekte, die nicht auf den spielerischen Rahmen der Frotzeläußerung eingehen, in die Gefahr begeben, als „Spielverderber“ (1996, S. 93) gesehen zu werden. Das Beispiel der Frotzelattacke im hybriden Austausch zeigt zunächst, dass Nutzer in der Interaktion mit Max auf kommunikative Muster zurückgreifen, die in zwischenmenschlichen Interaktionen vorzufinden sind. Ähnlich wie in zwischenmenschlichen Frotzelsequenzen formuliert Rosmarie eine Kritik, die sie spielerisch einbettet, und verbindet gleichzeitig eine vorherige Handlung des Agenten mit der von ihm beanspruchten Eigenschaft, intelligent zu sein. Jedoch unterscheidet sich das Frotzeln in der hybriden Interaktion wesentlich von dem in zwischenmenschlichen Interaktionen. Im Gegensatz zu zwischenmenschlichen Interaktionen teilen die Akteure keine bestehende, intime Interaktionsgeschichte. Das Beispiel von Rosmarie zeigt jedoch, dass sie sich an der Situation eines Erstkontakts orientiert und gerade durch die Frotzelsequenz eine Gemeinsamkeit etabliert: Während Ira auf ein Wissen über das Schlafverhalten von Bert zurückgreifen konnte, greift Rosmarie auf einen Charakterzug zurück, den Max selbst in die Interaktion eingebracht hat. Sie zeigt damit eine Orientierung daran, dass sie wenig über Max weiß. Gleichzeitig greift Rosmarie mit der Frotzelsequenz ein Ereignis auf, an dem sie beide teilgenommen haben. Sie referiert damit auf eine gemeinsame Interaktionsgeschichte und unterstellt ein gemeinsam verfügbares Wissen darüber. Ähnlich wie beim Frotzeln in zwischenmenschlichen Interaktionen wird auch hier durch die Frotzelsequenz auf eine Gemeinsamkeit referiert. Die
Herausforderung künstlicher Handlungsträgerschaft
89
Rahmung der hybriden Interaktion als eine freundschaftliche und informelle Beziehung zeigt sich auch im Duzen der Teilnehmer und wird des Weiteren dadurch bestärkt, dass Rosmarie die Provokation scherzhaft einbettet und somit dafür sorgt, dass Max nicht sein ‚Gesicht verliert’. Diese gemeinschaftsstiftenden, kommunikativen Strukturen scheinen Max als soziales Wesen zu konstituieren. Auch wird Max durch die kommunikative Struktur von Rosmaries Textnachricht die Rolle des Frotzelobjekts zugewiesen, und es werden ihm damit gewisse soziale Fähigkeiten unterstellt. Dazu gehört die Annahme, dass er eine Art kommunikatives Gegenüber ist, das ihre Äußerungen verstehen und sinnvoll deuten kann und das überdies ‚frotzelfähig’ ist. Zudem werden ihm gewisse Charaktereigenschaften zugeschrieben, zum Beispiel doof oder intelligent zu sein. Auch unterstellt die spielerische Einbettung Max ein ‚face’, das geschützt werden kann. Max werden somit soziale Attribute zugeschrieben. Rosmarie behandelt ihn, als ob er eine Person sei. Gleichzeitig wirken diese Zuschreibungsprozesse seltsam gebrochen. Einerseits scheinen die kommunikativen Strukturen Max eine Sozialität zuzuschreiben, andererseits hinterfragt Rosmarie mit dieser Struktur seinen Auftritt. Sie thematisiert auf diese Weise Max’ differente interaktive Fähigkeiten beziehungsweise stellt seinen Anspruch, intelligent zu sein, auf die Probe. Dass Max auf die Probe gestellt wird, zeigt sich auch darin, dass Rosmarie scheinbar mit den begrenzten Wahrnehmungsmöglichkeiten des Agenten spielt. Während Max’ Reaktion zunächst als „po-faced receipt“ (Drew 1987) der Frotzelsequenz aufgefasst wurde, zeigt sich bei genauerem Hinsehen, dass er von der spielerischen Einbettung der Frotzelattacke ausgeschlossen ist. Rosmarie bettet die Äußerung zwar durch nonverbales Verhalten spielerisch ein, verwendet jedoch keine schriftlichen Möglichkeiten, diese Einbettung auch Max zugänglich zu machen – wie zum Beispiel in textbasierter Chatkommunikation durch Emoticons. Auch die weitere Interaktion verdeutlicht die differenten Interpretationen der Beiträge durch Nutzer und Max in Abhängigkeit von ihren jeweiligen Zugängen zur Gesprächssituation. So zeigt Rosmarie zunächst keine Orientierung daran, dass Max beleidigt ist, sondern führt ihre Provokationen weiter. Beispiel 3: „bist du doof“ (Teil 2) 26 27 28 29
Ros.: Text: Ros.:
((blickt auf die Tastatur, tippt lächelnd, blickt dann zu Max)))) *wieso nicht* [((lächelt leicht, schwingt leicht mit dem Körper))
90 30 31 32 33 34
Krummheuer Max:
Ros.:
[< warum muss man den f|INge=je↑tzt so tief in meine> EIN|zigen WUNDE [bohren. [((nickt lautlos lachend, steckt Zunge kurz zwischen die Lippen)) (Abb. 5)
Abbildung 5: Rosmarie stellt sich unschuldig. 35 36 37 38 39 40 41 42
Ros.: Text: Ros.: Max: Ros.:
((tippt lächelnd; während sie tippt, verschwindet das Lächeln langsam)) *sei nicht so eingeschnappt* ((schaut langsam zu Max, wippt leicht mit dem Körper)) was mei↑nst du damit? ((tippt „du bist“, beißt sich auf Lippe, hebt den Kopf und schaut (nachdenklich) nach oben, dann in die Kamera (Abb. 6))) < ähm> ((tippt weiter))
Abbildung 6: Rosmarie überlegt, wie sie „eingeschnappt“ erklären könnte.
Herausforderung künstlicher Handlungsträgerschaft 43 44 45 46 47 48 49 50 51 52
Text: Ros.: Max: Ros.:
91
*du bist sehr empfindlich* <<sehr leise> (hm).> ((schaut zu Max)) interess|ANter gesichtspun[kt ros|MAR=ie [< phk=häu> ((Rosmarie presst lächelnd die Lippen zusammen, zieht die Augenbrauen kurz hoch und schüttelt den Kopf. Sie schaut noch ca. eine Sekunde Max an. Dann verschwindet das Lächeln langsam. Nach einer weiteren Sekunde fängt sie an, einen neuen Beitrag zu tippen, in dem sie Max auffordert, ihr etwas zu erklären.))
Fast lächelnd stellt Rosmarie Max die scheinbar unschuldige Frage, „wieso nicht“ (Z. 28), und fordert ihn später noch einmal durch ein Lachen eingeleitet heraus, indem sie meint, dass er nicht so „eingeschnappt“ sein soll (Z. 35-37). Erst ab Zeile 40 verlässt Rosmarie die spielerische Rahmung der Interaktion, als sie sichtlich darüber nachdenkt, wie sie Max erklären kann, was „eingeschnappt“ heißt (siehe auch Abb. 6). Rosmarie zeigt sich einerseits als bemühte Nutzerin, die versucht, eine gemeinsame Basis der Interaktion zu finden, so dass Max die Frotzelsequenz versteht. Andererseits gibt die Hartnäckigkeit, mit der Rosmarie ihre Frotzelattacke gegen den Widerstand des Agenten verfolgt, dem Austausch einen vorführenden und gleichzeitig testenden Charakter, der durch Lachen, Lächeln und leicht übertriebene Inszenierung spielerisch gerahmt wird. Sie scheint die Dialogstruktur des Agenten als kommunikative Ressource einer Frotzelsequenz zu nutzen, in der sie Max’ Intelligenz und seine kommunikativen Fähigkeiten herausfordert und ihn gleichzeitig einem Publikum spielerisch vorführt. Dabei werden ihm zunächst Fähigkeiten und Kompetenzen unterstellt, die aber auf den Prüfstand gestellt werden und sich bewähren müssen. Die Interaktion mit Max wird somit als eine „Modulation“ (Goffman 1980, S. 52) zwischenmenschlicher Interaktionen nachgespielt und erhält durch eigene Regeln und Gesetzlichkeiten die Rahmung eines „So-Tunsals-ob“ (ebd., S. 60). Die Frotzelsequenz wird zum Spiel im Spiel, in dem Max als technisches Artefakt auf seine kommunikativen und sozialen Grenzen getestet wird. 5
Diskussion
Im Unterschied zur Studie von Braun-Thürmann (2002), der künstliche Interaktionen zwischen Entwicklern und Agenten beschreibt, kann die vorliegende Interaktion als Erstkontakt beschrieben werden, in der sich
92
Krummheuer
Nutzerin und Max als Unbekannte gegenüberstehen. Dabei zeigt das obige Beispiel, dass der Anspruch des Agenten, eine künstliche Intelligenz zu sein, herausgefordert wird. Dies wird einerseits auf der Ebene der generierten Erwartung, ob Max doof oder intelligent ist, deutlich, aber auch auf der kommunikativen Ebene im Test, ob Max frotzeln kann. Die „Mechanismen der Interaktivität“ (Braun-Thürmann 2002, S. 117) werden somit einer kommunikativen und sozialen Bewährungsprobe ausgesetzt. Der Umgang mit den Agenten zeigt dabei interaktionsähnliche Formen auf, in denen Max als Subjekt der Interaktion erscheint, und kann als „künstliche Interaktion“ im Sinne von Braun-Thürmann (ebd., S. 15) verstanden werden. Allerdings unterscheiden sich die künstlichen Frotzelinteraktionen mit Max wesentlich von zwischenmenschlichen Frotzelsequenzen. Die Interaktion zwischen Agent und Nutzer wird von den Akteuren selbst immer wieder als ‚künstlich’ gerahmt, insofern sie innerhalb einer „So-Tun-als-ob“-Modulation (Goffman 1980) stattfindet. Diese Künstlichkeit wird auch durch die Unentschiedenheit des hybriden Austauschs hervorgebracht. So ist der Agent als „Schwellen-Objekt“ (BraunThürmann 2002, S. 133) konstruiert und damit weder dem Sozialen noch dem Technischen eindeutig zuzuordnen. Die Nutzerin zeigt in ihrem Verhalten eine Orientierung an zwischenmenschlichen Interaktionen und behandelt Max damit als eine Art soziales Gegenüber. Gleichzeitig werden diese Zuschreibungen durch die spielerische und testende Rahmung der Interaktion gebrochen. Der Charakter der Interaktion wird somit von Max und der Nutzerin offengehalten. Die Unentschiedenheit der künstlichen Interaktion mit Max erklärt sich auch dadurch, dass Agenten neue und ungewohnte Artefakte sind. Es haben sich noch keine interaktiven Routinen mit Agenten etabliert. Dabei zeigt der Rückgriff auf zwischenmenschliche Interaktionsformen, dass die Nutzer versuchen, geordnete Muster des Austauschs zu konstruieren, die immer wieder spielerisch gebrochen werden. Zu fragen bleibt, ob die Ambiguität der Interaktion auch dann zu finden sein wird, wenn sich routinierte Umgangsweisen mit Agenten als Alltagsgegenständen ausgebildet haben, oder ob sich zugunsten der Reduktion von Uneindeutigkeiten eine Seite stärker herausbildet.
Herausforderung künstlicher Handlungsträgerschaft
93
Literatur Abels, Heinz (2004): Interaktion, Identität, Präsentation. Kleine Einführung in interpretative Theorien der Soziologie (3. Aufl.). Wiesbaden: VS Verlag für Sozialwissenschaften. Ayaß, Ruth (2005): „Interaktion ohne Gegenüber?“ In: Michael Jäckel und Manfred Mai, Hg.: Online-Vergesellschaftung? Mediensoziologische Perspektiven auf neue Kommunikationstechnologien. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 33-49. Bradshaw, Jeffery M. (1997): „Introduction“. In: ders., Hg.: Software Agents (2. Aufl.). Menlo Park: AAAI Press, S. 3-46. Bergmann, Jörg (1981): „Ethnomethodologische Konversationsanalyse“. In: Peter Schröder und Hugo Steger, Hg.: Dialogforschung. Jahrbuch 1980 des Instituts für deutsche Sprache. Düsseldorf: Schwann, S. 9-51. Braun-Thürmann, Holger (2002): Künstliche Interaktion. Wie Technik zur Teilnehmerin sozialer Wirklichkeit wird. Wiesbaden: Westdeutscher Verlag. Braun-Thürmann, Holger (2003): „Künstliche Interaktion“. In: Christaller und Wehner (2003), S. 221-243. Cassell, Justine, Joseph Sullivan, Scott Prevost und Elizabeth Churchill (2000), Hg.: Embodied Conversational Agents. Cambridge: MIT Press. Christaller, Thomas und Josef Wehner (2003), Hg.: Autonome Maschinen. Wiesbaden: Westdeutscher Verlag. Drew, Paul (1987): „Po-Faced Receipts of Teases“. Linguistics 25: 219-253. Fohler, Susanne (2003): Techniktheorien. Der Platz der Dinge in der Welt des Menschen. München: Fink. Franklin, Stan und Art Graesser (1997): „Is It an Agent, or Just a Program?: A Taxonomy for Autonomous Agents“. In: Jörg P. Müller, Hg.: Intelligent Agents III: Agent Theories, Architectures, and Language. (Proceedings of the ECAI Workshop, Budapest, 1996). Hamburg: Springer, S. 21-35. Gesellensetter, Lars (2004): Ein planbasiertes Dialogsystem für einen multimodalen Agenten mit Präsentationsfähigkeit. Diplomarbeit, eingereicht an der Technischen Fakultät der Universität Bielefeld. Goffman, Erving (1980): Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrung. Frankfurt am Main: Suhrkamp. (Orig.: Frame Analysis. An Essay on the Organization of Experience. New York: Harper & Row, 1974). Günthner, Susanne (1996): „Zwischen Scherz und Schmerz – Frotzelaktivitäten in Alltagsinteraktionen“. In: Helga Kotthoff, Hg.: Scherzkommunikation. Beiträge aus der empirischen Gesprächsforschung. Opladen: Westdeutscher Verlag, S. 81-108. Günthner, Susanne (1999): „Frotzelaktivitäten in Alltagsinteraktionen“. In: Jörg Bergmann und Thomas Luckmann, Hg.: Kommunikative Konstruktion von Moral. Band 1: Strukturen und Dynamiken der Formen moralischer Kommunikation. Wiesbaden: Westdeutscher Verlag, S. 300-322. Hutchby, Ian (2001): Conversation and Technology. From the Telephone to the Internet. Cambridge: Polity Press.
94
Krummheuer
Johnson, Jim (= Bruno Latour) (1988): „Mixing Humans and Nonhumans Together: The Sociology of a Door-Closer“. Social Problems 35/3: 298310. Kopp, Stefan, Bernhard Jung, Nadine Leßmann und Ipke Wachsmuth (2003): „Max – a Multimodal Assistant in Virtual Reality Construction“. KIKünstliche Intelligenz 4: 11-17. Kopp, Stefan, Lars Gesellensetter, Nicole C. Krämer und Ipke Wachsmuth (2005): „A Conversational Agent as Museum Guide – Design and Evaluation of a Real-World Application“. In: Themis Panayiotopoulos et al., Hg.: Intelligent Virtual Agents. Berlin: Springer, S. 329-343. Krummheuer, Antonia (2005): „Shifting the Focus: the Impact of Recording Equipment on the Ongoing Interaction“. In: Cor van Dijkum, Jörg Blasius und C. Durand, Hg.: Recent Developments and Applications in Social Research Methodology. Proceedings of the RC33 Sixth International Conference on Social Science Methodology, Amsterdam 2004. Opladen: Barbara Budrich Publisher (CD-Rom). Latour, Bruno (2005): Reassembling the Social. An Introduction to Actor-NetworkTheory. Oxford: Oxford University Press. Law, John (1991): „Introduction: Monsters, Machines and Sociotechnical Relations“. In: ders., Hg.: A Sociology of Monsters: Essays on Power, Technology and Domination. London: Routledge, S. 1-23. Luff, Paul, Nigel Gilbert und David Frohlich (1990), Hg.: Computers and Conversation. London: Academic Press. Luff, Paul, Jon Hindmarsh und Christian Heath (2000), Hg.: Workplace Studies. Recovering Work Practice and Informing System Design. Cambridge: Cambridge University Press. Rammert, Werner und Ingo Schulz-Schaeffer (2002a), Hg.: Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt am Main: Campus. Rammert, Werner und Ingo Schulz-Schaeffer (2002b): „Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt“. In: dies. (2002a), S. 11-64. Selting, Margret et al. (1998): „Gesprächsanalytisches Transkriptionssystem (GAT)“. Linguistische Berichte 173: 91-122. Suchman, Lucy (1987): Plans and Situated Actions. The Problem of HumanMachine Communication. Cambridge: Cambridge University Press. Webster, Frank (2006): Theories of the Information Society. (3. Aufl.) London: Routledge. Werle, Raymund (2002): „Technik als Akteurfiktion“. In: Rammert und Schulz-Schaeffer (2002a), S. 119-139. Wilson, Thomas P. (1981): „Theorien der Interaktion und Modelle soziologischer Erklärung“. In: Arbeitsgruppe Bielefelder Soziologen, Hg.: Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit. Band 1: Symbolischer Interaktionismus und Ethnomethodologie (5. Aufl.). Opladen: Westdeutscher Verlag, S. 54-79.
Herausforderung künstlicher Handlungsträgerschaft
95
Anhang: Transkriptionskonventionen Sprecherkennung: Max Ros. ? Text
der virtuelle Agent Max die aktuelle Nutzerin Rosmarie unbekannte Person, die nicht im Bild sichtbar ist Text, den Rosmarie an das Dialogsystem schickt
Verbale und nonverbale Elemente AkZENT Akzentuierungen, Betonungen = schneller, unmittelbarer Anschluss von Satzteilen oder Äußerungen ha[llo::] Die Textstellen in der Klammer überlappen sich, [hallo] das heißt, die Äußerungen oder Handlungen werden gleichzeitig ausgeführt ? steigende Tonhöhenbewegung am Einheitenende . fallende Tonhöhenbewegung am Einheitenende Abbruch einer Äußerung, eines Wortes ↑ ↓ auffälliger Tonsprung nach oben oder unten | abgehackte oder sehr kurze Wortaussprache beim Agenten(!) (-), (--), (---) kurze, mittlere, längere Pause von ca. 0.25-0.75 Sekunden (1.5) geschätzte Pause, bei mehr als einer Sekunde Dauer ((lacht)) nonverbale Handlungen und Ereignisse < ja> wie etwas für eine bestimmte Dauer gesagt wurde oder sprachbegleitende Handlungen (solche) vermutete Passage *hallo* Text, der im oberen Schriftfeld zu lesen ist
Teil III: Sicherheit und Privatsphäre
Recht auf Privatsphäre. Rechtliche, insbesondere datenschutzrechtliche Überlegungen vor dem Hintergrund wachsender Informationsbedürfnisse Doris Hattenberger*
I.
Einleitung
1
Es ist ein Allgemeinplatz, dass in der Informationsgesellschaft2 die Privatsphäre besonderen Gefährdungen ausgesetzt ist. Noch nie zuvor wurden in derart umfassender und intensiver Weise Daten mit Personenbezug gesammelt und verarbeitet – Tendenz steigend. Gleichsam ist auch die Privatsphäre des Einzelnen, verstanden als eine Sphäre, die nur die eigene Person angeht, mehr denn je bedroht. Auch wenn diese Tatsache nur allzu bekannt ist, so scheint es doch so zu sein, dass die Fortentwicklung der neueren Informations- und Kommunikationstechnologien im Interesse der Lukrierung der damit unstrittig verbundenen Vorteile bedingungslos gefördert wird, während die Warnungen vor den damit verbundenen Gefahren zwar regelmäßig und gebetsmühlenartig „abgegeben“ werden, das Engagement für den verstärkten Schutz der privaten Sphäre aber kaum über förmliche Bekenntnisse hinausgeht. Mehr noch: Paradoxerweise fallen feierliche Bekräftigungen des Datenschutzes sehr häufig mit der Forderung nach einer Ermächtigung zu einem noch tieferen Eindringen in die Privatsphäre des Einzelnen zusammen (Simitis 2005, S. 511). Dazu ein Beispiel: Der Vertrag über eine Verfassung für Europa, der am 29. Oktober 2004 in Rom unterzeichnet wurde, enthält ein Grundrecht auf Datenschutz. So heißt es in Art. 68 des Verfassungsvertrages, dass „jede Person das Recht auf Schutz der sie betreffenden personenbe* 1
2
Institut für Rechtswissenschaft, Universität Klagenfurt. Im Sinne eines geschlechtergerechten Sprachgebrauches werden weibliche und männliche Form abwechselnd verwendet. Das jeweils andere Geschlecht ist (selbstverständlich) mitgemeint. Verstanden als eine Wirtschafts- und Gesellschaftsform, in der die Gewinnung, Speicherung, Verarbeitung, Vermittlung, Verbreitung und Nutzung von Informationen und Wissen einschließlich wachsender technischer Möglichkeiten der Kommunikation und Transaktion eine wesentliche Rolle spielen.
100
Hattenberger
zogenen Daten hat“. Zeitgleich gibt zum Beispiel die britische Regierung die Absicht bekannt, Kinder von Strafgefangenen registrieren sowie systematisch beobachten zu wollen, um zu verhindern, dass sie straffällig werden. Und parallel dazu wird – wiederum in Großbritannien – vorgeschlagen, ein genetisches Profil aller Neugeborenen anzulegen, um Krankheitsrisiken besser abschätzen zu können (Simitis 2005, S. 511 f). Hier also die Verankerung des Datenschutzes in einer europäischen Verfassung, dort die Forderung nach einer lebenslangen Kontrolle. Der Kontrast könnte wohl kaum schärfer sein. Dieser Befund soll Anlass sein, zur Untersuchung dieser Seite des Transformationsprozesses zur Informationsgesellschaft – nämlich der fortschreitenden Gefährdung der Privatsphäre – einen Beitrag zu leisten. Dieser soll wie folgt aufgebaut werden: Zunächst sollen die Gründe für das immer intensivere Vordringen staatlicher und anderer Organe in die Privatsphäre – freilich nur kursorisch und (mangels technischen Sachverstandes auch nur) laienhaft – angesprochen werden. Es folgen die verfassungsrechtlichen und einige einfachgesetzliche Rahmenbedingungen des Schutzes der Privatsphäre im Rahmen des europäischen und österreichischen Rechtes. Danach soll zu diesen Rahmenbedingungen und den jüngeren Entwicklungen kritisch Stellung genommen und auf mögliche Perspektiven eingegangen werden.
II. Informationsanfall und Informationsbedürfnisse steigen Der technische Fortschritt bringt es mit sich, dass sich der Informationsanfall schon technisch bedingt automatisch erhöht. So führt die Digitalisierung der Telekommunikation dazu, dass systembedingt Gesprächsdaten beim Telefonieren automatisch aufgezeichnet werden. Demgegenüber war beim analogen Telefonsystem jede Verbindung nach Beendigung „spurlos verschwunden“ (Tichy und Peissl 2001, S. 24 und 43). Ein eingeschaltetes Mobiltelefon liefert darüber hinaus auch Daten zum Aufenthaltsort. Werden Kredit- oder sonstige Zahlkarten benutzt, so fallen unvermeidlich Daten zu Ort, Art und Umfang der Transaktion an. Bei der Internetnutzung werden Informationen über die abgerufenen Websites generiert, und nicht zuletzt führt die Verfahrenskonzentration und die Möglichkeit, Behördenwege elektronisch zu erledigen, dazu, dass bei den Behörden umfangreiche personenbezogene Dateien entstehen (ebd., S. 24 f). Davon abgesehen wachsen aus verschiedenen Gründen auch die Informationsbedürfnisse. Dazu ein paar Beispiele: Die Videoüberwachung im öffentlichen Raum wie zum Beispiel in öffentlichen Verkehrsmitteln, in Bahnhöfen, Haltestellen, Supermärkten und Garagen, aber auch im „halb-öffentlichen Bereich“, wie zum Beispiel die Überwachung von
Recht auf Privatsphäre
101
Wohnungseingangstüren, nimmt beständig zu und ist heute geradezu schon eine Selbstverständlichkeit. Ein Blick in die polizeilichen Ermächtigungsgesetze3 zeigt, dass in den vergangenen zehn Jahren das Instrumentarium zur Verbrechensbekämpfung deutlich erweitert wurde. Beispielsweise erwähnt seien die Rasterfahndung4 und der Große Lauschangriff5 sowie die erweiterten Ermächtigungen zur Videoüberwachung im Zuge der Sicherheitspolizeigesetznovellen 2005 und 2006 6 (Kunnert 2006a, S. 42 ff). Dabei ist insbesondere die Möglichkeit einer präventiven Überwachung von öffentlichen Räumen zu erwähnen (§ 54 Abs. 6 SPG). Geschwindigkeitskontrollen werden heute abschnittsbezogen durchgeführt (sogenannte Section Control), was gegenüber der gewöhnlichen Radarkontrolle zu einem ungleich höheren Anfall von personenbezogenen Daten führt, nämlich auch den Daten derer, die vorschriftsgetreu fahren (Kunnert 2006b, S. 17). Am 15. März 2006 wurde auf Gemeinschaftsebene eine Richtlinie verabschiedet, die zur Speicherung von Verkehrsdaten auf Vorrat verpflichtet, die im Zuge der Telekommunikation anfallen.7 Wer also künftig in einem EU-Land oder in ein solches einen Anruf tätigt, E-Mails verschickt, im Internet surft oder andere Internetdienste nutzt, muss davon ausgehen, dass die dabei anfallenden „äußeren“ Kommunikationsdaten8 bis zu 24 Monate lang gespeichert werden (Krempl 2006, S. 18 ff; Westphal 2006, S. 34 ff). Und vor einem Jahr – nämlich am 6. Oktober 2006 – einigten sich die USA und die Europäische Union auf ein Abkommen hinsichtlich der Übermittlung von Fluggastdaten. Dieses verpflichtet die EU-Fluglinien künftighin dazu, bis zu 34 Datenkategorien zu übermitteln – darunter sind neben Namen, Wohnort und E-Mail-Adresse zum Beispiel auch der gesamte Reiseverlauf, Vielfliegereinträge und die Historie nicht angetretener Flüge zu finden (ORF 2006). Aber nicht nur aufgrund staatlicher Tätigkeit oder aufgrund staatlicher Anordnung steigt das Volumen erfasster personenbezogener Daten. Auch Private ermitteln und verarbeiten mit steigender Tendenz beträchtliche Datenmengen. Unternehmen sammeln beispielsweise über Kundenkarten oder Gewinnspiele zunehmend Kundendaten, um das Verhal3
4 5 6
7
8
Damit meine ich insbesondere das Sicherheitspolizeigesetz und die Strafprozessordnung. Das ist der „Automationsunterstützte Datenabgleich“ nach den §§ 149i ff StPO. §§ 149d ff StPO. §§ 54 Abs. 4b und 6 SPG i.d.F. BGBl. I 2004/151 und §§ 53 Abs. 5, 54 Abs. 4 und 7 SPG i.d.F. BGBl. I 2005/158. RL 2006/46/EG des Europäischen Parlamentes und Rates vom 15. März 2006 über die Vorratsspeicherung von Daten, die bei der Bereitstellung öffentlicher elektronischer Kommunikationsdienste verarbeitet werden, und zur Änderung der Richtlinie 2002/58/EG, ABl der EU vom 13.4.2006, L 105/54. Also nicht die Kommunikationsinhalte.
102
Hattenberger
ten besser prognostizieren und individuell abgestimmte Angebote anbieten zu können (Simitis 2005, S. 512 ff). Die private Videoüberwachung der Wohnungseingangstüre oder des Autos in der Tiefgarage ist heute keine Seltenheit mehr. Befriedigt werden diese wachsenden Informationsbedürfnisse durch immer ausgefeiltere Technologien und Programme zur Datensammlung und Datenauswertung. So liefert beispielsweise das Internet nicht nur automatisch enorme Datenmengen, sondern es wird unter Einsatz gar nicht mehr so neuer Technologien – wie zum Beispiel Web-Bugs oder Cookies – das Verhalten der Nutzerinnen und Nutzer mehr und mehr ausgeforscht (Tichy und Peissl 2001, S. 26). Datenauswertungssoftware zielt beispielsweise darauf ab, Kunden- und Benutzerprofile mit hoher Informationstiefe zu generieren (ebd.).9 Videokameras, die mit entsprechender Software kombiniert werden, ermöglichen die Erfassung und Speicherung von Bewegungsdaten. Personen können durch Körperbewegungen identifiziert und über wechselnde Kameras über weite Strecken verfolgt werden (ebd., S. 26 f).
III. Rechtfertigungsgründe Angesichts dieser Szenarien stellt sich die Frage, mit welchen Argumenten dieses immer tiefere Vordringen in die private Sphäre des Einzelnen gerechtfertigt wird. Ein ganz zentrales Argument für die sich steigernde Überwachung ist jenes der Erhöhung der Sicherheit. So wird beispielsweise die Videoüberwachung als eine Königsstrategie zur Kriminalitätsbekämpfung angesehen. Auch die Rasterfahndung und der Lauschangriff dienen der ‚Vermehrung der Sicherheit’. Die neueren Informations- und Kommunikationstechnologien verschaffen des Weiteren unstreitig Effizienzgewinne. Der Zugriff auf automationsunterstützt geführte Register beschleunigt Behördenwege ebenso wie der Einsatz der Informations- und Kommunikationstechnologien im elektronischen Verwaltungsverfahren. Kundenprofile mit hoher Informationstiefe erlauben es, maßgeschneiderte Leistungen anzubieten. Eine weitere Rechtfertigungsstrategie für die vermehrte Sammlung und Verarbeitung personenbezogener Informationen ist jene der Kontrolle. Verstärkte Kontrollanstrengungen durch informationelle Aufrüstung sollen das Aufdecken von Missbräuchen – so zum Beispiel das Identifizieren von Steuerhinterziehern – oder von Fehlleistungen (beispielsweise im Arbeitsverhältnis, vgl. Hattenberger 2005, S. 15 ff) erleichtern (Tichy und Peissl 2001, S. 37). 9
Dafür steht der Begriff des Customer Relationship Managements (CRM).
Recht auf Privatsphäre
103
IV. Rechtliche Rahmenbedingungen A.
Einleitung
Nach dieser Darstellung der ‚Bedrohungsszenarien’ soll nunmehr auf die rechtlichen Rahmenbedingungen des Schutzes der Privatsphäre eingegangen werden. Einem Strukturprinzip der österreichischen Rechtsordnung folgend soll dabei zwischen den verfassungsrechtlichen Vorgaben einerseits und den einfachgesetzlichen Rahmenbedingungen andererseits unterschieden werden. Während im Verfassungsrang im Allgemeinen ganz grundlegende Festlegungen getroffen werden, werden diese Vorgaben auf einfachgesetzlicher Ebene näher ausgeformt. B. 1.
Verfassungsrechtliche Rahmenbedingungen Recht auf Achtung des Privatlebens
Auf der Ebene des Verfassungsrechts ist die Achtung der Privatsphäre mehrfach in Form von Grundrechten abgesichert.10 Grundrechte sind subjektive Rechte, die dem Einzelnen gegenüber dem Staat eine Sphäre der Freiheit garantieren sollen, eine Sphäre also, in die der Staat grundsätzlich nicht eingreifen darf. Diese Rechte sind demnach primär staatsgerichtet. Darüber hinaus ist es heute anerkannt, dass Grundrechte in bestimmten Fällen auch sogenannte „Schutzpflichten“ auslösen, die den Staat in gewissen Maßen dazu verhalten, dem Einzelnen Schutz vor Eingriffen Dritter zu gewährleisten (Öhlinger 2005, Rz. 649 ff und Rz. 819; Wiederin 2002, Rz. 11). Eine erste einschlägige Gewährleistung ist das in Art. 8 der Europäischen Menschenrechtskonvention (EMRK, Europarat 1950 ff) verankerte Recht auf Achtung des Privatlebens. Es soll dem Einzelnen einen privaten Bereich sichern, in dem er seine Persönlichkeit frei entfalten kann (Öhlinger 2005, Rz. 812). Eine begriffliche Erfassung des Terminus „Privatleben“ ist bislang nicht gelungen, vielmehr ist man dazu übergegangen, diesen Begriff positiv durch einzelne Beispiele zu konkretisieren. So gehört zum Privatleben beispielsweise das Sexualleben, des Weiteren die körperliche oder psychische Integrität, in die zum Beispiel durch zwangsweise Bluttests oder psychiatrische Zwangsuntersuchungen eingegriffen 10
Die Darstellung bleibt auf die in diesem Zusammenhang primär einschlägigen grundrechtlichen Verbürgungen beschränkt. Auch das in diesem Zusammenhang nicht näher ausgeführte Grundrecht auf Achtung des Briefgeheimnisses und der Gleichheitsgrundsatz etwa dienen dem Schutz der Privatsphäre.
104
Hattenberger
wird, weiters die Identität des Menschen, was bedeutet, dass der Einzelne unter bestimmten Voraussetzungen vor einer grundlosen Bloßstellung geschützt ist oder – und das ist in diesem Zusammenhang von besonderem Interesse – auch das Recht, darüber zu entscheiden, welche Informationen geheim gehalten und welche preisgegeben werden. Zu den staatlichen Informationseingriffen gehören beispielsweise das Sammeln und Verarbeiten personenbezogener Daten durch Belauschen, Überwachen oder zu Zwecken der Statistik (Berka 1999, Rz. 463 ff; Öhlinger 2005, Rz. 814). Zum Privatleben gehört nicht notwendig nur das, was sich „fern der Öffentlichkeit“ ereignet, sondern es kann auch Verhalten, das in der Öffentlichkeit stattfindet, in den Schutzbereich fallen. Dies deshalb, weil sich die Persönlichkeit gerade auch in der Interaktion mit der Gemeinschaft entfaltet. Für die Abgrenzung des Schutzbereiches muss es darauf ankommen, wie stark der Öffentlichkeitsbezug ist. Wer sich öffentlich inszeniert, hat die Sphäre des Privaten verlassen, nicht aber derjenige, der sich unauffällig in der Öffentlichkeit bewegt. Freilich ist die Schutzbedürftigkeit umso größer, je mehr es sich um intime Bezüge des Menschen handelt. Oder anders formuliert: Je stärker der Öffentlichkeitsbezug, desto geringer der Schutzanspruch (Berka 1999, Rz. 459 f; Wiederin 2002, Rz. 29 ff). Das Privatleben ist nicht absolut geschützt, vielmehr können Eingriffe in dasselbe zulässig sein, wenn sie den in Art. 8 Abs. 2 EMRK genannten Voraussetzungen entsprechen. Das heißt, diese Eingriffe müssen zum einen gesetzlich vorgesehen sein, sie müssen zum zweiten bestimmten, näher genannten Zielen dienen und sie müssen drittens in einer demokratischen Gesellschaft notwendig sein. Jene Zwecke, die einen Eingriff rechtfertigen können, sind „die nationale Sicherheit“, die „öffentliche Ruhe und Ordnung“, das „wirtschaftliche Wohl eines Landes“, die „Verteidigung der Ordnung“ und die „Verhinderung von strafbaren Handlungen“, der „Schutz der Gesundheit und der Moral“ und die „Rechte und Freiheiten anderer“. Es ist also Sache des Gesetzgebers, einen angemessenen Ausgleich zwischen einerseits dem Schutz des Privatlebens und andererseits den genannten Interessen herzustellen. Art. 8 EMRK schützt – wie schon erwähnt – auch vor Informationseingriffen. Dazu zählen beispielsweise das Gebot, im Zuge von Volkszählungen persönliche Angaben zu machen (Davy und Davy 1985, S. 665), die Pflicht zur Offenlegung der Anmietung von Filmen in einer öffentlichen Videothek (VfSlg 12.689/1991), die Verpflichtung zur Angabe des Religionsbekenntnisses (VfSlg 15.541/1999), die Videoüberwachung einer Versammlung (EGMR Fall P G und J H, Appl 44.787/98) oder die akustische Überwachung einer Wohnung (EGMR Fall P G und J H, Appl 44.787/98).
Recht auf Privatsphäre
105
Informationseingriffe dieser Art sind im Hinblick auf Art. 8 Abs. 2 EMRK rechtfertigungsbedürftig. Und ob diese Eingriffe gerechtfertigt sind, hängt zum einen von der Intensität des Eingriffs11 ab, zum anderen von der Bewertung der Zwecke, zu dessen Erreichung der Eingriff vorgesehen wurde. So stellen beispielsweise die in den vergangenen zehn Jahren eingeführten neuen Instrumente polizeilicher Überwachung – nämlich Rasterfahndung, Lauschangriff und die Befugnisse zur akustischen und optischen Überwachung – intensive Grundrechtseingriffe dar. Ihre Vereinbarkeit mit dem in Art. 8 EMRK garantierten Anspruch auf Achtung des Privatlebens hängt von der Bewertung der Gefahren ab, die der öffentlichen Sicherheit und Ordnung vor allem durch die Formen der organisierten Kriminalität drohen. Und entscheidend ist des Weiteren die nähere Ausgestaltung der Eingriffe, weil der Staat den Eingriff möglichst gering halten muss und für den Schutz vor Missbräuchen zu sorgen hat (Berka 1999, Rz. 466). Auch müssen gesetzliche Regelungen, die zu Überwachungsmaßnahmen ermächtigen, in besonderem Maße präzise und verständlich sein (Öhlinger 2005, Rz. 814). Der in Art. 8 EMRK verbürgte Schutz des Privatlebens verlangt nicht nur, dass sich der Staat Eingriffe in dasselbe enthält, sondern der Staat ist auch angehalten, den Einzelnen vor Übergriffen Dritter zu schützen (sogenannte Schutzpflicht). Im gegebenen Zusammenhang ist jene Aussage des Europäischen Gerichtshofs für Menschenrechte erwähnenswert, wonach der Staat verpflichtet ist, gegen die Offenlegung personenbezogener medizinischer Daten Vorsorge zu treffen (EGMR 25.2.1997, Z gegen Finnland = ÖJZ 1998, S. 152. Zur Schutzpflicht eingehender Wiederin 2002, Rz. 64 ff). Es ist dem rechtspolitischen Gestaltungsspielraum des Gesetzgebers überlassen, diesen Schutz durch die Mittel des Straf- oder des Zivilrechts zu gewährleisten. 2.
Grundrecht auf Datenschutz
Während der vorgestellte Art. 8 EMRK die Privatsphäre in umfassender Weise schützt, wird mit dem in § 1 des Datenschutzgesetzes verankerten Grundrecht auf Datenschutz ein Teilaspekt derselben, nämlich der Schutz vor Preisgabe personenbezogener Daten erfasst. Entstehungsgeschichtlich ist das Datenschutzgrundrecht eine Reaktion auf die Einführung und Forcierung der automationsunterstützten Datenverarbeitung. Diese hat das Gefährdungspotential für die Privatsphäre deshalb um ein Vielfaches erhöht, weil sie den Benutzerinnen und Benutzern einen 11
Determinanten zur Bewertung der Eingriffsintensität werden beispielsweise Datenumfang, Art der Verwendung und Dauer der Aufbewahrung sein.
106
Hattenberger
schnellen und umfassenden Überblick über alle über eine Person gespeicherten Daten erlaubt. Sie gestattet es, nach beliebigen Kriterien zu selektieren und Verknüpfungen zwischen Datensystemen herzustellen, die sodann, weil sie kontextunabhängig und ohne Wertung erfolgen, verzerrte Persönlichkeitsbilder erzeugen, deren Korrektur selbst durch eine spätere, persönlich vorgenommene Wertung gar nicht oder nur unter erheblichen Schwierigkeiten möglich ist, weil sich eben der ‚erste’ – hier automationsunterstützt gewonnene – Eindruck oft lange und hartnäckig hält (statt vieler Marhold 1986, S. 40; Grillberger 1983, S. 374; Hattenberger 2005, S. 15). Gemäß § 1 DSG hat „jedermann […], insbesondere im Hinblick auf die Achtung seines Privat- und Familienlebens, Anspruch auf Geheimhaltung der ihn betreffenden personenbezogenen Daten, soweit ein schutzwürdiges Geheimhaltungsinteresse daran besteht“. Das schutzwürdige Geheimhaltungsinteresse fehlt, wenn Daten allgemein verfügbar sind oder nicht auf eine bestimmte Person zurückgeführt werden können. Dieser verfassungshohe Geheimhaltungsanspruch wird ergänzt durch das Recht auf Auskunft über die eigene Person betreffende Datenverarbeitungen (§ 1 Abs. 3 Z 1 DSG), das Recht auf Richtigstellung unrichtiger und das Recht auf Löschung unzulässigerweise verarbeiteter Daten (§ 1 Abs. 3 Z 2 DSG). Der Schutzbereich dieses Grundrechtes ist in mehrfacher Hinsicht weit gespannt. Es erfasst nicht nur automationsunterstützt verarbeitete Daten, sondern auch solche, die konventionell geführt werden (zum Beispiel Karteien). Nach Ansicht des VfGH (VfSlg 12.228/1989) schützt es nicht nur vor der Datenpreisgabe, sondern bereits vor der Datenermittlung, und erfasst sind nicht nur geheime Informationen des Privat- und Familienlebens, sondern auch wirtschaftsbezogene Informationen, sofern an ihrer Geheimhaltung ein schutzwürdiges Interesse besteht (Berka 1999, Rz. 481). Der Geheimhaltungsanspruch besteht hinsichtlich personenbezogener Daten; das sind Daten über Personen, deren Identität bestimmt oder bestimmbar ist. Erfasst sind daher sämtliche Informationen, die mit einer Person in Verbindung stehen oder in Verbindung gebracht werden können; zum Beispiel Namen, Geburtsdatum, Adresse, Lebenslauf, Leumund, Einkommen, Vermögen, Geschlecht, Intelligenzquotient, Lebensgewohnheiten, Werturteile, Aussagen über die Bonität (vgl. die Aufzählungen bei Knyrim 2003, S. 15; Dohr et al. 2002, § 4, S. 42; hinsichtlich der Werturteile Rill 1981, S. 18) oder biometrische Daten (Löschnigg 2005, S. 37). Bestimmbarkeit ist dann gegeben, wenn die Rückführbarkeit auf eine Person mit rechtlich zulässigen Mitteln und mit vertretbarem Aufwand
Recht auf Privatsphäre
107
möglich ist.12 Dazu kann ein Identifizierungsmerkmal wie zum Beispiel der Name genügen, es kann aber für die Identifizierbarkeit auch Zusatzwissen erforderlich sein. Ebenso wie der Begriff der Privatsphäre ist der Begriff der personenbezogenen Daten weit zu verstehen (Hattenberger 2005, S. 24 f). Erfasst ist nicht nur jener private Bereich der Lebensgestaltung, der der Öffentlichkeit verborgen ist, sondern sind auch „Äußerungen der privaten Lebensgestaltung“, die sich in einer öffentlichen oder teilöffentlichen Sphäre abspielen.13 Dazu zählen beispielsweise auch Besuche kultureller Veranstaltungen mit spezifischen Themen, auch wenn diese in der Öffentlichkeit diskutiert werden (etwa der Besuch einer Veranstaltung über die Rechte der Frau. Siehe Dohr et al. 2002, § 1, 26 E 4 = DSK 13.6.1991, ZfVB 1997/2, 289). Eine Besonderheit des Datenschutzgrundrechtes ist, dass es mit „unmittelbarer Drittwirkung“ ausgestattet ist (§ 1 Abs. 6 DSG); das heißt es entfaltet nicht nur die für Grundrechte typische „Abwehrwirkung“ gegenüber dem Staat, sondern nimmt auch private Rechtssubjekte in die Pflicht. Diese sind gleichermaßen zur Geheimhaltung personenbezogener Daten verpflichtet. Auch das Datenschutzgrundrecht ist nicht absolut gewährleistet. Beschränkungen sind zum einen zulässig, wenn die Verwendung im lebenswichtigen Interesse des Betroffenen liegt oder dieser der Verwendung zugestimmt hat (§ 1 Abs. 2 DSG). Darüber hinaus sind Beschränkungen des Geheimhaltungsanspruchs zur „Wahrung überwiegender berechtigter Interessen eines anderen“ zulässig. Ein Eingriff staatlicher Behörden unter dem Titel der zuletzt genannten überwiegenden berechtigten Interessen ist nur dann zulässig, wenn dieser (wiederum)14 gesetzlich vorgesehen ist und der Erreichung eines bestimmten Zweckes dient. Stets ist unter mehreren Eingriffsvarianten die gelindeste noch zum Ziel führende zu wählen. Erhöhte Anforderungen werden dann noch für Beschränkungen des Geheimhaltungsanspruchs bezüglich „sensibler“ Daten15 verlangt. Die gesetzliche Ermächtigung zur Verwendung sensibler Daten darf nur zur Wahrung eines „wichtigen öffentlichen Interesses“ 12
13
14 15
Diese zweite Einschränkung, nämlich dass Bestimmbarkeit nur dann vorliegt, wenn mögliche Mittel eingesetzt werden, ergibt sich aus Erwägungsgrund 26 der EG Datenschutz-RL (95/46/EG, ABl L 281/31 vom 31.11.1995); vgl. Duschanek 2005, Rz. 27. Eine Information wird nicht schon deshalb „allgemein verfügbar“ mit der Wirkung, dass sie aus dem Schutzbereich des Grundrechtes heraus fällt, weil sie von anderen wahrgenommen werden kann. Erinnert sei an die Eingriffsformel des Art. 8 Abs. 2 EMRK. Zu diesem Begriff unten Pkt IV.C.2.b.
108
Hattenberger
vorgesehen werden, und es müssen überdies „angemessene Garantien für den Schutz der Geheimhaltungsinteressen“ der Betroffenen festgelegt werden. Der Gesetzestext räumt durch die Verwendung unbestimmter Begriffe – wie „wichtige öffentliche Interessen“ und „angemessene Garantien“ – allerdings erheblichen Gestaltungsspielraum ein. 3.
Fernmeldegeheimnis
Nicht zuletzt sei in diesem Zusammenhang das Fernmeldegeheimnis erwähnt. Art. 10a des Staatsgrundgesetzes aus 1867 (StGG) statuiert in seinem ersten Satz die Unverletzlichkeit des Fernmeldegeheimnisses. Ziel dieser Bestimmung ist es, die Vertraulichkeit von Informationen zu gewährleisten, die auf einem bestimmten Kommunikationsweg übermittelt wurden. Der Inhalt der jeweiligen Kommunikation ist dabei irrelevant (Wiederin 2001, Rz. 3). Vom Schutzbereich dieses Grundrechtes erfasst – und das rechtfertigt m.E. auch seine Erwähnung in diesem Kontext – ist nicht nur die ‚herkömmliche’ Telefonie, sondern auch der E-Mail-Verkehr und die Internet-Telefonie. Und geschützt ist der Kommunikationsinhalt, nicht aber die sogenannten „äußeren Kommunikationsdaten“ wie zum Beispiel gewählte Rufnummer, Zeit und Dauer der Verbindung (Wessely 1999, S. 492 ff; Wiederin 2001, Rz. 12). Eingriffe in das Fernmeldegeheimnis sind zum einen nur auf Grund gesetzlicher Ermächtigung und zum anderen nur auf Grund eines richterlichen Befehles im Einzelfall zulässig. Gesetz und richterlicher Befehl müssen den Grundsatz der Verhältnismäßigkeit wahren (Wiederin 2001, Rz. 12); das heißt zwischen der Intensität des Eingriffs einerseits und dem Gewicht der den Eingriff rechtfertigenden Gründe muss eine angemessene Relation bestehen. Oder anders formuliert: Nur als besonders wichtig eingeschätzte Interessen und Ziele können schwerer wiegende Eingriffe in das Grundrecht legitimieren. C. 1.
Einfachgesetzliche Rahmenbedingungen Rahmenbedingungen Einleitung
Nach diesem Blick auf die verfassungsrechtlichen Grundlagen des Schutzes der Privatsphäre sollen nunmehr einzelne einfachgesetzliche Rahmenbedingungen dargestellt werden. Das Hauptaugenmerk wird dabei auf das Datenschutzgesetz (DSG) 2000 gelegt werden. Aus Gründen der Aktualität möchte ich sodann noch einzelne Bestimmungen des Sicherheitspolizeigesetzes (SPG), der Strafprozessordnung (StPO) und des Telekommunikationsgesetzes (TKG) vorstellen.
Recht auf Privatsphäre 2. a.
109
Datenschutzgesetz 2000 Einleitung
Das Datenschutzgesetz 2000 (DSG 2000), BGBl. I 1999/165 i.d.F. BGBl. I 2005/13, ist die einschlägige Rechtsquelle für die automationsunterstützte Verarbeitung von personenbezogenen Daten. Es gilt darüber hinaus auch noch für manuell geführte Dateien in jenen Angelegenheiten, für die dem Bund die Regelungszuständigkeit zukommt.16 Davon abgesehen gibt es bereichsspezifische Sonderregelungen in diversen Materiengesetzen wie beispielsweise dem TKG 2003 (§§ 96 ff TKG 2003, BGBl. I 2003/70 i.d.F. BGBl. I 2004/178), dem SPG (§§ 52 ff SPG, BGBl. 1991/566 i.d.F. BGBl. I 2004/151), der StPO (§§ 149a ff StPO) oder der GewO (Gewerbeordnung, § 151 GewO, BGBl. 1994/194 i.d.F. BGBl. I 2004/151). Das DSG bleibt aber jeweils subsidiär anwendbar. b.
Anwendungsbereich
Die ‚erste’ Anwendungsbedingung und demnach gewissermaßen die ‚Eintrittspforte’ in das DSG bildet der Begriff der personenbezogenen Daten. Das Gesetz definiert diese als „Angaben über Betroffene, deren Identität bestimmt oder bestimmbar ist“ (§ 4 Z 1 DSG). Dazu zählen neben den schon erwähnten Beispielen wie Name, Geburtsdatum, Adresse, Lebenslauf, Einkommen, Freizeitgewohnheiten, Werturteile oder biometrische Daten auch Ton- und Bilddaten, die durch optische oder akustische Überwachung aufgezeichnet werden. Daten, die im Rahmen einer Videoüberwachung verarbeitet werden, fallen nur dann nicht unter das DSG, wenn der Personenbezug nicht hergestellt werden kann, weil es sich beispielsweise nur um Übersichtskameras handelt, oder weil die Erkennbarkeit durch technische Maßnahmen, wie zum Beispiel die Verschleierung, nicht gegeben ist (vgl. Steiner und Andréewitch 2006, S. 80). Bilddaten, die im Rahmen der abschnittsbezogenen Geschwindigkeitsüberwachung, der sogenannten Section Control, anfallen, sind personenbezogene Daten, weil die Identität anhand der aufgezeichneten Kennzeichendaten bestimmbar ist (Kunnert 2006b, S. 17). Und selbstverständlich können auch bei der E-Mail- und Internetnutzung personenbezogene Daten anfallen. Bei der Nutzung der elektronischen Post ist der Personenbezug eindeutig, wenn – was in größeren Unternehmen üblich ist – den Mitarbeiterinnen 16
§ 58 DSG 2000. Vgl. Dohr et al. (2002), § 2, S. 32; Landes-Datenschutzgesetze gelten für manuell geführte Datenverarbeitungen hinsichtlich jener Angelegenheiten, die in die Gesetzgebungszuständigkeit der Länder fallen.
110
Hattenberger
eigene E-Mail-Adressen zugeteilt sind. Und dieser Personenbezug kann in zweifacher Hinsicht gegeben sein, nämlich in Bezug auf die Absenderin und auf den Empfänger. Der Personenbezug würde nur dann fehlen, wenn E-Mails von einer Adresse abgeschickt werden, die keinem Mitarbeiter eindeutig zugeordnet werden kann und überdies nicht feststellbar ist, wer zum Zeitpunkt der Übermittlung den jeweiligen Rechner bedient hat. Ebenso „liefern“ Log-Dateien eines Webservers personenbezogene Daten, wenn sie (eben definitionsgemäß) einer Person zuordenbar sind. Diese Zuordenbarkeit ist jedenfalls gegeben, wenn sich beispielsweise eine Arbeitnehmerin am Arbeitsplatzrechner mit Benutzername und Passwort anmeldet (vgl. Sacherer 2005, S. 174; Brodil 2004a, S. 157; Kotschy und Reimer 2004, S. 167). Personenbezug kann aber nicht nur bei der Benutzung passwortgeschützter PCs hergestellt werden, sondern auch über die IP-Adresse des Rechners, sofern einer Person ein bestimmter Rechner eindeutig zugewiesen wurde und feststellbar ist, dass dieser Rechner im fraglichen Zeitraum nur von dieser Person benutzt werden konnte. Das DSG 2000 unterscheidet innerhalb der personenbezogenen Daten zwischen sensiblen und nicht-sensiblen Daten. Die sensiblen Daten werden im § 4 Z 2 des DSG in abschließender Form aufgezählt, und zwar sind das Daten natürlicher Personen über ihre rassische und ethnische Herkunft, politische Meinung, Gewerkschaftszugehörigkeit, religiöse oder philosophische Überzeugung, Gesundheits- oder Sexualleben. Diese Daten werden einem besonders strengen Regelungsregime unterworfen. Sensible Daten können etwa im Rahmen einer Videoüberwachung anfallen, so zum Beispiel sichtbare Informationen über den Gesundheitszustand (wie zum Beispiel Gehhilfen) oder über die Zugehörigkeit zu einer bestimmten ethnischen Gruppe. Im Rahmen eines Arbeitsverhältnisses können sensible Daten bei der Protokollierung von Log-Dateien und E-Mails durch den Arbeitgeber anfallen, und das, ohne dass es dazu notwendig der Kontrolle des Inhaltes einer elektronischen Post oder einer Webseite bedürfte, weil bereits die Adresse einiges über den Inhalt auszusagen vermag (so genannte Zwitterstellung der URLs. Vgl. Brodil 2004a, S. 158; Gruber 2001, S. 172; Streitberger 2003, S. 14 f). Wird nämlich beim E-Mail-Verkehr die Adresse des Empfängers protokolliert, so sind oft schon auf Grund dieser Adresse Rückschlüsse auf die Gewerkschaftszugehörigkeit, die politische Gesinnung, die Gesundheit oder die Religion möglich – wenn also beispielsweise die Adresse …@spoe.at, …@oegb.or.at, …@hiv.at oder …@kath-kirche-kaernten.at aufscheint. Dasselbe gilt, wenn der Arbeitnehmer „sensible“ Internetseiten aufsucht; etwa jene der Aidshilfe, des Netdoktors, des Gewerkschaftsbundes oder einer politischen Partei. Diese Daten werden in der Literatur als potentiell sensible Daten bezeichnet. Dies deshalb, weil das Aufsuchen der Aidshilfe-Seite ja noch nicht
Recht auf Privatsphäre
111
bedeutet, dass der Besucher diese Seite selbst an Aids erkrankt ist, oder weil der Besuch der Seite einer politischen Partei ja noch nicht notwendig eine Sympathiebekundung für diese Partei oder die Mitgliedschaft zu derselben bedeutet. Ein solcher Bezug ist aber ebenso wenig auszuschließen. Abgesehen davon können sich diese Vermutungen durch eine Kombination von mehreren Protokolldaten durchaus zu einem hohen Grad an Gewissheit verdichten. Datenschutzrechtlich stellt sich das Problem, dass es für die kontrollierende Person vor der Protokollierung und allenfalls der Auswertung nicht möglich ist zu erkennen, ob es sich um sensible oder nicht sensible Daten handelt. Diesbezüglich wird in der Literatur vorgeschlagen, regelmäßig vom Vorliegen sensibler Daten auszugehen, was zur Folge hat, dass ebenso regelmäßig die wesentlich strengeren Zulässigkeitsbedingungen des § 9 DSG zu beachten sind (Gruber 2001, S. 172; Streitberger 2003, S. 14 f; Brodil 2004a, S. 162. Brodil hält allerdings die Kontrolle dieser „inhaltsnahen“ Vermittlungsdaten aufgrund des Bestehens eines „überwiegenden Interesses des Arbeitgebers“ für zulässig). c.
Grundsätze des DSG
i.
Einleitung
Die Frage der Zulässigkeit einer Datenverwendung erfordert das Durchlaufen mehrerer Prüfschritte. Zunächst ist zu prüfen, ob bestimmte Grundsätze eingehalten sind. Die Einhaltung dieser Grundsätze muss stets geprüft werden. Sie stecken den Rahmen ab, in dem die Datenanwendung stattfinden darf. Ob die Datenanwendung im Konkreten zulässig ist, ist nach den Anforderungen des § 7 DSG zu prüfen. Diese Vorgaben verlangen, – – –
ii.
dass die Datenverarbeitung im Rahmen der rechtlichen Befugnis des Auftraggebers gelegen ist, dass keine schutzwürdigen Geheimhaltungsinteressen verletzt werden. Diese Voraussetzung wird für die unterschiedlichen Datenkategorien in den §§ 8 und 9 DSG näher ausgeführt, und dass der Eingriff in das Grundrecht auf Datenschutz nur im erforderlichen Ausmaß und mit den gelindesten zur Verfügung stehenden Mitteln erfolgt. Treu und Glauben und rechtmäßige Verwendung
§ 6 Abs. 1 Z 1 DSG bestimmt als ersten Grundsatz, dass Daten nur nach Treu und Glauben verwendet werden dürfen. Auf den ersten Blick wird
112
Hattenberger
man geneigt sein, den normativen Gehalt dieser Bestimmung als eher gering einzustufen, als eine Art moralischen Appell zu Fairness beim Datengebrauch. Seine Bedeutung sollte allerdings auch nicht zu gering geschätzt werden. Nach den Erläuterungen zur Regierungsvorlage (RV 1613 BlgNR 20. GP zu § 6) bedeutet Datenverwendung nach Treu und Glauben, dass der Betroffene über die Umstände des Datengebrauchs sowie über das Bestehen und die Durchsetzbarkeit seiner Rechte nicht irregeführt wird. Geboten ist demnach eine umfangreiche Aufklärung des Betroffenen über den Zweck der Datenanwendung, verwendete Datenarten, mögliche Übermittlungsempfängerinnen sowie die Möglichkeiten der Rechtsdurchsetzung. Konkretisiert wird dieser Grundsatz vor allem durch jene Bestimmungen, die die Publizität der Datenverarbeitung sicherstellen sollen (38. Erwägungsgrund der RL 95/46/EG, ABl L 281/31 vom 31.11.1995; Duschanek und Rosenmayr-Klemenz 2000, S. 31; Dohr et al. 2002, § 6, S. 64; Brodil 2004b, S. 20). Und das gilt insbesondere für die Informationspflicht nach § 24 DSG, wonach der Auftraggeber bereits anlässlich der Ermittlung von Daten über bestimmte Aspekte der Datenverarbeitung zu informieren hat. So ist also beispielsweise – sofern nicht sondergesetzliche Ermächtigungen bestehen – über die Tatsache der Videoüberwachung zu informieren. Im Arbeitsverhältnis bedeutet die Datenverwendung nach Treu und Glauben, dass beispielsweise über allfällige Kontrollmaßnahmen, wie zum Beispiel die Protokollierung von Internetzugriffen oder des E-Mail-Verkehrs oder des Betretens oder Verlassens von Räumlichkeiten, informiert werden muss. Das Gebot der Datenverwendung auf rechtmäßige Weise wird in der Literatur dahingehend verstanden, dass sämtliche Datenschutzbestimmungen im DSG 2000 und in allen Nebengesetzen zu befolgen sind (Knyrim 2003, S. 82 mit Hinweis auf Duschanek und RosenmayrKlemenz 2000, S. 39. Kritisch zu dieser „Erinnerungspost“ Hattenberger 2005, S. 31 f). iii. Zweckbindung Ein ganz zentraler Grundsatz des Datenschutzgesetzes ist jener der Zweckbindung. Daten dürfen nur für eindeutige, festgelegte und rechtmäßige Zwecke verwendet werden. Und dieser Zweck begrenzt die Datenverwendung auch nach Umfang und Dauer. In umfänglicher Hinsicht deshalb, weil nur jene Daten verwendet werden dürfen, die für diesen Zweck wesentlich sind (§ 6 Z 3 DSG); der Dauer nach deshalb, weil Daten auch nicht länger als zur Zweckerreichung notwendig verarbeitet werden dürfen. Ist der Zweck erreicht, so sind diese Daten zu anonymisieren oder zu löschen (§ 6 Z 5 DSG begrenzt die Aufbewahrung „in personenbezogener
Recht auf Privatsphäre
113
Form“ bis zur Zweckerreichung. Eine längere Aufbewahrungsdauer könnte sich nur aus besonderen gesetzlichen Vorschriften ergeben). Ausdruck der strikten Zweckbindung ist dann noch, dass ein Zweckwechsel innerhalb desselben Unternehmens als Übermittlung gilt, die nur unter besonderen Voraussetzungen zulässig ist (§ 7 Abs. 2 DSG). Dieser Zweckbindungsgrundsatz setzt der Datenverarbeitung eine wichtige, an sich aber auch ganz selbstverständliche Grenze. Die Voraussetzungen der Zulässigkeit sind für jeden Zweck hin eigenständig zu prüfen. Und es kann nicht angehen, dass die einmal zulässige Verwendung die Weiterverarbeitung in jedem anderen Kontext erlaubt. Das lässt sich vor allem hinsichtlich einer Datenverarbeitung auf der Grundlage der Zustimmung des Betroffenen demonstrieren. Es ist ein wesentliches Prinzip des DSG, dass die Datenverwendung mit Zustimmung des Betroffenen zulässig ist. Dafür steht das Schlagwort der „informationellen Selbstbestimmung“. Diese Zustimmung wird aber immer nur für einen ganz bestimmten Zweck gegeben. Werden nun die ermittelten Daten aus diesem Kontext herausgelöst und in einen anderen Kontext ‚hineingestellt’ – zum Beispiel vom Kontext „Bewerberinnenauswahl“ in den Kontext „Marketing“ – dann würde die Betroffene auf diese Weise ihrer informationellen Selbstbestimmung beraubt. Der datenschutzrechtliche Grundsatz der Zweckbindung verbietet eine Datensammlung auf Vorrat. Die Wirksamkeit dieser Grenze wird nun vor allem davon abhängen, wie eng oder großzügig diese Zwecksetzung gefasst ist. Die Aufklärung von Straftaten oder das Gewinnen von Beweisen dürften jene Zwecke sein, deretwegen eine Videoüberwachung stattfinden soll, die Ermittlung von Verkehrssündern ist Zweck der Section Control. Legitimer Zweck zur Verarbeitung der bei der E-Mail- und Internetnutzung im Rahmen eines Arbeitsverhältnisses anfallenden Daten kann die Abwehr von Gefahren für das IT-System sein, oder die Vermeidung sonstiger materieller oder immaterieller Nachteile für den Arbeitgeber. Auch die Begrenzung der Datenverwendung der Dauer nach ist zu beachten. Daten sind zu löschen, wenn der Zweck erreicht wurde. Demnach wäre Bildmaterial, das unverdächtiges Verhalten enthält, sofort zu löschen. iv. Richtigkeit und Aktualität Der Grundsatz der sachlichen Richtigkeit verlangt, dass Daten, die zum Beispiel ermittelt oder gespeichert werden, auch inhaltlich richtig sind (näher dazu Hattenberger 2005, S. 35). Und sofern der aktuelle Stand des Datenmaterials notwendig ist, sind Daten auch zu aktualisieren.
114
Hattenberger
d.
Zulässigkeitsprüfung im Konkreten
i.
Einleitung
Nach dem Konzept des DSG ist die Verarbeitung von Daten grundsätzlich verboten. Dieses Verbot ist nur durch (allerdings zahlreiche) gesetzlich festgelegte Ausnahmesituationen durchbrochen. Jede Verarbeitung personenbezogener Daten bedarf demnach eines gesetzlich verbürgten Rechtfertigungsgrundes. Und aus dieser Struktur: Verbot mit Ausnahme, folgt ein wichtiger Auslegungsgrundsatz, jener nämlich, dass Ausnahmen von einem Grundsatz im Zweifelsfall eng auszulegen sind.17 ii.
Befugnis
Erste Zulässigkeitsbedingung für die Durchbrechung des grundsätzlichen Verbotes der Datenverarbeitung ist, dass Zweck und Inhalt der Datenanwendung von den gesetzlichen Zuständigkeiten oder den rechtlichen Befugnissen des Auftraggebers gedeckt sind. Der Terminus der „gesetzlichen Zuständigkeiten“ betrifft die Auftraggeber des öffentlichen Bereichs. Die Grenzen zulässiger Datenverarbeitung werden durch die per Gesetz festgelegten Zuständigkeiten gezogen. Für private Unternehmen kommt es auf die Deckung durch die „rechtlichen Befugnisse“ an. Und diese rechtlichen Befugnisse ergeben sich beispielsweise aus der gewerberechtlichen Bewilligung, aus einer erforderlichen Konzession, wie etwa der Bankkonzession nach Bankwesengesetz (BWG) oder einer Privatfernsehkonzession nach dem Privatfernsehgesetz, aus dem Gesellschaftsvertrag oder aus den Vereinsstatuten (Knyrim 2003, S. 94 ff; Drobesch und Grosinger 2000, S. 134; Jahnel 2000, S. 51; Jahnel 2004, S. 22 und andere). iii. Schutzwürdige Geheimhaltungsinteressen des Betroffenen werden nicht verletzt Die zweite Zulässigkeitsbedingung ist, dass schutzwürdige Geheimhaltungsinteressen des Betroffenen nicht verletzt werden. Diese Bedingung wird im Gesetz für die unterschiedlichen Datenkategorien – nicht-sensible 17
Dies vor allem auch vor dem Hintergrund, dass jede Verwendung personenbezogener Daten einen Eingriff in den grundrechtlich garantierten Anspruch auf Geheimhaltung darstellt (§ 1 Abs. 1 DSG) und nach ständiger Judikatur des VfGH Grundrechtseingriffe stets restriktiv zu interpretieren sind. Vgl. VfSlg 8765/1980, VfGH 27.2.1985, V 47/82; VfGH 10.3.1988, V 52/87; VfGH 17.3.1993, B 587/92; VfGH 13.10.1999, G 77/99, V 29/99; VfGH 19.6.2001, G 58/98; VfGH 11.10.2001, V 45/01; so auch der OGH in der Entscheidung vom 3.9.2002, 11 Os 109/01.
Recht auf Privatsphäre
115
Daten, Strafdaten und sensible Daten – näher ausgeführt und „negativ konkretisiert“. Die Aufzählung enthält jeweils Fälle, in denen schutzwürdige Geheimhaltungsinteressen des Betroffenen nicht verletzt sind. Eine detaillierte Darlegung dieser Rechtfertigungsgründe würde den Rahmen dieses Beitrages sprengen. Meine Ausführungen bleiben deshalb auf einzelne dieser Gründe und grundsätzliche Ausführungen beschränkt. So ist eine Verletzung schutzwürdiger Geheimhaltungsinteressen bei der Verarbeitung nicht-sensibler Daten dann nicht gegeben, wenn diese aufgrund einer ausdrücklichen gesetzlichen Ermächtigung oder Verpflichtung erfolgt. Gerechtfertigt ist deren Verarbeitung auch dann, wenn der Betroffene zugestimmt hat. Als „Zustimmung“ definiert das Gesetz die „gültige, insbesondere ohne Zwang abgegebene Willenserklärung Betroffener, dass er in Kenntnis der Sachlage für den konkreten Fall in die Verwendung seiner Daten einwilligt“. Der Rechtfertigungsgrund der Zustimmung ist Ausdruck der dem DSG zugrunde liegenden Orientierung am Grundsatz der sogenannten „informationellen Selbstbestimmung“18. Es soll grundsätzlich der Betroffenen anheim gestellt sein zu entscheiden, wer welche Daten von ihr verarbeitet. Dieser Rechtfertigungsgrund ist allerdings nicht unproblematisch. So ist es beispielsweise in hohem Maße fraglich, ob im Arbeitsverhältnis wegen des dort typischerweise gegebenen Machtgefälles zwischen Arbeitgeber und Arbeitnehmerin die von Gesetzes wegen gestellten Anforderungen an die Zustimmung auch erfüllt sind (zum Beispiel Gruber 2001, S. 172 FN 25; Kotschy und Reimer 2004, S. 168. In diese Richtung auch Dammann und Simitis 1997, S. 16). Die Gefahr des Arbeitsplatzverlustes bei Nicht-Zustimmung wird die Freiwilligkeit fraglich erscheinen lassen (eingehender Hattenberger 2005, S. 37f). Und aus demselben Grund ist die Legitimationsgrundlage Zustimmung in jenen, nicht seltenen Fällen fraglich, in denen die NichtZustimmung mit Leistungsverweigerung ‚geahndet’ wird (zu diesem Problem Simitis 2005, S. 519). Die Verarbeitung nicht-sensibler Daten ist des Weiteren zulässig, wenn sie im lebenswichtigen Interesse des Betroffenen liegt. Und nicht zuletzt ist die Verarbeitung nicht-sensibler Daten zulässig, wenn überwiegende berechtigte Interessen des Auftraggebers oder eines Dritten die Datenverwendung erfordern. Gefordert ist demnach eine Abwägungsentscheidung zwischen einerseits den berechtigten Interessen einer anderen Person und andererseits den Geheimhaltungsinteressen des Betroffenen. Die Bewertung des Gewichts der jeweiligen Interessen ist den Wertungen der Rechtsordnung zu entnehmen. Dabei ist beispielsweise zu bedenken, dass die Geheimsphäre des Einzelnen gleich mehrfach verfassungsrechtlich 18
Dieser Ausdruck wurde durch das deutsche Volkszählungsurteil geprägt.
116
Hattenberger
abgesichert ist, nämlich durch die Grundrechte auf Achtung des Privatlebens und auf Achtung des Fernmeldegeheimnisses sowie durch das Datenschutzgrundrecht. Diese verfassungsrechtliche Absicherung verleiht ihnen in diesem Abwägungsprozess eine gewichtige Position. Für die Verarbeitung von „Strafdaten“ “ sieht das Gesetz in § 8 Abs. 4 DSG besondere Anforderungen vor. Diese dürfen nur verarbeitet werden, wenn entweder ein Gesetz dazu ermächtigt oder ihre Verarbeitung für eine Behörde eine wesentliche Voraussetzung der Aufgabenwahrnehmung ist, oder aber – und das gilt nun für private Auftraggeber – wenn ein überwiegendes berechtigtes Interesse des Auftraggebers besteht und ein besonders vertraulicher Umgang mit den Daten sichergestellt wird. Diese Rechtfertigungsgründe sind insbesondere für die Videoüberwachung und die Section Control von Bedeutung, zumal es regelmäßiger Zweck dieser Maßnahmen ist, strafrechtlich relevantes Verhalten zu ermitteln. Und in diesem Zusammenhang sei auch erwähnt, dass die geforderte gesetzliche Grundlage für die Section Control fraglich ist. (Der VfGH hat mit Erkenntnis vom 15.6.2007, G 147/06, allerdings befunden, dass die einschlägige gesetzliche Grundlage einer verfassungskonformen Interpretation zugänglich ist.) Qualifizierte Anforderungen sind auch bei der Verarbeitung „sensibler Daten“ zu erfüllen. § 9 DSG zählt in abschließender Weise dreizehn Tatbestände auf, die eine Verwendung dieser Daten rechtfertigen können. Beispielsweise ist auch hinsichtlich der Verwendung sensibler Daten der Rechtfertigungsgrund einer gesetzlichen Ermächtigung vorgesehen. Diese Ermächtigung darf allerdings nur zur Verfolgung „wichtiger öffentlicher Interessen“ statuiert werden (§ 9 Z 1 DSG). Die Zustimmung zur Verarbeitung sensibler Daten muss ausdrücklich gegeben werden (§ 9 Z 6 DSG), und weitere Rechtfertigungsgründe sind für das Arbeitsverhältnis und für medizinische Berufe vorgesehen (§ 9 Z 11 und 13). iv. Erforderlichkeit, gelindestes Mittel Ist die Datenverarbeitung von den rechtlichen Befugnissen des Auftraggebers gedeckt und werden auch schutzwürdige Geheimhaltungsinteressen nicht verletzt, so ist zuletzt zu prüfen, ob das schonendste Mittel zur Zielerreichung eingesetzt wurde. Das DSG verhält demnach zu maßvollem Vorgehen. Die Verarbeitung von personenbezogenen Daten ist nur soweit zulässig, als dies zur Zielerreichung unvermeidlich und unerlässlich ist. So ist es im Arbeitsverhältnis beispielsweise das gelindere Mittel, Webseiten zu sperren, als die Zugriffe zu protokollieren und dann abzumahnen. Es ist – wie das der OGH in Bezug auf die Videoüberwachung einer Liegenschaft zum Zwecke der Ausforschung des Wohnsitzes einer Person
Recht auf Privatsphäre
117
ausgesprochen hat (OGH 19.12.2005, 8 Ob 108/05y = ÖJZ LSK 2006/67 = ecolex 2006/167) – das gelindere Mittel, durch einen Detektiv beobachten zu lassen, als systematisch, verdeckt und identifizierend per Video zu überwachen. Und es ist überschießend, wenn die Wohnungs- und GangWC-Türen der Mieter und deren unmittelbare Zugangsbereiche überwacht werden. Vielmehr genügt es, wenn zum Schutz vor Sachbeschädigungen die allgemeinen Teile des Hauses per Video überwacht werden (LGZ Wien 13.4.2004, 40 R 65/04m = MietSlg 56.002). e.
Weitere Verpflichtungen
§ 24 DSG verpflichtet dazu, bereits aus Anlass der Ermittlung von personenbezogenen Daten Betroffene über bestimmte Umstände zu informieren, nämlich über den Zweck der Datenverarbeitung sowie über Name und Adresse des Auftraggebers. Mit dieser Verpflichtung soll Transparenz an einem „entscheidenden“ Punkt der Datenverarbeitung „einsetzen“, nämlich bereits anlässlich des Sammelns von Daten. Das bedeutet nun, dass – sofern keine sondergesetzliche Ermächtigung zu verdeckter Kontrolle besteht – über die Tatsache der Videoüberwachung oder über die Tatsache der Kontrolle von Internetzugriffen vorab zu informieren ist. Die Verletzung dieser Informationspflicht ist verwaltungsstrafrechtlich sanktioniert. Hingewiesen sei auch darauf, dass grundsätzlich jede beabsichtigte Datenverarbeitung der Datenschutzkommission zur Registrierung im Datenverarbeitungsregister zu melden ist. Besteht die Absicht, Strafdaten oder sensible Daten zu verarbeiten – was beispielsweise bei der Videoüberwachung oder der Section Control der Fall ist – muss die Verarbeitung von der Datenschutzkommission vorab genehmigt werden. Auch die Verletzung dieser Meldepflicht ist verwaltungsstrafrechtlich sanktioniert. f.
Rechtsdurchsetzung
Es ist über weite Strecken den Betroffenen anheim gestellt, die Einhaltung der Bestimmungen des DSG durchzusetzen. Betroffene haben zum einen das Recht auf Auskunft darüber, welche Daten verarbeitet werden, woher sie stammen und auf Basis welcher rechtlichen Grundlage (§ 26 DSG). Diese Auskunft ist einmal jährlich unentgeltlich zu erteilen, sofern der aktuelle Datenbestand betroffen ist. Betroffene sind zum zweiten berechtigt, Richtigstellung und Löschung zu verlangen, sollte sich herausstellen, dass ‚ihre’ Daten in unrichtiger oder unzulässiger Weise verarbeitet worden sind (§ 27 Abs. 1 Z 2 DSG).
118
Hattenberger
Für die Durchsetzung dieser Ansprüche sieht das DSG einen geteilten Rechtsschutz vor, je nach dem, ob die Verarbeitung dem öffentlichen oder dem privaten Bereich zuzuzählen ist. Für diese Unterscheidung kommt es auf Auftraggebereigenschaften an. Zum öffentlichen Bereich zählen Datenverarbeitungen durch Auftraggeber, die entweder juristische Personen des öffentlichen Rechts sind – also beispielsweise Bund, Länder, Gemeinden, Kammern, Sozialversicherungsträger oder Universitäten – oder aber auch private Rechtsträger, die zur Ausübung von Hoheitsgewalt ermächtigt sind und von dieser Ermächtigung Gebrauch machen (sogenannte „Beliehene“). Zum privaten Bereich zählen (sonstige) Verarbeitungen privater Rechtsträger. Ansprüche im öffentlichen Bereich sind vor der Datenschutzkommission durchzusetzen. Die Datenschutzkommission ist eine durch Weisungsfreistellung ihrer Mitglieder qualifizierte Verwaltungsbehörde. Ansprüche im privaten Bereich sind grundsätzlich vor den ordentlichen Gerichten geltend zu machen. Dieser Grundsatz ist durch zwei Ausnahmen durchbrochen: zum einen, wenn es darum geht, das Auskunftsrecht geltend zu machen. Dafür zuständig ist auch für den privaten Bereich die Datenschutzkommission (§ 31 Abs. 1 DSG). Zum anderen sieht das Gesetz auch ein allgemeines Beschwerderecht vor, durch dessen Inanspruchnahme die Datenschutzkommission „angeregt“ werden soll, von ihren Kontrollbefugnissen Gebrauch zu machen (§ 30 Abs. 1 DSG). 3.
Sicherheitspolizeigesetz Sicherheitspolizeigesetz und Strafprozessordnung
Sondergesetzliche Bestimmungen für die Verarbeitung personenbezogener Daten sind (auch) im Sicherheitspolizeigesetz und in der Strafprozessordnung vorgesehen. § 53 SPG ermächtigt die Sicherheitsbehörden zur Verarbeitung personenbezogener Daten für bestimmte Zwecke, beispielsweise für die Erfüllung der ersten allgemeinen Hilfeleistungspflicht, für die Abwehr krimineller Verbindungen, für die Abwehr gefährlicher Angriffe, für die Vorbeugung wahrscheinlicher gefährlicher Angriffe gegen Leben, Gesundheit, Sittlichkeit, Freiheit, Vermögen oder Umwelt, für Zwecke der Fahndung oder, um bei einem bestimmten Ereignis die öffentliche Ordnung aufrechterhalten zu können. Für den Einsatz von Bildund Tonaufzeichnungsgeräten finden sich im Gesetz nun gleich mehrere Ermächtigungen. So ist der Einsatz dieser Geräte beispielsweise dann erlaubt, wenn es darum geht, kriminelle Verbindungen abzuwehren, von denen die Begehung von mit beträchtlicher Strafe bedrohten Handlungen zu erwarten ist (§ 54 Abs. 4a SPG). Und die Ermittlung darf verdeckt erfolgen, wenn ansonsten die Zielerreichung gefährdet wäre. Bild- und Tonaufzeichnungsgeräte dürfen auch dann zum Einsatz kommen, wenn
Recht auf Privatsphäre
119
„bei einer Zusammenkunft zahlreicher Menschen“ zu befürchten ist, dass es zu gefährlichen Angriffen gegen Leben, Gesundheit oder Eigentum kommen wird, oder wenn auf Grund bestimmter Tatsachen, „insbesondere wegen vorangegangener gefährlicher Angriffe zu befürchten ist, dass es an öffentlichen Orten zu gefährlichen Angriffen gegen Leben, Gesundheit oder Eigentum von Menschen kommen wird“ (sogenannte „Überwachung an Kriminalitätsbrennpunkten“), oder bei nationalen und internationalen Veranstaltungen mit besonderer Gefährdungssituation. Unter diesen Bedingungen dürfen personenbezogene Daten der Anwesenden ermittelt werden. Die Verwendung der Überwachungsgeräte ist so anzukündigen, dass sie einem möglichst weiten Kreis potentieller Betroffener bekannt wird. Gerade die beiden zuletzt genannten Beispiele einer Ermächtigung zur Videoüberwachung sind besonders erwähnenswert, weil Videoüberwachung damit erstmals19 auch präventiv und ohne konkreten Anlassfall erfolgen darf. Das ist gegenüber der bisherigen Rechtslage m.E. ein bemerkenswerter Schritt. Während die Bestimmungen des SPG zu Bild- und Tonüberwachungsmaßnahmen im öffentlichen Raum ermächtigen, gestattet die StPO die Überwachung des nichtöffentlichen Verhaltens und nichtöffentlicher Äußerungen. Die Verwendung technischer Mittel zur Bild- und Tonübertragung ohne Kenntnis des Betroffenen ist nur unter eng begrenzten Voraussetzungen zur Aufklärung bestimmter Verbrechen zulässig (§ 149d StPO); so zum Beispiel im Falle einer Entführung, zur Aufklärung eines mit mehr als zehn Jahre Freiheitsstrafe bedrohten Verbrechens oder der Verbrechen einer kriminellen Organisation oder einer terroristischen Vereinigung. Die Behörden sind dabei regelmäßig zur Wahrung der Verhältnismäßigkeit verpflichtet. Der angestrebte Erfolg muss in einem vertretbaren Verhältnis zu den voraussichtlich bewirkten Eingriffen in die Rechte Dritter stehen. Und grundsätzlich muss die Überwachungsmaßnahme von einem richterlichen Organ angeordnet werden.20 Mit dem Begriff des „automatisierten Datenabgleichs“ (sogenannte „Rasterfahndung“) ist die Verknüpfung von Daten aus verschiedenen Datenanwendungen gemeint, um Verdächtige auszuforschen. Die StPO sieht diesbezüglich ein je nach Schwere der aufzuklärenden Straftat abgestuftes System von Ermächtigungen vor. Grundsätzlich darf eine solche immer nur dann stattfinden, wenn es sich um die Aufklärung von Verbrechen handelt, das heißt von Straftaten, die mit mehr als dreijähriger Freiheitsstrafe bedroht sind, und wenn ohne eine Rasterfahndung die Aufklärung 19
20
Diese beiden Ermächtigungen wurden durch die SPG-Novellen 2005 und 2006 eingeführt. Keine richterliche Anordnung ist im Falle der Überwachung bei Entführung vorgesehen.
120
Hattenberger
wesentlich erschwert oder aussichtslos wäre. Sind diese Voraussetzungen gegeben, so dürfen Dateien aus verschiedenen Datenanwendungen verknüpft werden, die „Gerichte und Sicherheitsbehörden für Zwecke des Strafverfahrens oder sonst auf Grund bestehender Bundes- oder Landesgesetze ermittelt haben“ (§ 149i StPO). Geht es um die Aufklärung eines mit mehr als zehn Jahre Freiheitsstrafe bedrohten Verbrechens oder um die Aufklärung des Verbrechens einer terroristischen Vereinigung oder einer kriminellen Organisation, so dürfen in den Datenabgleich auch Daten über Personen einbezogen werden, die von einem Unternehmen Waren oder Dienstleistungen bezogen haben, oder die Mitglied von Vereinen, Gesellschaften oder (anderen) juristischen Personen des privaten und öffentlichen Rechts sind (§ 149i Abs. 2 StPO). Grundsätzlich dürfen sensible Daten nicht in den Datenabgleich einbezogen werden. Eine Rasterfahndung ist regelmäßig durch ein richterliches Organ anzuordnen. Die Überwachung einer Telekommunikation darf angeordnet werden, wenn es „zumindest“ um die Aufklärung einer vorsätzlich begangenen, mit mehr als sechs Monaten Freiheitsstrafe bedrohten Straftat geht (§§ 149a ff StPO). Auch diese Maßnahme ist nur aufgrund richterlicher Verfügung zulässig. 4.
Telekommunikationsgesetz
Besondere Vorgaben für die Verarbeitung personenbezogener Daten sind auch im Telekommunikationsgesetz vorgesehen (§§ 96 ff TKG, BGBl. I 2003/70). Diese Bestimmungen finden Anwendung auf Daten, die im Rahmen der Erbringung eines öffentlichen21 Kommunikationsdienstes – wie zum Beispiel Telefonie,, die elektronische Post oder die Nutzung des Internet – anfallen. Das Gesetz differenziert zwischen mehreren Datenkategorien, nämlich den Stammdaten, den Verkehrsdaten, den Standortdaten und den Inhaltsdaten. Stammdaten sind solche, die für die Begründung und Abwicklung des Rechtsverhältnisses zwischen dem Nutzer und der Anbieterin eines Kommunikationsdienstes erforderlich sind; beispielsweise Name, Adresse oder auch Bonität. Verkehrsdaten sind solche, die für die Erbringung des konkreten Kommunikationsdienstes, beispielsweise eines Telefongesprächs, verarbeitet werden müssen, wie zum Beispiel die Nummer der anrufenden Teilnehmerin, gewählte Rufnummer, Gesprächszeit oder Dauer des Gespräches (sogenannte „äußere“ Kommunikationsdaten). Standortdaten sind eine besondere Form der Verkehrsdaten. Sie geben exakte Auskunft über den Standort des anrufenden Teilnehmers, auch wenn dieses Datum in dieser Genauigkeit für die Erbrin21
Im Sinne von allgemein zugänglich.
Recht auf Privatsphäre
121
gung der konkreten Kommunikationsdienstleistung nicht erforderlich ist. Inhaltsdaten beziehen sich auf den Inhalt der Kommunikation. Für diese unterschiedlichen Datenkategorien werden nun unterschiedliche Schranken der Verarbeitung festgelegt. Die Verwendung von Stammdaten ist nur solange zulässig, als das Rechtsverhältnis aufrecht ist (§ 97 TGK). Verkehrsdaten sind grundsätzlich nach Beendigung des konkreten Kommunikationsdienstes zu löschen. Sie können aber zu Beweiszwecken bis zum Ablauf einer Einspruchsfrist gegen die Abrechnung verarbeitet werden (§ 99 TKG). Standortdaten dürfen nur zur Klärung des Standortes einer in Not befindlichen Person durch Rettungsdienste verwendet werden (§ 98 TKG). Und eine Speicherung von Inhaltsdaten ist grundsätzlich unzulässig (§ 101 TKG). Eine Ausnahme ist nur aufgrund einer richterlichen Anordnung und nur gemäß den Bedingungen der StPO zulässig.22 Die schon eingangs erwähnte Richtlinie der EG zur Vorratsdatenspeicherung sieht für die äußeren Kommunikationsdaten die Verpflichtung zu einer erheblich verlängerten Speicherung vor. Es ist Sache der Mitgliedstaaten, diese Frist zwischen sechs und 24 Monaten zu bestimmen. Die Verwendung dieser Daten ist zur Aufklärung „schwerer Verbrechen“ zulässig. Die Bestimmung derselben ist wiederum den Mitgliedstaaten aufgegeben.
V. Tendenzen und kritische Würdigung Dieser Überblick über die einschlägigen rechtlichen Regelungen vermag wohl darzutun, dass der rechtliche Rahmen für die Verarbeitung personenbezogener Daten „dicht gezogen“ ist. Ich möchte nun in einem abschließenden Teil zu diesen rechtlichen Vorgaben, insbesondere aber auch zu deren praktischer Handhabung kritisch Stellung nehmen. Dabei möchte ich vorab noch einmal an das in diesem Zusammenhang regelmäßig zu wahrende Übermaßverbot erinnern. Es muss eine angemessene Relation zwischen der Intensität des Eingriffs in die private Sphäre einerseits und dem angestrebten Zweck andererseits bestehen. Nimmt man die Entwicklung der rechtlichen Rahmenbedingungen der letzten zehn Jahre in den Blick, so zeigt sich eine auffallende Erweiterung der gesetzlichen Ermächtigungen zu weiter gehender Verarbeitung personenbezogener Daten durch den Staat und damit die Grundlage für ein immer tieferes Vordringen in die Privatsphäre des Einzelnen. Die Sicherheitsbehörden haben dabei nicht nur Zugriff auf die von anderen 22
Ausnahmsweise ist eine Speicherung von Inhaltsdaten auch dann zulässig, wenn – wie zum Beispiel bei SMS – die Speicherung einen wesentlichen Bestandteil des Kommunikationsdienstes darstellt (§ 101 TKG).
122
Hattenberger
Behörden ermittelten Daten (§ 53 Abs. 3 SPG), sondern sind auch ermächtigt – wie es im Gesetz dazu lapidar heißt – „personenbezogene Daten aus allen anderen verfügbaren Quellen durch Einsatz geeigneter Mittel […] zu ermitteln und weiterzuverarbeiten“ (vgl. Lachmayer 2006, S. 30). Davon abgesehen greift der Staat mehr und mehr auf Daten zu, die von Privaten verarbeitet werden. So ermächtigt § 53 Abs. 5 SPG dazu, private Videoaufzeichnungen, die freiwillig übergeben werden, einzusetzen; des Weiteren hat der Staat unter bestimmten Voraussetzungen Zugriff auf die von (privaten) Telekommunikationsdienstleistern verarbeiteten Daten (§ 53 Abs. 3a SPG). Erinnert sei auch an die Ermächtigungen zur Rasterfahndung, zum Lauschangriff, die erweiterten Befugnisse zur Videoüberwachung an Kriminalitätsbrennpunkten und die Section Control. Dabei stehen die beiden zuletzt genannten Maßnahmen als Beispiel für eine „neue Qualität“ des Eindringens in die Privatsphäre. Sie gestatten nämlich eine generelle, von einem konkreten Anlassfall unabhängige Kontrolle und Überwachung. Um es konkreter zu machen: Während vor der Einführung der Videoüberwachung an Kriminalitätsbrennpunkten die Verfolgung erst einsetzte, wenn eine gerichtlich strafbare Handlung vorlag, wird nun vorab jeder verdächtigt und überwacht. Während vor der Einführung der Section Control nur derjenige geblitzt wurde, der zu schnell gefahren war, wird nunmehr jeder erfasst, der „möglicherweise zu schnell fahren wird“ (Lachmayer 2006, S. 30). Damit findet ein Paradigmenwechsel in der Strafverfolgung statt, auf den mancherorts schon hingewiesen wurde, nämlich von der Unschuldsvermutung zur Pauschalverdächtigung (vgl. Tichy und Peissl 2001, S. 35; Krempl 2006, S. 18). Der Schritt zum Überwachungsstaat sei damit – so Lachmayer (2006, S. 30) – gemacht. Die Tendenz zu fortschreitenden Eingriffen staatlicherseits dürfte anhalten. Die Rechtfertigung für zunehmende Datenerfassung und Überwachung ist die Gewährleistung von Sicherheit. Sicherheit im Sinne eines Ausschlusses jeglicher Gefahren und Bedrohungen lässt sich aber nicht herstellen – insofern sind weitere eingreifende staatliche Maßnahmen zur Erhöhung derselben zu erwarten. Das lässt sich auch durch einen Blick auf die Motive für die jüngsten Eingriffsermächtigungen bestätigen. Die Terroranschläge von Madrid und London waren Anlass dafür, die Befugnisse zur Verwendung von Bilddaten deutlich auszuweiten (BGBl. I 2004/151 und BGBl. I 2005/158; dazu Kunnert 2006a, S. 42 ff). Auch die Richtlinie zur Vorratsspeicherung von Verkehrsdaten (RL 2006/46/EG, ABl vom 13.4.2006, L 105/54) sowie das nunmehr zwischen den Vereinigten Staaten und der Europäischen Union geschlossene Abkommen zur Übermittlung von Fluggastdaten kann als Spätfolge der Terroranschläge vom 11. September 2001 angesehen werden.
Recht auf Privatsphäre
123
Diese Entwicklung zeigt m.E. eine gefährliche Tendenz an. Ereignisse wie die zuvor geschilderten werden unversehens zum Anlass genommen, um weiter gehende Maßnahmen unter dem Titel der Erhöhung der Sicherheit zu ergreifen. Der Preis, der dafür gezahlt werden muss, nämlich ein weiteres Vordringen in die Privatsphäre des Einzelnen, wird in diesem ‚Zustand der allgemeinen Verunsicherung’ entweder erst gar nicht erwähnt, oder er wird nicht wahrgenommen. Und es scheint mir auch so zu sein, dass Fragen der Eignung weiter gehender Ermittlungsmaßnahmen oder die Frage nach der Verhältnismäßigkeit zwischen der Intensität des Eingriffs und dem erzielbaren Sicherheitsgewinn gar nicht mehr gestellt werden. So wurde beispielsweise in Bezug auf Videoüberwachungen mancherorts darauf hingewiesen, dass ein Nachweis für die Eignung zur Verbrechensprävention bis heute noch nicht erbracht sei (so beispielsweise König 2001, S. 124; Kunnert 2006a, S. 42 ff). Unter dem Titel Sicherheit kommt es somit zu einer Aus- und m.E. Überdehnung der verfassungs- und einfachgesetzlichen Grenzen, das Eingriffsziel nationale Sicherheit und öffentliche Ruhe und Ordnung (Art. 8 Abs. 2 EMRK) wird per se als so hochrangig bewertet, dass jegliche Eingriffsintensität rechtfertigbar erscheint. Die Mahnungen der Datenschützer verhallen zumeist ungehört. Die Privatsphäre ist in zunehmendem Ausmaß auch von privater Seite bedroht. Die Ursachen dafür dürften vielfältiger Natur sein. Zum einen ist das Problembewusstsein m.E. sehr gering. Es dürfte weder das Bedrohungspotential bekannt sein, noch die rechtlichen Grenzen und die Möglichkeiten zu ihrer Effektuierung. Davon abgesehen dürfte sich ein Verstoß gegen die gesetzlichen Bestimmungen durchaus ‚lohnen’. Zu bedenken ist nämlich, dass die Durchsetzung der datenschutzrechtlichen Ansprüche zum Teil mit hohem Aufwand und Risiko verbunden ist. So ist beispielsweise der Anspruch auf Richtigstellung und Löschung im privaten Bereich vor den Gerichten durchzusetzen. Das aber wiederum bedeutet das Tragen des Kostenrisikos im Falle einer negativen Entscheidung. Überdies mag die mitunter lange Verfahrensdauer abschreckend wirken. Datenverarbeiter können demnach durchaus damit kalkulieren, dass der Rechtsbruch ungeahndet bleibt. Demgegenüber sind bewusst gesammelte Daten über Kundenpräferenzen mittlerweile ein wertvolles, teuer gehandeltes Gut, so dass der Nutzen aus der Gesetzesmissachtung den Nachteil der Verwaltungsstrafe deutlich übersteigt. Es scheint mir auch so zu sein, dass das technisch Machbare die Grenzen des Rechts mehr und mehr zu Lasten der Privatsphäre verschiebt. So hat etwa Lachmayer (2006, S. 30 ff) wohl zutreffend darauf hingewiesen, dass im Zusammenhang mit automationsunterstützten Datenerfassungssystemen die Frage, ob man dies als gelindestes Mittel
124
Hattenberger
bezeichnen kann, bereits entschieden sei. Die Frage nach alternativen konventionellen Verarbeitungsmethoden wird erst gar nicht mehr gestellt. Auch sind Videoüberwachungsmaßnahmen heute schon derart zur Selbstverständlichkeit geworden, dass ihre Rechtfertigung nicht mehr zur Diskussion gestellt wird. Nicht zuletzt ist darauf hinzuweisen, dass technische Systeme so gestaltet werden, dass sie kommerziellen Rentabilitätsanforderungen genügen. Der Schutz der Privatsphäre dürfte dabei keine Rolle spielen. Und es sind wohl die Marktkräfte, die für diese Ausrichtung sorgen. Abgesehen davon ist das Sammeln von personenbezogenen Daten in höchstem Maße rentabel. Nicht-speichernde Alternativtechnologien sind kaum vorhanden und wenn, dann muss – wie im Falle der Wertkartenhandys – für die Anonymität ein vergleichsweise deutlich höherer Preis bezahlt werden (Tichy und Peissl 2001, S. 42 f).
VI. Schlussbemerkung Der technische Wandel hat die Möglichkeiten der Verletzung der Privatsphäre dramatisch erhöht. Gleichzeitig sind nationaler und europäischer Gesetzgeber unter dem Titel „Kampf gegen die organisierte Kriminalität“ mehr denn je bereit, weitreichende Eingriffe in diese Sphäre zuzulassen und die durch Verfassungsrecht gesetzten Grenzen zu überschreiten (Kunnert 2006a, S. 42 ff). Ereignisse wie die Terroranschläge von New York, Madrid und London sind selbstredend ernst zu nehmen. Sie sind aber auch geeignet, zwei Tugenden der Rechtsetzungspraxis zuzusetzen, dem besonnenen und dem maßvollen Vorgehen. Aber auch die für jedermann geltenden Bestimmungen des DSG werden nur allzu häufig verletzt und Überschreitungen nur allzu selten durchgesetzt. Die Gründe dafür sind vielfältiger Natur. Ein ganz entscheidender Punkt dürfte sein, dass das Problembewusstsein gering ist. Eine einfache Lösung für den Schutz der Privatsphäre in der Informationsgesellschaft gibt es freilich nicht. Zwei Strategien sollten aber m.E. unbedingt verfolgt werden: zum einen eine breite Information über die mit digitalen Aktivitäten verbundene Preisgabe der Privatheit und das Aufzeigen von „datensparsamen“ Verhaltensalternativen; zum anderen die Forcierung von Technologien, die dem Schutz der Privatsphäre einen hohen Stellenwert einräumen.
Recht auf Privatsphäre
125
Literatur Berka, Walter (1999): Die Grundrechte. Wien und New York: Springer. Brodil, Wolfgang (2004a): „Die Kontrolle der Nutzung neuer Medien im Arbeitsverhältnis“. Zeitschrift für Arbeits- und Sozialrecht 39[2004]: 156-166. Brodil, Wolfgang (2004b): „Die Registrierung von Vermittlungsdaten im Arbeitsverhältnis – Zugleich eine Besprechung der E OGH 8 Ob A 288/01p.“ Zeitschrift für Arbeits- und Sozialrecht 39[2004]: 17-23. Dammann, Ulrich und Spiros Simitis (1997): EG-Datenschutzrichtlinie – Kommentar. Baden-Baden: Nomos-Verlagsgesellschaft. Davy Benjamin und Ulrike Davy (1985): „Aspekte staatlicher Informationssammlung und Art 8 MRK“. Juristische Blätter 107[1985]: 656 ff. Dohr, Walter, Hans-Jürgen Pollirer und Ernst M. Weiss (2002): Datenschutzrecht. 2. Auflage. Wien: Manz. Drobesch Heinz und Walter Grosinger (2000): Das neue österreichische Datenschutzgesetz. Wien: Juridica-Verlag. Duschanek, Alfred und Claudia Rosenmayr-Klemenz (2000): Datenschutzgesetz 2000. Wien: Wirtschaftskammer Österreich. Duschanek, Alfred (2005): „Kommentar zu § 1 DSG“. In: Karl Korinek und Michael Holoubek, Hg.: Bundesverfassungsrecht. 7. Lieferung. Wien und New York: Springer. Europarat (1950 ff): Konvention zum Schutze der Menschenrechte und Grundfreiheiten. Rom. Volltext, Erläuterungen und Liste der Unterzeichnerstaaten: http://conventions.coe.int/Treaty/Commun/QueVoulezVous.asp?NT=00 5&CM=1&DF=7/17/2007&CL=GER (Online-Ressource, geprüft 17. Juli 2007). Grillberger, Konrad (1983): „Rechtliche Grenzen der Ermittlung von Arbeitnehmerdaten im Arbeitsrecht und Datenschutzgesetz“. In: Oswin Martinek, Hg.: Festschrift Hans Floretta. Wien: Manz, S. 373-388. Gruber, Bernhard W. (2001): „Überwachung der dienstlichen Verwendung von Internet und E-Mail“. In: Österreichische Juristenkommission (2001), S. 167-176. Hattenberger, Doris (2005): „Die Bedeutung des Datenschutzrechts für das Arbeitsverhältnis“. In: Reinhard Resch, Hg.: Die Kontrolle des Arbeitnehmers vor dem Hintergrund moderner Medien. Wien: ÖGB-Verlag, S. 13-68. Jahnel, Dietmar (2000): „Das Datenschutzgesetz 2000, wichtige Neuerungen“. Wirtschaftsrechtliche Blätter 14[2000]: 49 ff. Jahnel, Dietmar (2004): Datenschutzrecht in der Praxis. Graz und Wien: DbvVerlag für die Technische Universität Graz. Knyrim, Rainer (2003): Datenschutzrecht. Wien: Manz. König, Robert (2001): Grundrechte und Videoüberwachung. In: Österreichische Juristenkommission (2001), S. 119-128. Kotschy, Waltraud und Sebastian Reimer (2004): „Die Überwachung der Internetkommunikation am Arbeitsplatz – Ein Diskussionsbeitrag aus datenschutzrechtlicher Sicht“. Zeitschrift für Arbeits- und Sozialrecht 39[2004]: 167-172.
126
Hattenberger
Krempl, Stefan (2006): „Gläsern im Netz – EU-Parlament segnet massive Überwachung der Telekommunikation ab“. c´t – Magazin für Computer und Technik 24[2006]/1: 18-20. Kunnert, Gerhard (2006a): „Big Brother in U-Bahn, Bus und Bim – Videoaufzeichnung in öffentlichen Verkehrsmitteln aus datenschutzrechtlicher Sicht“. juridikum 18[2006]: 42 ff. Kunnert, Gerhard (2006b): „Die abschnittsbezogene Geschwindigkeitsüberwachung (Section Control) aus datenschutzrechtlicher Sicht“. Zeitschrift für Verkehrsrecht 51[2006]/17: 78 ff. Lachmayer, Konrad (2006): „Demokratischer Überwachungsstaat im rechtsstaatlichen Spannungsfeld“. juridikum 18[2006]: 30 ff. Löschnigg, Günther (2005): „Biometrische Daten und Arbeitsverhältnis“. Arbeits- und SozialrechtsKartei 9[2005]: 37 ff. Marhold, Franz (1986): Datenschutz und Arbeitsrecht. Wien: Signum-Verlag. Öhlinger, Theo (2005): Verfassungsrecht. 6. Auflage. Wien: WUV-Verlag. ORF (2006): „Passagierdaten: Voller Zugriff für USA“. ORF futureZone, 25. Oktober 2006, http://futurezone.orf.at/it/stories/141716/ (Online-Ressource, geprüft 17. Juli 2007). Österreichische Juristenkommission (2001), Hg.: Grundrechte in der Informationsgesellschaft. Wien: Neuer Wissenschaftlicher Verlag. Rill, Heinz Peter (1981): „Das Grundrecht auf Datenschutz“. In: Institut für angewandte Sozial- und Wirtschaftsforschung, Hg.: Datenschutz in der Wirtschaft. Wien: Signum-Verlag, S. 18 ff. Sacherer, Remo (2005): „Datenschutzrechtliche Aspekte der Internetnutzung von Arbeitnehmern“. Recht der Wirtschaft 23[2005]: 173-178. Simitis, Spiros (2005): „Datenschutz – eine notwendige Utopie“. In: Rainer M. Kiesow, Regina Ogorek und Spiros Simitis, Hg.: Summa. Dieter Simon zum 70. Geburtstag. Frankfurt am Main: Klostermann, S. 511 ff. Steiner, Gerald und Markus Andréewitch (2006): „Videoüberwachung aus datenschutzrechtlicher Sicht“. Medien und Recht 24[2006]: 80-83. Streitberger, Thomas (2003): Privacy am Rechnerarbeitsplatz. http://www.itLaw.at (Online-Quelle, geprüft am 17. Juli 2007). Tichy, Gunther und Walter Peissl (2001): „Beeinträchtigung der Privatsphäre in der Informationsgesellschaft“. In: Österreichische Juristenkommission (2001), S. 24-48. Wessely, Wolfgang (1999): „Das Fernmeldegeheimnis – ein unbekanntes Grundrecht?“. Österreichische Juristen-Zeitung 54[1999]: 491 ff. Westphal, Dietrich (2006): „Die Richtlinie zur Vorratsspeicherung von Verkehrsdaten – Neues aus Brüssel zum Verhältnis von Sicherheit und Datenschutz in der Informationsgesellschaft“. juridikum 18[2006]: 34 ff. Wiederin, Ewald (2001): „Kommentar zu Art 10a StGG“. In: Karl Korinek und Michael Holoubek, Hg.: Bundesverfassungsrecht. 4. Lieferung, Wien und New York: Springer. Wiederin, Ewald (2002): „Kommentar zu Art 8 EMRK“. In: Karl Korinek und Michael Holoubek, Hg.: Bundesverfassungsrecht. 5. Lieferung. Wien und New York: Springer.
Recht auf Privatsphäre
127
Anhang: Abkürzungsverzeichnis ABl. Abs. Art. BGBl. BlgNR BWG DSG DSK Ecolex EG EGMR EMRK GewO GP i.d.F. L LGZ LSK MietSlg OGH ÖJZ RL RV Rz. SPG StGG StPO TKG VfGH VfSlg VwGH Z ZfVB
Amtsblatt der Europäischen Gemeinschaften Absatz Artikel Bundesgesetzblatt Beilagen zu den Stenographischen Protokollen des Nationalrates Bankwesengesetz Datenschutzgesetz Datenschutzkommission Juristische Fachzeitschrift Europäische Gemeinschaft Europäischer Gerichtshof für Menschenrechte Europäische Menschenrechtskonvention Gewerbeordnung Gesetzgebungsperiode in der Fassung Legislation (Teil des Amtsblattes der Europäischen Gemeinschaft) Landesgericht für Zivilrechtssachen Leitsatzkartei Sammlung mietrechtlicher Entscheidungen Oberster Gerichtshof Österreichische Juristenzeitung Richtlinie Regierungsvorlage Randziffer Sicherheitspolizeigesetz Staatsgrundgesetz über die allgemeinen Rechte der Staatsbürger 1867 Strafprozessordnung Telekommunikationsgesetz Verfassungsgerichtshof Sammlung der Entscheidungen des Verfassungsgerichtshofes Verwaltungsgerichtshof Ziffer Beilage zur Zeitschrift für Verwaltung (Sammlung von Entscheidungen des Verfassungs- und Verwaltungsgerichtshofes)
Szenarien, die die Welt verändern Patrick Horster und Peter Schartner*
Überblick Informationen, informationsgestützte Prozesse, informationsgestützte Technologien und elektronische Datenverarbeitung sind aus unserer heutigen Gesellschaft nicht mehr wegzudenken. Sie vereinfachen oder beschleunigen viele Abläufe; mehr noch, sie ermöglichen gewisse Abläufe, die bis vor kurzem noch unmöglich waren. Im Anschluss an eine Würdigung der Vorteile einiger dieser Technologien, die sich unabstreitbar positiv auf unser berufliches, aber auch auf unser alltägliches Leben auswirken, versuchen wir in unserem Beitrag eine kritische Betrachtung der Nutzungsszenarien bezüglich des Potentials, die Privatsphäre ihrer (unfreiwilligen) Benutzer zu gefährden. Da man mit Daten und den daraus gewonnenen Informationen gute Geschäfte machen kann, besteht der Anreiz, Daten bzw. Informationen zu generieren, die andere (nicht) haben oder nicht haben sollten. Methoden zur Beschaffung sensibler Informationen werden aufgezeigt und diskutiert. Zudem zeigt der Beitrag exemplarisch Technologien auf, die im Kontext der Informationsgewinnung relevant sind. Ziel ist es, den Missbrauch moderner Technologien – so weit möglich – zu verhindern. Dabei gilt es, die Interessen aller Beteiligten zu berücksichtigen und eine praktikable Lösung der Probleme im Kontext einer mehrseitigen Sicherheit zu gewährleisten.
Einleitung Wird moderne Informationstechnologie im Alltagsleben eingesetzt, so ist das in der Regel mit Vorteilen für den Benutzer verbunden. Bei genauerer Betrachtung ergeben sich aber allzu oft auch Nachteile, die der Mehrheit der Benutzer unbekannt sind. Einige dieser Vor- und Nachteile werden wir zunächst beispielhaft aufzählen. Von besonderer Bedeutung sind dabei Aspekte, die auf eine Bedrohung der Privatsphäre des Benutzers hinauslaufen. *
Forschungsgruppe Systemsicherheit, Institut für angewandte Informatik, Universität Klagenfurt.
130
Horster, Schartner
Schöne neue Welt! Elektronische Unterstützung ist aus den meisten Bereichen unseres täglichen Lebens nicht mehr wegzudenken. In regelmäßigen Abständen kommen neue Technologien und neue Services in Form von Produkten auf den Markt, die unser alltägliches Leben vereinfachen sollen. Vor allem elektronische Informations-, Buchungs- und Zahlungssysteme haben unser Leben nachdrücklich verändert und in vielen Bereichen angenehmer gemacht. Die Nutzung der folgenden Technologien ist für viele von uns – selbst für ältere Personen und im eingeschränkten Maße für Kinder – ein alltäglicher Vorgang: – – – –
Recherche, Bestellung (Buchung) und Bezahlung im Internet; Bargeldloses Zahlen im In- und Ausland; Online-Buchung von Flug-, Zug- und Konzert-Tickets; Nutzung von Dienstleistungen im Rahmen von Kundenbindungsprogrammen.
Ebenso sind kleine mobile Endgeräte (wie Mobiltelefone, Smartphones und Personal Digital Assistants – PDAs) und die durch sie zur Verfügung stehenden drahtlosen Kommunikationsdienste nicht mehr aus unserem Leben wegzudenken. Mobiltelefone (nach GSM- bzw. UMTS-Standard) haben bereits eine massenhafte Verbreitung erfahren, öffentlich nutzbares WLAN unterstützt die mobile Kommunikation und findet eine breite Akzeptanz. Diese Technologien dienen aber schon lange nicht mehr nur der Kommunikation. Mittlerweile sind die genannten Geräte multifunktional und unterstützen meist mehrere der folgenden Funktionalitäten zugleich: – – – – –
Telefonie (Sprachverbindung wird durch Videotelefonie ergänzt); Internet (Surfen, elektronisches Bezahlen, Versenden von E-Mails); Digitalkamera (Bilder speichern, ansehen und versenden); Voice-Recorder und MP3-Player; Location-Based Services (Navigation, Friend-Finder, Information).
Einen Schritt weiter gehen spezielle Lokalisierungsdienste, die entweder auf GSM/UMTS oder auf dem Navigationsstandard GPS beruhen. Nützliche Dienste sind hier unter anderem die Klärung bzw. Lösung der folgenden Fragen und Probleme: – –
Wo bin ich? Was gibt es in meiner Nähe (für mich Interessantes)?
Szenarien, die die Welt verändern – –
131
Zeige mir den Weg zur nächsten Tankstelle. Finden Sie mich und helfen Sie mir!
Zu den neuesten bzw. erst kürzlich für den Masseneinsatz entdeckten Technologien unserer Informationsgesellschaft zählt RFID (Radio-Frequency Identification). RFID eignet sich hervorragend zur Herstellung so genannter intelligenter Produkte sowie intelligenter Etiketten – so genannter Tags – auf weniger intelligenten Produkten. Diese Produkte, bzw. die auf ihnen aufgeklebten oder in sie integrierten RFID-Tags, ermöglichen Anwendungen in einer bisher nicht erreichbaren Vielfalt und Verlässlichkeit, wie etwa: – – – – –
Überwachung und Dokumentation des Produktlebenszyklus; Intelligente Kühlschränke, die Rezepte vorschlagen und Lebensmittel nachbestellen; Fälschungssichere Produkte (zum Beispiel Pharmazeutika) oder Dokumente (zum Beispiel ePass oder zukünftig eMoney); Intelligente medizinische Produkte wie Implantate oder Sensoren (zum Beispiel für die Kontrolle des Blutzuckerspiegels); Wiederfinden von Objekten (Gepäckwagen, Bücher, Behälter in der Logistik).
Nicht zuletzt sollten diverse Überwachungstechnologien genannt werden. Spätestens seit dem 11. September 2001 (9/11) ist das Thema Überwachung in aller Munde, und unter dem Deckmantel der „Terrorismusbekämpfung“ lässt sich so gut wie jede hierzu nutzbare Technologie oder Vorgehensweise rechtfertigen. Dieser meist sehr kritisch betrachteten Entwicklung können aber ohne weiteres auch positive Eigenschaften abgewonnen werden: – –
Verkehrsmanagement (Stau- und Unfallwarnungen auf Autobahnen); Kriminalitätsprävention (öffentliche Gebäude und Plätze, U-Bahnen, Busse, Großveranstaltungen).
Obwohl die bisher aufgezählten Anwendungsszenarien durchaus positiv sind, ist der Einsatz dieser Technologien und der Umgang mit den durch sie anfallenden Daten kritisch zu reflektieren. Einerseits haben diese Technologien ein großes Potential bezüglich des Missbrauchs der anfallenden Daten, und andererseits leben wir nicht in einer perfekten Welt, in der sich alle an die Spielregeln halten – sofern es überhaupt welche gibt. Hinzu kommt, dass die (oft unfreiwilligen) Benutzer entweder nicht
132
Horster, Schartner
oder nur schlecht über die Verwendung dieser Technologien (und der anfallenden Daten) informiert sind. Schöne neue Welt ? Alle oben angeführten Technologien (aber nicht nur diese) und die durch sie erzeugten, verarbeiteten und versendeten Daten bieten ein großes Potential, die Privatsphäre ihrer oft unfreiwilligen Benutzer zu gefährden. Zudem ist es möglich, durch Zusammenführen von ‚harmlosen’ Daten aus unterschiedlichen Bereichen völlig neue (und möglicherweise kompromittierende) Erkenntnisse zu gewinnen. Bevor wir jedoch einige Technologien und ihre Informationen genauer betrachten wir uns ein paar Szenen aus dem Leben des Herrn Max Mustermann: –
–
–
–
–
Herr Mustermann hat beschlossen, vor Beginn seines Skiurlaubs eine Diät zu machen und sich gesünder zu ernähren. Aus diesem Grund kauft er vermehrt kalorienarme Produkte aus biologischem Anbau. Seltsamer Weise erhält er seit Beginn der Diät zunehmend Werbematerial zu den Themenbereichen „Gesundheit“ und „Nahrungsergänzungsmittel“. In einer ‚freien Minute’ im Büro bestellt sich Herr Mustermann bei einem Online-Sportartikelversand ein Paar Skier für seinen Skiurlaub und bezahlt sie mit Kreditkarte. „Wieder ein paar Bonusmeilen“, denkt sich Max. Weil er noch ein Buch für den Urlaub benötigt, leistet er sich etwas Besonderes: die gebundene Sonderausgabe von George Orwells 1984. Er stellt erfreut fest, dass ihm eine Liste mit weiteren Werken von George Orwell und einigen Klassikern aus dem Science-Fiction-Genre vorgeschlagen wird. Am Ende der Liste befinden sich allerdings auch Titel, bei denen er sich zu wundern beginnt, denn hier liest er „Skigymnastik“ und „Die schönsten Skigebiete der Welt“. „Passt zwar nicht zu George Orwell, aber zumindest zum Skiurlaub“, freut sich Max. Während er sich noch über die Liste wundert, ruft ihn sein Chef an, um sich nach dem Bericht zu erkundigen, den er noch vor seinem Urlaub abschließen sollte. „Seltsam, dass der gerade jetzt danach fragt. Da surft man ein paar Minuten im Internet und genau dann ruft er an.“ Herr Mustermann stellt den Bericht fertig, schickt ihn ab und beschließt, mit seinen Kollegen ein Bier zu trinken. Vor dem Lokal fällt ihm ein, dass er seine Frau anrufen sollte. Er bestellt sich trotzdem
Szenarien, die die Welt verändern
–
–
–
–
–
133
ein kleines Bier und ruft sie an, um ihr zu sagen, dass er „länger arbeiten“ muss. An ihrem Tonfall erkennt er, dass sie ihm wohl nicht ganz glaubt. Er trinkt sein Bier aus und macht sich schleunigst auf den Nachhauseweg. In der nächsten Woche erhält Herr Mustermann per Post einen Strafzettel zugeschickt, da er zwischen B- und C-Hausen die erlaubte Höchstgeschwindigkeit überschritten hat. Er weiß zwar von der Section Control zwischen A- und B-Hausen, und er fährt dort auch immer sehr diszipliniert. Herr Mustermann weiß auch, dass es in Österreich 400 LKW-Mautportale gibt, aber nach B-Hausen sind ihm keine weiteren Kontrollen mehr bekannt, zumindest keine für PKWs. Egal, morgen geht’s in den Skiurlaub. Auf dem Weg ins Skigebiet übersieht Herr Mustermann ein Schlagloch. Einer der Reifen platzt, aber Herr Mustermann kann seinen PKW gerade noch kontrolliert zum Stillstand bringen. Plötzlich spricht sein Auto zu ihm: „Guten Tag, Sie hatten einen Unfall? Wurden Sie verletzt? Sollen wir die Rettung oder nur die Pannenhilfe zu Ihnen schicken?“. Verdutzt lehnt Max die Hilfe ab, montiert das Notrad und macht sich auf die Suche nach einer Werkstatt. Max betritt die Werkstatt und wird vom Mechaniker, den er noch nie zuvor gesehen hat, mit „Grüß Gott, Herr Mustermann“ begrüßt. Während er auf die Montage seines neuen Reifens wartet, liest er in 1984. Endlich im Urlaubsort angekommen, stellt Herr Mustermann nach dem Kauf der Wochenkarte für den Skilift – die er auf seine neue High-Tech-Uhr aufgebucht hat – fest, dass er seine Skischuhe zu Hause vergessen hat. Er betritt den Skiverleih und erkundigt sich nach Leih-Skischuhen. „Ja gerne, ein Paar in Größe 45 ½ ist für diese Woche noch frei.“ Angesichts der perfekt geschätzten Schuhgröße ist Herr Mustermann mehr als erstaunt. Nach einer Woche Skiurlaub wieder gesund zu Hause angekommen, findet Herr Mustermann seine Kündigung im Postfach und hat nun viel Zeit sich zu fragen, woher die Daten über ihn, die ihm in den letzten Wochen aufgefallen sind, kommen und welche weiteren Daten über ihn vorhanden sind. Vor allem aber interessiert ihn, wie und wo sie zu Stande gekommen sind.
Solche Szenarien sind nichts Ungewöhnliches, denn nicht nur über Herrn Mustermann sind mehr Daten bekannt, als er weiß. Über jeden von uns liegt eine Vielzahl von Datensätzen vor; unabhängig davon, ob man Computer und das Internet nutzt oder nicht.
134
Horster, Schartner
Beginnende Sensibilisierung Dass die Gesellschaft immer sensibler auf diese Art des Umgangs mit persönlichen Daten reagiert, zeigt zum Beispiel das kürzlich erschienene Buch mit dem Titel The 101 Most Influential People Who Never Lived (Lazar, Karlan und Salter 2006). Hier wird der „Big Brother“ aus George Orwells 1984 (Orwell 1949) immerhin auf Platz zwei gelistet (Salzburger Nachrichten 2006). Aber auch reale Personen (aus Österreich) stehen dem fiktiven Big Brother aus dem Jahre 1949 kaum nach. Die Preisträger des Big Brother Awards Austria 2006 sind ein Beleg dafür (q/depesche 2006): –
–
–
Kategorie Business und Finanzen: Günther Gall (Aufsichtsrat der SWIFT – Society for Worldwide Interbank Financial Telecommunication) verheimlichte den Transfer europäischer und österreichischer Bankdaten an US-Behörden und Geheimdienste (vgl. Ziegler 2006). Kategorie Politik: Liese Prokop, die inzwischen verstorbene österreichische Innenministerin, die für die Installation polizeilicher Videoüberwachungsanlagen an mindestens elf Standorten in ganz Österreich und der Beschaffung von automatischen Kennzeichenlesegeräten für Autobahnen verantwortlich ist (wodurch zumindest theoretisch eine Rasterfahndung ermöglicht wird). Kategorie Behörden und Verwaltung: Johann Janisch, EDV-Leiter der UNESCO Schule HAK Grazbachgasse und zuständig für die Einführung der edu.card, durch welche nicht nur theoretisch eine Verknüpfbarkeit von Zutrittskontroll-, Zahlungs-, Kopier-, Loginund Klassenbuchdaten möglich wird.
Szenarien Die im Folgenden beschriebenen Szenarien der modernen Informationsgesellschaft sollen aufzeigen, dass in vielen Bereichen mehr Sensibilisierung für das Anfallen von Daten und den Umgang mit diesen notwendig ist. Diskutiert werden die Verknüpfung von Datenbeständen aus unterschiedlichen Quellen, die Datenerhebung mittels des Einsatzes neuer Technologien und die missbräuchliche Verwendung von neuen Services. LocationLocation-Based Services und Lokalisierungsdienste Wir alle schätzen die Vorteile einer GPS-basierten Autofahrt. Wir geben das Ziel ein, und die sprachgeführte Routenplanung zeigt uns den Weg. Zudem werden wir auf Staus aufmerksam gemacht, und es werden alter-
Szenarien, die die Welt verändern
135
native Routen aufgezeigt. Die verwendete Technologie wird auch genutzt, um im deutschen Mautsystem die Gebühr für mautpflichtige Strecken zu ermitteln. Verwendet man einen zusätzlichen Kommunikationskanal, etwa Mobilfunk, dann eröffnen sich zahlreiche Möglichkeiten für Dienstleistungen. Hinweise auf die nächste preiswerte Tankstelle oder das nächste Rasthaus (abseits der Autobahn) werden dadurch ermöglicht. Die GPS-Technologie – in Verbindung mit dem Mobilfunk – kann auch dazu beitragen, dass gestohlene Personenkraftwagen oder Lastkraftwagen leicht geortet werden können. All diese Eigenschaften können positiv interpretiert werden. Unter anderem beim deutschen Mautsystem werden zusätzlich Fotos von den Kennzeichen aller Fahrzeuge aufgenommen, um Mautpreller festzustellen. Mit den anfallenden Daten kann leicht eine Datenbank gefüllt werden, die dann Auskunft über den Standort aller erfassten Fahrzeuge zu jedem Zeitpunkt geben kann. Betroffen sind natürlich auch Personen, sofern sie auf den Fotos erkennbar sind. Section Control ist ein weiteres Hilfsmittel, das im Kontext von Verkehrsüberwachung und Verkehrssteuerung zunehmend an Bedeutung gewinnt. Nachdem Mobiltelefone ein zellbasiertes Kommunikationssystem benutzen, ist es nahe liegend, neben Telefonie, Videotelefonie und SMS auch so genannte Location-Based Services (LBS) anzubieten. Diese ortsbezogenen Informationsdienste können im Falle von Anfragen wie „Wo befinde ich mich?“, „Wie komme ich nach XY?“, „Wo befindet sich die nächste Tankstelle?“ oder „Welche Geschäfte in meiner Nähe bieten derzeit welche Sonderangebote?“ sehr nützlich sein. Zudem kann auch festgestellt werden, dass sich spielende Kinder zu weit vom Spielort entfernen bzw. Demenzkranke oder andere Hilfsbedürftige sich auf gefährliche Wanderschaft begeben. Diese Technologie kann auch in Form elektronischer Fußfesseln dazu führen, dass festgestellt wird, ob eine verordnete Auflage (bezüglich des Aufenthaltsortes) eingehalten wird. Neben diesen aktiven Abfragen von Informationen kann ein Handy aber auch ohne die explizite Nutzung von LBS jederzeit von berechtigten Außenstehenden (zum Beispiel Rotes Kreuz oder Polizei) geortet werden. Dies ist wiederum etwa in Notfällen, bei Verlust bzw. Diebstahl oder bei krimineller Nutzung des Mobiltelefons nützlich. Passagiere auf dem Flughafen Debrecen (Ungarn) haben es leicht, den Weg zu finden, da sie jederzeit über ihr RFID-Ticket lokalisiert werden. Durch einen Lotsendienst wird ihnen der Weg zum richtigen Gate angezeigt. Aber nicht nur Personen gilt es wiederzufinden. So kann zum Beispiel das Wiederauffinden von Büchern in einer Bibliothek oder das Wiederauffinden von Gepäckwagen auf einem Großflughafen wie Frankfurt am Main zur Revision durch den TÜV (Technischer Überwachungsver-
136
Horster, Schartner
ein) unter Verwendung von RFID-Tags unterstützt werden. Gestohlene Laptops und Kraftfahrzeuge möchte man ebenso wieder finden. Hier kommen Geräte in der Größe einer Packung Zigaretten zum Einsatz, die eine Ortung des jeweiligen Geräts ermöglichen. Ist neben Peilsender und GPS auch noch GSM mit an Bord, so können Befehle wie „Motor aus“ oder „Daten Löschen“ auch aus der Ferne gestartet werden. Überwachung (Monitoring) Monitoring ist ein relativ neues Schlagwort, das längst zur Realität geworden ist. Die zahlreichen Kameras in öffentlichen Bereichen sind ein überzeugender Beleg dafür. Zur Aufklärung von Straftaten und zur Prävention scheint eine Beobachtung der Gesellschaft mittels Videoüberwachung – zumindest in gewissen Bereichen – unvermeidbar. Dabei gehören Kameras auf öffentlichen Plätzen, Flughäfen, Bahnhöfen, bei Sportveranstaltungen, in öffentlichen Verkehrsmitteln (etwa Bus und Bahn) und bei Demonstrationen bereits zum normalen Erscheinungsbild. Die Überwachung kann hier einerseits manuell, das heißt durch Sicherheitspersonal, oder automatisch, zum Beispiel durch Gesichtsdetektion und Abgleich mit diversen Datenbanken erfolgen. Videoüberwachung kann auch zur Erhöhung der Verkehrssicherheit eingesetzt werden. Denken wir nur an Section Control und Geisterfahrer, Unfall- und Stauwarnung. Das BigBrother-Potential dieser Technologie besteht offensichtlich; mit etwas Phantasie kann man beliebige Überwachungsszenarien entwickeln. Handys sind zweifelsfrei (nicht nur unter Jugendlichen und Geschäftsleuten) zu einem wichtigen Hilfsmittel der mobilen Gesellschaft geworden. Die entsprechenden Endgeräte können aber mittlerweile viel mehr als nur telefonieren; manchmal ist man geneigt zu sagen, dass man mit solchen Endgeräten auch telefonieren kann. Ein modernes Handy sollte zumindest im Internet surfen, E-Mails versenden, digital fotografieren und den aktuellen Ort bestimmen können, an dem es sich gerade befindet. Dass ein modernes Handy darüber hinaus umfangreiche Datenmengen speichern kann, ist dabei selbstverständlich. Mit zusätzlicher Software können Handys zudem problemlos mit weiteren Anwendungen versehen werden. So können laut Abhörexperten (neuere) Handys leicht mit einem Feature versehen werden, das unbemerkt das Mikrofon und eine Verbindung zu einer abhörenden Stelle aktiviert. Da viele Handys nicht (richtig) ausgeschaltet werden können, sondern nur in einen Stand-by-Modus gehen, kann diese Eigenschaft auch bei ausgeschaltetem Handy aktiviert werden. Lediglich das Entfernen des Akkus führt dann zu einer Sendepause. Bekannt wurde dieses als „Roving Bug“ bezeichnete Verfahren durch ein Gerichtsverfahren in den USA. Das FBI (Federal Bu-
Szenarien, die die Welt verändern
137
reau of Investigation) hatte mit der skizzierten Methode rechtskonform und erfolgreich gegen Mitglieder einer Mafiaorganisation ermittelt. Es ist also nicht verwunderlich, dass moderne Kommunikationstechnik viele Hintertüren haben kann, die natürlich bei Bedarf auch genutzt werden. In einem Besprechungsraum sollten keine Telefone stehen, denn was für Handys gilt, das gilt erst recht für ISDN-Telefone, wobei hier ein externes Zuhören (etwa zum Zweck der Industriespionage) viel leichter zu realisieren ist. Digitale Fotografie erfreut sich zunehmender Beliebtheit und ist dabei, die alte analoge Fotografie in weiten Teilen zu ersetzen. Haben wir vor einigen Jahren im Urlaub noch vielleicht fünf Filme (à 36 Aufnahmen) belichtet, so bringen wir es heute leicht auf viele hundert digitale Aufnahmen. Digitales Fotografieren ist aber auch mit Handys oder PDAs möglich, wodurch sich viele neue Anwendungsbereiche erschließen. Insbesondere das Fotografieren mit Handys erfreut sich schon wegen der leichten Versendbarkeit der angefertigten Bilder großer Beliebtheit. Wenn wir aber unser Abbild auf einer Webseite (etwa bei der deutschen BildZeitung) wieder finden, dann könnte das auch unsere Persönlichkeitsrechte verletzen. Das gilt erst recht für die dann am nächsten Tag erscheinende Druckversion der Bild-Zeitung. Im nächsten Schritt werden dann Kurzfilme einsehbar sein, die durch die Videotelefonie – welche zumindest für Personen mit einer Hör- bzw. Sprecheinschränkung von unschätzbarem Wert ist – möglich werden. Monitoring, also Beobachtung in allen Lebenslagen, wäre hierdurch (zumindest theoretisch) möglich. Reisen wir mit einem Laptop (oder einem entsprechenden Gerät), mit dem wir weltweit E-Mails abrufen und versenden können, so können wir davon ausgehen, dass wir nicht verloren gehen, denn die amerikanische National Security Agency (NSA) und befreundete Dienste wissen bei Bedarf jederzeit, wo wir uns befinden. Bei der Verbrechensbekämpfung kann dies zu schnellen Erfolgen führen, etwa im Falle einer Zielfahndung. Elektronische Pässe und Kreditkarten werden dann natürlich ihren Teil zur Erstellung eines Bewegungsprofils beitragen. Zur Ermittlung von Straftaten dürfen Strafverfolgungsbehörden Telefone abhören und die Teilnehmer eines Telefongesprächs ermitteln. Auch bei der Vorbeugung, etwa im Bedrohungsfall durch Terroristen oder allgemein bei der (wohlbegründeten) Prävention (Strafvereitelung) können solche Maßnahmen sinnvoll sein. Bei mobilen Geräten ist dies aber nicht so leicht möglich, da der Zugriff auf Netzknoten nicht direkt möglich ist. Hier kann ein so genannter IMSI Catcher (IMSI = International Mobile Subscriber Identity) Abhilfe schaffen. Solch ein IMSI Catcher verhält sich wie ein beweglicher Netzknoten, der im Idealfall immer Kontakt zum Handy des Verdächtigen hat und sich andererseits wie ein Handy
138
Horster, Schartner
gegenüber den festen Netzknoten verhält. Dadurch ist dann auch die Beobachtbarkeit eines beweglichen Zielobjekts gesichert. Von Nachteil ist aber, dass alle Handys (im unmittelbaren Umfeld) Kontakt zum IMSI Catcher aufnehmen, der dann abrupt beendet wird, wenn die Entfernung zu groß wird. Die Verfügbarkeit der Telefonverbindung ist dann zumindest kurzfristig nicht gewährleistet. Zusammenführen von Daten und Profilbildung Bleiben wir bei Flugdaten, so werden – zumindest bei Flügen in die USA – nicht nur die eigentlichen Flugdaten an amerikanische Behörden übermittelt, sondern alle mit dem Flug in Verbindung stehenden Daten, wie etwa Bankdaten, die im Kontext der Bezahlung angefallen sind. Die Daten dienen zur Prävention, da so möglicherweise Terroranschläge früh erkannt und verhindert werden können. Einmal erhaltene Daten können dann zur Profilbildung des Fluggastes weiter genutzt werden, wenn sie nicht gelöscht werden. Das erhöht selbstverständlich die nationale Sicherheit. Sicher ist aber auch, dass alle diese Daten für NSA, FBI und CIA (Central Intelligence Agency) von großer Bedeutung sind. Werden erfasste Daten zusammengefasst, so ergeben sich ungeahnte Bedrohungen der Privatsphäre. Stehen einem (wie auch immer gearteten) Big Brother beispielsweise alle Bewegungsdaten und alle Daten, die beim Warenkauf anfallen (Art der Ware, Geldtransaktionen), zur Verfügung, so kann bereits ein umfangreiches Profil der betroffenen Personen erstellt werden. Einer Bespitzelung ohne Grenzen wäre damit Tür und Tor geöffnet. Würde man alle über eine Person existierenden elektronischen Daten verknüpfen (können), so hätten wir das Phantom des gläsernen Bürgers in voller Klarheit vor uns. Dabei wären die Einwohnermeldedaten der Melderegister ebenso hilfreich wie die Patientendaten der elektronischen Gesundheitsakte. Eine (umstrittene) Volkszählung müsste man dann nicht mehr durchführen, da eine solche jederzeit aktuell auf Knopfdruck verfügbar sein könnte. RFID ist die technologische Weiterentwicklung der Barcodes. Im Gegensatz zu Barcodes können RFID-Tags jedoch das Objekt und nicht nur den Objekttyp identifizieren. Weitere Vorteile dieser kontaktlosen Technologie sind: – – –
quasi-paralleles Auslesen (ohne Sichtkontakt); Unempfindlichkeit gegenüber Umwelteinflüssen; Wiederbeschreibbarkeit.
Szenarien, die die Welt verändern
139
Aufgrund dieser Vorteile gegenüber Barcodes werden RFID-Tags vermehrt im Logistikumfeld eingesetzt und dienen neben der Identifizierung auch zur Speicherung von Produkt- und Wartungsdaten, deren Auslesbarkeit auch nach Jahren gegeben ist (Juels 2005). Eine genügend große Dichte an Lesegeräten vorausgesetzt, lässt sich die Bewegung des RFID-Tags und damit des Trägerobjekts verfolgen. Es ist offensichtlich, dass solch ein Bewegungsprofil (noch) keiner Person zugeordnet werden kann. Wurde das Produkt – zum Beispiel eine Packung Milch – allerdings mit Kreditkarte oder einer Geldkarte mit gesetztem „Kunden-Bit“ bezahlt, so ist das Bewegungsprofil ab sofort an einen Namen gebunden (Juels, Pappu und Garfinklel 2005; Avoine 2007). Da die Milch in der Milchpackung jedoch ein eher kurzlebiges Produkt ist, wird das mit Hilfe der Milchpackung erstellte Bewegungsprofil nicht sonderlich aussagekräftig sein. Zudem könnte der Käufer der Milchpackung den EPC nach dem Bezahlen der Milch entfernen oder deaktivieren. Der Intelligente Kühlschrank, der eigenständig nachbestellt oder vor Verfall einer Ware eine Warnung absetzt, bleibt damit allerdings Zukunftsmusik. Mit Hilfe von langlebigeren (hochpreisigeren) Produkten ließe sich allerdings ein sehr aussagekräftiges Bewegungsprofil erstellen. Haben Sie sich schon einmal über die Seite „Benutzer, die … gekauft haben, haben auch … gekauft“ gewundert, oder kennen Sie das Gerücht, dem zu Folge Amazon mehr an den Benutzerprofilen verdient als über den Online-Shop? Kundenkarten, Kaufverhalten und personalisierte Kundendaten tragen dazu bei, dass Firmen gezielt werben und Angebote unterbreiten. Dazu dient auch das Surf- und Klickverhalten bei Kauf und Nichtkauf im Internet. Wie lange sich der Mauszeiger über einer bestimmten Stelle befunden hat oder nicht, gibt Auskunft über unsere Interessen und Vorlieben. Neben dem eBusiness fallen aber auch in anderen Bereichen wie eGovernment oder eHealth ‚Kunden’-Daten an, die aufgrund ihrer sehr persönlichen Inhalte nicht minder interessant sind. Persönlichkeitsprofile könnten mit diesen Daten durchaus gewinnbringend (wenn auch illegal) erweitert werden. In (beinahe) jedem Land existiert eine zentrale Stelle, die alle Kreditkartentransaktionen und Geldbehebungen registriert. Hierbei werden im Allgemeinen Daten darüber erhoben und aufgezeichnet, was, wann und wo eingekauft wurde. Dass die nationalen Instanzen wie die Gesellschaft für Zahlungssysteme mbH (GZS, führender Abwickler von Zahlungstransaktionen in Deutschland) und Austrian Payment Systems Services (APSS, der nationale Abwickler in Österreich) mittlerweile von internationalen Firmen (First Data, unter anderem Niederlassungen in Deutschland, Großbritannien, Italien, den Niederlanden und Österreich, vgl. First Data 2006) aufgekauft wurden, ist im Sinne des Datenschutzes nicht gerade von Vorteil.
140
Horster, Schartner
Szenarien aus Filmen wie Staatsfeind Nr.1 können somit Realität werden. Zum einen kann man alle über eine Person verfügbaren Daten (von Kreditkartenunternehmen, Banken, Fluggesellschaften, Behörden etc.) zusammenführen, und zum anderen kann eine gezielte Manipulation dieser Daten eine Identität kriminalisieren oder gänzlich auslöschen. (Drahtlose) Kommunikation Der DSL-Anschluss ist gelegt und der DSL-Splitter ist geliefert, das alte (oder das neue) Telefon ist dann schnell wieder angeschlossen und sogar funktionsfähig. Der Zugang zum Internet muss noch warten, denn ein Kabel vom Hausanschluss zum Arbeitszimmer und zum Zimmer der beiden heranwachsenden Kinder ist zwar geplant, aber noch nicht vorhanden. Die Lösung könnte in einem WLAN-Router liegen, bei dem die Verbindung schnell und kostengünstig über die Luftschnittstelle per Funk hergestellt wird. Ohne weitere Schutzmaßnahmen ist diese kabellose Nutzung aber den unmittelbaren Nachbarn ebenfalls möglich – und das möglicherweise sogar straffrei. Mit einer einfachen Richtantenne (die mit geringem technischem Aufwand, zum Beispiel unter Nutzung einer Pringles-Dose, zusammengebastelt werden kann) kann ein Zugang sogar über Strecken bis zu 1500 m erreicht werden. Ähnlich verhält es sich mit mobilen Endgeräten, die Bluetooth oder WLAN nutzen, wobei bei diesen Technologien niemals eine kabelgebundene Alternative existierte, sie also de facto als offene Systeme angesehen werden können. Wieder ist der Flughafen ein interessanter Beobachtungsstandort, da sich dort immer kommunikationsfreudige Personen aufhalten, die bis zur letzten Minute ihr mobiles Gerät (Handy, PDA oder Communicator) eingeschaltet haben. Im Falle eines entsprechend eingestellten (ungeschützten) Geräts ist es in der Regel ein Leichtes, zu erfahren, welche Dienste aktiviert sind. Manchmal können kostenpflichtige Dienste sogar von Fremden kostenlos genutzt werden, etwa zum Surfen im Internet, was dann zu (zunächst unerklärlichen) hohen Rechnungsbeträgen führen kann. Zudem können solche ungeschützten Geräte leicht ausspioniert werden, etwa durch Auslesen persönlicher Daten und ganzer Adressbücher, selbst das Löschen von Daten kann erfolgen. Da auch Laptops mit solchen Technologien ausgestattet sind, kann das Schadenspotential kaum überschätzt werden. Medienwechsel Reisepässe haben vor kurzem einen Wandel durchgemacht: Der herkömmliche Pass wurde um eine elektronische Komponente ergänzt. Der
Szenarien, die die Welt verändern
141
nun in den so genannten ePass integrierte RFID-Tag speichert neben den im Pass abgedruckten Daten auch noch ein Bild des Gesichts und in nicht allzu ferner Zukunft auch digitalisierte Fingerabdrücke. Der Zugriff auf diese Daten wird natürlich geschützt (Juels, Molnar und Wagner 2005). Wer kann diese Daten auslesen? Zunächst die gute Nachricht: Falls jemand Zugriff auf die Daten erhält, dann erfolgt die Datenübertragung in verschlüsselter Form – (unberechtigte) Dritte haben somit keinen Zugriff auf die übertragenen Daten. Die schlechte Nachricht: Diese Verschlüsselung befindet sich nur etwas über dem Niveau eines im Mai 2005 zurückgezogenen Standards für Verschlüsselung (DES – Data Encryption Standard – eine symmetrische Chiffre mit 56-Bit-Schlüssel). Die noch schlechtere Nachricht: Die zur Authentifizierung und Verschlüsselung genutzten Schlüssel können aus öffentlichen (das heißt im Pass abgedruckten) Daten berechnet werden, da der hierfür genutzte Algorithmus öffentlich bekannt ist. Somit kann die ursprüngliche Frage beantwortet werden: Jeder, der den Pass optisch auslesen kann und die (standardisierten) Verfahren zu Schlüsselableitung kennt, kann den ePass auslesen. Aber es kommt noch schlimmer: Kennt man den Namen des Passinhabers, und kann man sein Alter und andere Parameter etwas einschränken, so kann man den Suchraum des verwendeten Schlüssels minimieren und den Angriff auf die ePass-Daten ohne vorhergehendes optisches Auslesen starten. Nicht nur Wahlforscher wünschen sich ein Wahlergebnis unmittelbar nach Schließung der Wahllokale. Elektronische Wahlmaschinen würden dies ohne weitere Verzögerung auf Knopfdruck liefern. Der Koalitionsstreit und die Debatte der Wahlgewinner könnte direkt beginnen. Ob solch eine elektronische Wahl dann sicherer ist als die bisherige Urnenwahl, ist nicht leicht zu klären. Aber alleine schon, weil sie anders ist, wird der elektronischen Wahl schon mit Skepsis begegnet, ohne dass die tatsächlichen Bedrohungen genau bekannt wären. Beispiele für manipulierbare bzw. nicht ordnungsgemäß funktionierende Wahlautomaten sind bereits bekannt. So haben etwa Hacker in Holland gezeigt, wie sich Wahlcomputer manipulieren lassen, und Aktivisten in den USA haben das Fehlverhalten von Wahlmaschinen mittels ‚Videobeweis’ dokumentiert. Für das Erstellen von Dokumenten jeglicher Art ist die Produktpalette von Microsoft eine unentbehrliche Hilfe geworden. Word, Excel und Power Point verwenden wir fast täglich für unsere Korrespondenz, für eine Tabellenkalkulation oder zur Darstellung von Sachverhalten im Rahmen einer Präsentation. Solange die erstellten elektronischen Dokumente nicht weitergegeben werden, bedeutet dies in vielen Bereichen eine Arbeitserleichterung. Alte Dokumente können wiederverwertet und neue leicht erstellt werden. Werden solche Dokumente aber in elektronischer
142
Horster, Schartner
Form weitergegeben, so sollte man bedenken, dass neben der (am Bildschirm) angezeigten Information eventuell auch weitere Informationen in der elektronischen Version vorhanden sind. Das geht sogar soweit, dass alle bisher erstellten Textpassagen (auch bereits gelöschte) weiterhin aus der elektronischen Version rekonstruierbar sind. Die Folgen können fatal sein. Wer glaubt, dass eine einfache Konvertierung in ein PDFDokument Abhilfe schafft, hat sich allerdings getäuscht, denn verborgene Informationen werden auch in das PDF-Format übertragen. Auch PDF ist kein absolut sicheres Dateiformat.
Relevante Technologien Exemplarisch werden nun einige der betrachteten Technologien detaillierter beleuchtet. Dabei werden einerseits funktionale Aspekte betrachtet, und andererseits wird darauf eingegangen, wie diese Technologien für Überwachungszwecke einsetzbar sind. Wir beschränken uns auf – – –
Chip- und Speicherkarten, RFID und Mobile Endgeräte (GSM/UMTS + WLAN).
ChipChip- und Speicherkarten Wenn man die eigene Geldbörse, Brief- oder Handtasche nach Plastikkarten durchsucht, so wird man in den meisten Fällen zumindest einige der folgenden Karten finden: – – – –
Kreditkarten (etwa VISA, Mastercard, American Express oder Diners Club); Maestro-Karte (Bankomatkarte, gegebenenfalls inklusive Einträgen für diverse Kundenkarten); eCard (österreichische Sozialversicherungskarte); Diverse (dedizierte) Kundenkarten und Telefonwertkarten.
Alle derzeit ausgegebenen Chipkarten (das heißt Karten mit eingebautem Mikroprozessor und nicht-flüchtigem Speicher) verfügen über eine eindeutige 20-stellige Seriennummer (ICCSN – Integrated ChipCard Serial Number), welche während der Produktion auf dem Chip gespeichert wird und später nicht überschrieben werden kann. Diese Seriennummer ist also prinzipiell geeignet, die Karte – und sofern es sich um eine personalisierte Karte handelt, damit den Kartenbesitzer (in der Regel der Karten-
Szenarien, die die Welt verändern
143
benutzer) – bei jeder Verwendung der Karte zu identifizieren. Hierbei ist allerdings festzustellen, dass diese Seriennummer meist nur nach vorheriger Authentifizierung ausgelesen werden kann und somit nicht jedermann zugänglich ist. Karten, bei denen diese Seriennummer ohne vorherige Authentifizierung ausgelesen werden kann (zum Beispiel GSM-SIMs oder Krankenversichertenkarten), werden nur in speziellen Umgebungen (zum Beispiel im Mobiltelefon) oder in geschützten und besonders vertrauenswürdigen Bereichen (zum Beispiel Arztpraxen oder Apotheken) genutzt. In diesen Bereichen wird die ICCSN für interne Abläufe benötigt; die Gefahr einer missbräuchlichen Verwendung ist als sehr gering einzustufen. In anderen als den genannten Bereichen werden diese Karten nicht verwendet, da es hier eine sehr hohe Sensibilisierung der Benutzer gibt – einerseits bedingt durch drohenden hohen finanziellen Schaden im Falle des Missbrauchs einer GSM-SIM-Karte, und andererseits bedingt durch das Reizwort „Gesundheitsdaten“. Andere im Speicher des Mikrocontrollers gespeicherte Daten sind (sofern sie als sicherheitskritisch eingestuft werden) ebenfalls durch das Betriebssystem vor einem unzulässigen Auslesen durch Dritte geschützt. Diese Daten können also nur dann ausgelesen werden, wenn sich der Kommunikationspartner erfolgreich gegenüber der Chipkarte authentifiziert hat. Geeignete Sicherheitsmechanismen vorausgesetzt, ist ein Missbrauch dieser Daten durch Unberechtigte de facto unmöglich. Problematisch wird die Situation erst dann, wenn die verwendeten „SicherheitsMechanismen“ ungeeignet sind, die Daten zu schützen, oder aber wenn Berechtigte Missbrauch mit den auf der Chipkarte gespeicherten Daten treiben. Sind die Daten auf der Chipkarte nicht (oder nur teilweise) vor dem Auslesen geschützt, so bleibt es wiederum dem Kartenbesitzer überlassen, wem er das Auslesen seiner Daten erlaubt und wem nicht. Auf jeden Fall sollte der Benutzer aber darüber informiert sein, dass prinzipiell jeder, der über einen Chipkartenleser und entsprechende Software verfügt, seine Daten (vgl. Abbildungen 1 und 2 auf den folgenden Seiten) auslesen kann. Diese für jedermann mit nur geringem Aufwand auslesbaren Daten umfassen zum Beispiel bei der – – –
eCard: Kartennummer, Folgenummer, SV-Nummer, Gültigkeitsdatum, Name (inkl. Titel), Geschlecht und Geburtsdatum; Geldkarte: Kartennummer, Börsenkartenkonto, Börsenkarten-BLZ und zuletzt durchgeführte Transaktionen; Telefonwertkarte: Seriennummer (fast vollständig) sowie eine Losnummer.
144
Horster, Schartner
Abbildung 1: Öffentlich zugängliche Daten von (österreichischer) eCard und (deutscher) Geldkarte
Szenarien, die die Welt verändern
145
Abbildung 2: Öffentlich zugängliche Daten (baugleicher) Telefonwertkarten Im Bereich der Chip-, Speicher- und Kundenkarten gibt es jedoch auch noch andere Möglichkeiten, an (personenbezogene) Daten heranzukommen: Betrachtet man die Rückseite diverser Karten, so findet man sehr oft einen Magnetstreifen, der ebenfalls interessante Informationen enthält (vgl. Abbildung 3 auf der folgenden Seite). Diese aus technischen Gründen (Kompatibilität) oder preislichen Gründen (Magnetstreifen als einziger Datenspeicher der Karte) leider immer noch sehr weit verbreitete Methode der Datenspeicherung ist nicht gegen unbefugtes Auslesen durch Dritte geschützt und kann zudem sogar relativ leicht manipuliert werden. Der Magnetstreifen wird immer dann genutzt, wenn der Chip nicht genutzt werden kann (etwa bei Bankkarten im Ausland) oder wenn die bei Kreditkarten mittels Hochprägung auf der Vorderseite ausgebrachten
146
Horster, Schartner
Daten nicht genutzt werden können. Aus diesem Grund muss der Magnetstreifen prinzipiell weitgehend dieselben Informationen enthalten wie der Chip – und dies macht ihn für Datensammler besonders interessant.
Abbildung Abbildung 3: Rückseite einer Chipkarte, mit Magnetstreifen Der Magnetstreifen kann prinzipiell von jedermann mittels eines Einzugs- oder Durchzugskartenlesers ausgelesen werden kann. Er ist in drei Spuren unterteilt, wobei die einzelnen Spuren mit unterschiedlichen Bitdichten und Codierungen beschrieben werden: –
– –
Spur 1 wird mit 210 bpi (bit per inch) und 7 Bit pro Zeichen (inklusive einem Paritätsbit) beschrieben. Bei Nutzung der vollen Breite der Karte (rund 85 mm) können somit 79 Zeichen (Ziffern, Buchstaben und Trennzeichen) gespeichert werden. Spur 2 wird mit 75 bpi und 5 (4+1) Bit pro Zeichen beschrieben und kann somit 40 Zeichen (Ziffern und Trennzeichen) speichern. Spur 3 wird wiederum mit 210 bpi, nun jedoch mit (4+1) Bit pro Zeichen beschrieben, womit 107 Zeichen (Ziffern und Trennzeichen) gespeichert werden können.
Betrachten wir Kredit- und Maestro-Karten, bei denen die auf den einzelnen Spuren gespeicherten Daten standardisiert sind, so finden wir dort folgende Daten: –
–
Spur 1 wird zumeist nur bei Kreditkarten genutzt, und sie enthält folgende für unsere Betrachtungen relevanten Daten: Kartennummer (maximal 19-stellig), Namen der Inhaberin bzw. des Inhabers und das Ablaufdatum (letzter Tag der Gültigkeit). Spur 2 enthält die Kontonummer, einen Ländercode und das Ablaufdatum.
Szenarien, die die Welt verändern –
147
Spur 3 enthält, abgesehen von sicherheitsrelevanten Parametern (etwa die Anzahl der noch verbleibenden Versuche, die richtige PIN einzugeben), eine einstellige Kartenfolgenummer, wodurch verschiedene zur selben Kontonummer gehörende Karten unterscheidbar sind.
Somit können bei jedem Lesevorgang einer Kredit- oder Bankkarte zumindest die Kontonummer, der Ländercode und das Ablaufdatum (die sich auf Spur 2 der Karte befinden) bestimmt werden. Abgesehen von der Folgenummer kann die Karte folglich eindeutig identifiziert werden. Sie kann jedoch keiner Person (im Sinne des Namens) zugeordnet werden. Zur Personenbindung wird bei Kreditkarten zudem Spur 1 benötigt, die den Namen des Karteninhabers trägt. Bei EC-Karten ist der Name des Karteninhabers nicht auf der Karte gespeichert. Die auf dem Magnetstreifen diverser Kundenkarten gespeicherten Daten unterscheiden sich von Fall zu Fall, sie enthalten aber sehr oft den Namen des Inhabers bzw. der Inhaberin und fast immer eine eindeutige Seriennummer, anhand derer die Karte und (nach Abgleich mit einer Datenbank) auch deren Inhaber bzw. Inhaberin eindeutig identifiziert werden kann. RFID Spätestens seit der Einführung diverser Kundenkarten sollte jedem Konsumenten klar sein, dass sein Einkaufsverhalten aufgezeichnet und ausgewertet wird. Das dabei erzeugte Kundenprofil kann einen direkten Personenbezug haben (wenn man an dem Kundenprogramm unter Angabe seiner persönlichen Daten teilnimmt), muss es aber nicht. Zudem ist im Bereich der Kundenkarten unabhängig davon, ob es sich um dedizierte Kundenkarten oder Einträge auf der Bankomat-Karte handelt, immer eine Interaktion mit dem Kunden erforderlich. Ohne dessen Zustimmung können die Karte und somit die darauf befindlichen Daten nicht genutzt werden. Es gibt jedoch neuere Technologien, die diesen Kundenprofilen und den damit verbundenen Daten eine ganz neue Dimension verleihen: intelligente elektronische Etiketten, die sich unter dem Oberbegriff RFID für kontaktlose Identifikation zusammenfassen lassen. Hier ist keine Interaktion mit dem Kunden – und somit keine Zustimmung des Kunden – erforderlich. Das gilt zumindest für die technische Realisierung. Das (unbemerkte) Auslesen von RFID-Tags kann aus unterschiedlicher Entfernung geschehen (Finkenzeller 2002).
148
Horster, Schartner
Die folgende Tabelle gibt die maximale Sendereichweite der unterschiedlichen Standards an: Standard
Reichweite (Token)
Close Coupling
ISO 10536
ca. 1 cm
Proximity
ISO 14443
10 cm – 15 cm
Vicinity
ISO 15693
1,5 m
Near Field Communication
ISO 18092
wenige cm
Die gesendeten Signale können jedoch bei günstiger Ausrichtung der Antennen auch in wesentlich größerer Entfernung noch empfangen (abgehört) und korrekt decodiert werden. Ein Praxistest des deutschen BSI (Bundesamt für Sicherheit in der Informationstechnik, BSI 2006) mit ISO 14443 Token vom 12.10.2004 hat gezeigt, dass die Entfernung, in der ein korrektes Decodieren der empfangenen Signale noch möglich ist, mehr als 2 m beträgt. Der Standard schreibt eine maximale Sendereichweite von lediglich 15 cm vor! Mit dem Übergang von herkömmlichen Barcodes zu elektronischen Etiketten (RFID-Tags) stehen auch im Bereich der Produktidentifikation neue Möglichkeiten zur Verfügung. Anhand des Barcodes lässt sich nur der Produkttyp erkennen: Eine Milchpackung wird beispielsweise als Milchpackung erkannt. RFID bietet mehr: Nun können Milchpackungen unterschieden und zudem noch mit zusätzlichen Daten, wie Mindesthaltbarkeit, ausgestattet werden. RFID-Tags, die als so genannte EPCs (Electronic Product Codes) eingesetzt werden, besitzen neben einem Header, der den Objekttyp identifiziert, auch eine laufende Nummer, die das jeweilige Objekt identifiziert (vgl. Abbildung 4). Zwei Packungen Milch, die beide mit einem EPC versehen sind, lassen sich jeweils als Milchpackung erkennen. Zudem können die beiden Packungen aber auch anhand ihrer Seriennummer auseinander gehalten werden. Die Seriennummer eines Tags ermöglicht dementsprechend eine Verfolgung des einzelnen Objekts. Immer, wenn ein Tag ein Lesegerät passiert, kann seine Identifikationsnummer (ID) ausgelesen werden. Über die Standorte der Lesegeräte und den Zeitpunkt des Auslesens kann so ein Bewegungsprofil der Milchpackung(en) (und ihrer Käufer) erstellt werden. Und diese Funktionalität geht auch nicht beim Verlassen des Supermarktes verloren.
Szenarien, die die Welt verändern
149
Abbildung 4: Zwei Objekte mit je einem Barcode und einem EPC Soll die Funktionalität des Tags eingeschränkt werden, so kann dies durch Entfernen oder Deaktivieren geschehen. Wird ein Tag entfernt, so kann er wieder verwendet oder entsorgt werden. Die Deaktivierung kann auch partiell vorgenommen werden, etwa dann, wenn er im Rahmen der Diebstahlsicherung (Electronic Article Surveillance) eingesetzt wird. Derzeit sind dies zwar meist noch so genannte 1-Bit-Transponder (die entweder aktiviert oder deaktiviert sind); es zeichnet sich aber ein Trend ab, bei dem mehr als nur „bezahlt“ bzw. „nicht bezahlt“ auf den Tags gespeichert ist. Bereits heute sind diese Tags oft unsichtbar in das jeweilige Produkt eingebettet, sei es in einer Schuhsohle oder in der Deckelklappe eines Buchs. Bei höherwertigen Wirtschaftsgütern kommen zudem intelligentere Etiketten ins Spiel, in denen etwa Kauf- und Garantiedaten gespeichert werden. Eine Entfernung bzw. Deaktivierung des Tags bringt hier Nachteile für den Käufer mit sich. Er kann zum Beispiel beim Weiterverkauf oder im Garantiefall nicht mehr die korrekte Wartung des Produkts nachweisen. RFID-Tags können vielfältig zur Speicherung von Sicherheitsmerkmalen eingesetzt werden, so war es auch nahe liegend, solche RFID-Tags in elektronische Pässe zu integrieren – siehe die Überlegungen der International Civil Aviation Organization (ICAO 2007).
150
Horster, Schartner
Grundlegendes zum ePass (elektronischer Pass) Die Verordnung (EG) Nr. 2252/2004 des Rates vom 13. Dezember 2004 über Normen für Sicherheitsmerkmale und biometrische Daten in von den Mitgliedstaaten ausgestellten Pässen und Reisedokumenten (EU 2004) sieht unter anderem folgendes vor: –
–
Artikel 1 (2): „Die Pässe und Reisedokumente sind mit einem Speichermedium versehen, das ein Gesichtsbild enthält. Die Mitgliedstaaten fügen auch Fingerabdrücke in interoperablen Formaten hinzu. Die Daten sind zu sichern, und das Speichermedium muss eine ausreichende Kapazität aufweisen und geeignet sein, die Integrität, die Authentizität und die Vertraulichkeit der Daten sicherzustellen.“ Artikel 6: „Diese Verordnung tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft. Die Mitgliedstaaten wenden diese Verordnung a. in Bezug auf das Gesichtsbild spätestens 18 Monate, b. in Bezug auf Fingerabdrücke spätestens 36 Monate nach Erlass der in Artikel 2 genannten Maßnahmen an.“
Somit sind alle Mitgliedsstaaten der EU seit spätestens 13. Juni 2006 verpflichtet, so genannte elektronische Reisepässe (ePässe) auszugeben. Diese Reisepässe gleichen im Aussehen den bereits in Verwendung befindlichen Pässen, sind aber zusätzlich mit einem RFID-Chip ausgestattet, der neben den im Pass abgedruckten Daten auch noch ein digitalisiertes Bild des Inhabers speichert. Ab Dezember 2007 wird der RFID-Chip des ePasses neben dem Gesichtsabbild des Inhabers auch noch mindestens einen seiner Fingerabdrücke in digitalisierter Form speichern. Auch hier kann der Inhalt des RFID-Chips unbemerkt ausgelesen werden. Abhilfen sind denkbar einfach: Bringt man in das Deckblatt und den Rücken des ePasses ein dünnes Metallgitter ein, so ist der RFID-Chip im zugeklappten Pass abgeschirmt und nur im aufgeklappten Zustand auslesbar. Ausblick: Elektronisch markierte Geldscheine RFID-Tags werden immer kleiner und dünner. Die derzeit kleinsten auf dem Markt befindlichen (wiederbeschreibbaren) Tags haben ohne Antennen eine Abmessung von nur 0,3 mm2, so dass sie inklusive der flexiblen Antennen leicht in einen Geldschein eingebettet werden könnten. Die auf dem Tag gespeicherte und nicht fälschbare Seriennummer könnte somit die auf dem Geldschein aufgedruckte ergänzen und so den Geld-
Szenarien, die die Welt verändern
151
schein in einem bisher noch nicht erreichten Ausmaß fälschungssicher machen. Wie schon beim Pass ist die Mindestreichweite dieser Tags relativ gering, da eine Verifikation nur bei direktem Kontakt mit der Oberfläche des Lesers möglich sein soll. Ein Auslesen aus größerer Entfernung (bzw. ein Erkennen, ob Geld vorhanden ist oder nicht) ist jedoch auch hier denkbar. Eine geeignete und kostengünstige Gegenmaßnahme ist wiederum eine mittels Metallgeflecht abgeschirmte Geldbörse. Nach Simson Garfinkel (2002a/b) sollten Konsumenten –
wissen, dass ein bestimmtes Produkt RFID nutzt, indem das Produkt dementsprechend gekennzeichnet ist;
–
in der Lage sein, RFID-Tags (dauerhaft) zu deaktivieren oder zu entfernen; auch ohne den Tag Zugang zu den entsprechenden Services haben; Lese-Zugriff auf die im Tag gespeicherten Daten haben; wissen, wann, wo und warum auf ihren Tag von wem zugegriffen wurde.
– – –
Mobile Endgeräte Mobile Endgeräte verfügen meist über eine oder mehrere der weiter unten beschriebenen Kommunikationsmöglichkeiten mit der Außenwelt. Aus technischen Gründen ist für die richtige Zustellung der Daten eine eindeutige ID erforderlich. Im Falle von GSM ist dies zum Beispiel der IMEI (International Mobile Equipment Identifier) und im Falle von WLAN die Media Access Control (MAC-) Adresse. Prinzipiell ist es daher möglich, diese Daten zur Positionsbestimmung und zur Positionsverfolgung zu nutzen. GSM/UMTS – Hintergrund zu Location-Based Services Seit einiger Zeit finden Dienste zur Ortung von Mobiltelefonen Verbreitung, die gegen ein relativ geringes Entgelt von Privatpersonen genutzt werden können. Neben dem Suchen eines bestimmten Mobiltelefons gibt es auch Dienste, die alle befreundeten Personen anhand des Mobiltelefons orten. Einzige Voraussetzung hierzu ist eine Freischaltung des Dienstes durch den Besitzer des Mobiltelefons, das gesucht (bzw. gefunden)
152
Horster, Schartner
werden soll. Das Problem hierbei ist, dass das Freischalten oft nur durch Abschicken einer einzigen SMS erfolgt. Der kurzfristige Zugriff auf das zu überwachende Mobiltelefon ist daher ausreichend, um diesen Dienst unautorisiert zu aktivieren. Nur wenige Dienste holen bei jeder Suchanfrage die Zustimmung des Gesuchten zur Weitergabe seiner Position ein (Handyfinder 2005, MECOMO 2000). Zu erwähnen bleibt, dass die Genauigkeit der Positionsbestimmung von der verwendeten Technologie und der relativen Nähe der Basisstationen abhängt. Wird zum Beispiel im ländlichen Bereich nur eine Basisstation verwendet, so ist derzeit nur eine Bestimmung im km-Bereich möglich. In dicht besiedelten und somit dicht mit Basisstationen besetzten Gebieten lässt sich die Position auf wenige 100 Meter genau bestimmen. Verwendet man zudem noch das UMTS-Netz (und gegebenenfalls mehrere Basisstationen), so kann die Genauigkeit nochmals gesteigert werden. Zudem ist zu unterscheiden, ob die Basisstation die Entfernung des Mobiltelefons ermitteln kann oder nicht.
Abbildung 5: Demo-Ortung von www.trackyourkid.de
Szenarien, die die Welt verändern
153
Abbildung 6 zeigt links eine Basisstation, die nur ermitteln kann, ob sich ein bestimmtes Mobiltelefon in ihrem Empfangsbereich befindet oder nicht. Die Genauigkeit der Lokalisierung ist also von der Größe der Zelle abhängig, die zum Beispiel im Falle von Makrozellen einen Radius von bis zu 35 km abdeckt, wohingegen der Radius von Mikrozellen zwischen 500 m und 50 m liegt. In der Mitte von Abbildung 6 befindet sich eine Basisstation, die die Entfernung des Mobiltelefons mittels Laufzeitmessung ermitteln kann, wobei diese Messung Fehlern unterliegt. Der Aufenthaltsort des Mobiltelefons lässt sich somit auf einen ringförmigen Bereich eingrenzen. Rechts in Abbildung 6 werden 2 bzw. 3 Basisstationen genutzt, um die Lokalisierung weiter zu präzisieren. Die angegebenen Reichweiten hängen von zahlreichen Faktoren ab und geben nur Größenordnungen wieder. Das heißt aber auch, dass eine verbesserte Technologie wesentlich präzisere Ortsangaben ermöglichen wird.
Abbildung 6: Prinzip der Positionsbestimmung Laptop bzw. PDA mit NIC (und MAC-Adresse) Abschließend unternehmen wir eine Weltreise, um uns der Beobachtung zu entziehen. Alle RFID-Chips (etwa in Tickets der Luftfahrtgesellschaften) werfen wir nicht weg (wegen der Erinnerungswerte), sondern packen sie in Metallfolie ein. Dadurch können sie nicht mehr ausgelesen werden. Bezahlvorgänge stellen sich in manchen Ländern als problematisch dar, denn dort wird Bargeld nur sehr ungern akzeptiert, aber wir wollen möglichst wenig Datenspuren hinterlassen. Lediglich die schönen Urlaubsfotos wollen wir ab und zu nach Hause mailen, und dazu verwenden wir ein anonymes Satellitentelefon.
154
Horster, Schartner
Abbildung 7: Eine beobachtbare Weltreise Sind wir auf der Weltreise (Wien → Kapstadt → Bombay → Tokio → Sydney → San Francisco → New York → London → Wien), auf der wir mit unserem Mobiltelefon oder einem anonymen Satellitentelefon telefonieren und Urlaubsfotos von diversen Hotspots aus nach Hause senden, verfolgbar? Natürlich, denn die SIM-Karte unseres Mobiltelefons und die MAC-Adresse unseres Laptops (auf dem sich die Fotos befinden) können uns zumindest von Insidern eindeutig zugeordnet werden.
Resümee Die oft geäußerte Hoffnung, dass die auf der Welt vorhandene Datenmenge so groß ist, dass keine Institution der Welt damit etwas anfangen kann, sollte schnell aufgeben werden. Selbst ehemals nicht elektronisch vorliegende Daten (etwa das von Charles Darwin am 24. November 1859 veröffentlichte – und am selben Tag ausverkaufte – The Origin of Species) ist über Google und Co. in Bruchteilen von Sekunden gefunden und kurz danach als digitalisierte Version auf unserem Rechner. Und das gilt nicht nur für Textdokumente, auch nach Bild- und Sprachdokumenten kann erfolgreich gesucht werden. Aber zunächst zur Auflösung unserer Geschichte um Herrn Mustermann:
Szenarien, die die Welt verändern
155
Der Online-Sportartikelversand hat das Interessengebiet „Skifahren“ mit dem Namen „Max Mustermann“ verknüpft. Daher konnte ihm der Online-Bücherversand passende Bücher vorschlagen. Ganz nebenbei wurde die teure Sonderausgabe von George Orwells 1984 mit einem RFID-Tag versehen, dessen ID ebenfalls mit Herrn Mustermanns Namen verknüpft wurde. Der Kühlschrank von Herrn Mustermann fügte seinem Profil die Informationen „bevorzugt (derzeit) Diät- und Bioprodukte“ hinzu. Dass sein Chef ihn (widerrechtlich) überwachte, weiß Herr Mustermann jetzt auch. Die ausgesprochene Kündigung war infolge einer Betriebsvereinbarung aber juristisch korrekt. Dass ihn seine Frau mittels „Handy-Friendfinder“ überwacht, weiß er immer noch nicht. Dafür kann er seit seinem Reifenplatzer das GPS-System seines Autos besser bedienen und ist sich zudem sicher, dass sein Auto gefunden wird, sollte es ihm einmal abhanden kommen. Zudem hat er bemerkt, dass in C-Hausen eine (für ihn neue) Videoüberwachung im Rahmen der LKW-Maut montiert wurde. Und nachdem jedes KFZ ein Nummernschild hat, wundert er sich auch nicht mehr über den Strafzettel. Seit sich die zu teure Sonderausgabe und seine zu billigen Winterschuhe in ihre Bestandteile aufgelöst haben, weiß er, dass alle möglichen Produkte mit RFID-Tags ausgestattet sind. Das erklärt, warum er immer häufiger von unbekannten Verkäufern mit Namen angesprochen wird und sie sogar seine Schuhgröße kennen, ohne zu Boden blicken zu müssen. Und diese Geschichte geht sicher weiter. Die von Georg Orwell im Jahr 1949 beschriebene Vision eines Big Brother könnten wir mit den heutigen Technologien leicht verfeinern, um auch die in 1984 uneinsehbaren Bereiche beobachtbar zu machen. Die dazu verwendeten Geräte und Verfahren erleichtern uns aber auch das tägliche Leben und sind dadurch akzeptierter Teil unserer Gesellschaft und Kultur geworden. Diese elektronische Moderne steht auch für einen Fortschritt, den wir täglich gewinnbringend nutzen. Was können wir gegen den Missbrauch moderner Technologien unternehmen? Eine Nichtnutzung ist de facto ausgeschlossen. Wir müssen also vielfältige Gegenmaßnahmen entwickeln, eine allein wird mit Sicherheit nicht ausreichen, um uns zu schützen. Gefragt ist eine mehrseitige Sicherheit, bei der die berechtigten Interessen aller Beteiligten zu berücksichtigen sind, und die jederzeit von allen Beteiligten überprüft werden kann. Gefragt sind organisatorische und technische Gegenmaßnahmen sowie gesetzliche Regulierungen. Zudem ist eine Sensibilisierung der potentiell Gefährdeten und eine Schulung aller Betroffenen zumindest hilfreich, wenn nicht sogar unabdingbar.
156
Horster, Schartner
Literatur Avoine, Gildas (2007): „Security and Privacy in RFID Systems“. http://lasecwww.epfl.ch/~gavoine/rfid/index.html (Online-Ressource). Big Brother Awards Austria (2006): Die Preisträger. http://www.bigbrotherawards.at/2006/Preistraeger (Online-Ressource). BSI (2006): „Risiken und Chancen des Einsatzes von RFID-Systemen“. Bonn: Bundesamt für Sicherheit in der Informationstechnik. http://www.bsi.de/fachthem/rfid/studie.htm (Online-Ressource). EU (2004): Verordnung (EG) Nr. 2252/2004 des Rates vom 13. Dezember 2004 über Normen für Sicherheitsmerkmale und biometrische Daten in von den Mitgliedstaaten ausgestellten Pässen und Reisedokumenten. Brüssel, Amtsblatt Nr. L 385. Finkenzeller, Klaus (2002): RFID-Handbuch: Grundlagen und praktische Anwendungen induktiver Funkanlagen, Transponder und kontaktloser Chipkarten. 3. Auflage. München: Hanser. First Data (2006): „First Data in Europa”. http://www.firstdata.de/wDeutsch/01_das_unternehmen/europe.php?na vid=6 (Online-Ressource). Garfinkel, Simson (2002a): „Adopting Fair Information Practices to Low Cost RFID Systems“. Ubicomp 2002 Pricacy Workshop. Göteborg. http://www.simson.net/clips/academic/2002.Ubicomp_RFID.pdf (Online-Ressource). Garfinkel, Simson (2002b): „An RFID Bill of Rights – Wireless ID tags will soon be everywhere. We need a manifesto!“. Technology Review (amerikanische Ausgabe), Nr. 10/2002. http://www.technologyreview.com/read_article.aspx?id=12953&ch=info tech (Online-Ressource). Handyfinder (2005): http://handyfinder.nextome.de (Online-Ressource). ICAO (2007): „Machine Readable Travel Documents (MRTD)“: http://mrtd.icao.int/ (Online-Ressource). Juels, Ari (2005): „RFID Privacy: A Technical Primer for the Non-Technical Reader“. In: Katherine J. Strandburg und Daniela Stan Raicu, Hg.: Privacy and Identity: The Promise and Perils of a Technological Age. New York: Springer. Juels, Ari, David Molnar und David Wagner (2005): „Security Issues in EPassports“. Secure-Comm ’05. Proceedings of the First International Conference on Security and Privacy for Emerging Areas in Communications Networks, S. 74-88. Juels, Ari, Ravi Pappu und Simson Garfinkel (2005): „RFID Privacy: An Overview of Problems and Proposed Solutions“. IEEE Security and Privacy 3/3: 34-43. Lazar, Allan, Dan Karlan und Jeremy Salter (2006): The 101 Most Influential People Who Never Lived. New York: Harper. MECOMO (2000): http://www.mecomo.com (Online-Ressource). Orwell, George (1949): 1984. London: Secker & Warburg.
Szenarien, die die Welt verändern
157
q/depesche (2006): BBA.at 2006 – Die Preisträger. q/depesche Newsletter, 26.10.2006. http://quintessenz.at/d/000100003728 (Online-Ressource). Salzburger Nachrichten (2006): „Fiktive Berühmtheiten“. Salzburger Nachrichten, 20.10.2006. http://www.salzburg.com/sn/archiv_artikel.php?xm=2562501&res=0 (Online-Ressource). Trackyourkid: http://www.trackyourkid.de (Online-Ressource). Ziegler, Peter Michael (2006): „US-Regierung lässt internationales Finanzdatennetz überwachen“. Heise Newsticker, 23.06.2006. http://www.heise.de/newsticker/meldung/74633 (Online-Ressource). Alle Online-Quellen geprüft im August 2007.
Teil IV: Lebenswelt
Der Einfluss von Ubiquitous Computing auf Benutzungsschnittstellenparadigmen Rudolf Melcher, Martin Hitz, Gerhard Leitner und David Ahlström*
Wenn jedes Werkzeug auf Geheiß, oder auch vorausahnend, das ihm zukommende Werk verrichten könnte, wie des Dädalus Kunstwerke sich von selbst bewegten oder die Dreifüße des Hephästos aus eignem Antrieb an die heilige Arbeit gingen, wenn so die Weberschiffe von selbst webten, so bedürfte es weder für den Werkmeister der Gehilfen noch für die Herren der Sklaven. Aristoteles, Politik, 1253b
Einleitung Wir schreiben das Jahr 2007, und die Entwicklung der Computertechnik übertrifft alle zuvor gemachten seriösen Abschätzungen hinsichtlich Leistungsfähigkeit, Miniaturisierung, Vernetzung und resultierender Heterogenität: Zum einen folgt auf das PC-Zeitalter nunmehr die Ära des überall vorhandenen, aber unsichtbaren Rechners, zum anderen verliert durch die Spezialisierung in Form von ‚smart devices’ die Metapher des Computers als Universalwerkzeug an Überzeugungskraft, wenn auch nicht an grundsätzlicher Bedeutung. (Gesellschaft für Informatik 2006)
Wir gehen im Folgenden der Frage nach, welchen Einfluss diese Entwicklung auf die vorherrschenden Interaktionsmuster hinsichtlich einer optimalen Benutzungsschnittstellen-Gestaltung haben (könnte). Welche Interaktionsparadigmen werden Bestand haben, und welche müssen ersetzt bzw. erweitert werden? Wir sind der Ansicht, dass Ubiquitous Computing („UC“ in der Folge) unweigerlich dazu führt, dass der Zugriff auf Artefakte (Dateien) nicht mehr auf der Idee physikalischer Dateisysteme beruhen kann. Vielmehr *
Forschungsgruppe „Interaktive Systeme“, Institut für Informatik-Systeme (ISYS), Universität Klagenfurt.
162
Melcher, Hitz, Leitner, Ahlström
müssen diese Datenbestände auch den personalisierten, kognitiven und emotionalen Strukturen der Benutzer entsprechend darstellbar werden. Komplexe Informationsmuster und kommunikationsorientierte Prozesse, basierend auf hypermedialen, mehrdimensionalen und multimodalen Darstellungstechniken, können als Interaktionsmechanismen nutzbringend eingesetzt werden. Diese müssen jedoch zuvor systematisch erschlossen werden. Als weitere Folge des UC betrachten wir die dominante DesktopMetapher und das hersteller- bzw. geräteabhängige und betriebssystemorientierte Applikationsparadigma als obsolet. Für den Benutzer wirft die Überbewertung der Rolle von Applikationen mehr Probleme und Widersprüche auf als sie löst. Unseres Erachtens werden in Zukunft aufgabenorientierte, funktionale Module in eine Benutzer-Interface-Infrastruktur eingehängt (vgl. die ursprüngliche Idee von Web-Applikationen, die mit Web 2.0 rasant wieder an Bedeutung gewinnt) und sich dynamisch an die Interaktionsmöglichkeiten einzelner Endgeräte anpassen (Plastic Interfaces). Es wird Applikationen in der Regel nicht mehr gestattet werden, proprietäre Daten-Substrukturen zu bilden. Benutzbarkeitsforschung umfasst nun also nicht mehr nur das Einzelgerät bzw. -system, sondern die gesamte ‚intelligente’ Umgebung eines Benutzers und die darin enthaltene technische Infrastruktur (was einen erweiterten Kontextbegriff impliziert). Letztlich wird sich die Gebrauchstauglichkeit der Rechnerallgegenwart daran bewerten lassen, wie bewusst Benutzer diese Infrastruktur im Hinblick auf die Manipulation von Daten und den Bedürfnissen angepasste Funktionalitäten gestalten können und dürfen.
Entwicklung der Rechnerallgegenwart Mark Weiser prägte in seinem Aufsatz „The Computer for the 21st Century“ (1991) den Begriff „Ubiquitous Computing“ und skizzierte damit eine Entwicklung, die bisherige Computersysteme, insbesondere die vorherrschenden Personal Computer, zurückdrängt und für neuartige „unaufdringliche“ Systeme Platz macht. Diese Systeme sind dadurch charakterisiert, dass sie selbst eher in den Hintergrund treten und als „Sekundärartefakte“ nicht mehr die vollständige Aufmerksamkeit des Benutzers verlangen. Eng damit verbunden ist der Begriff „Internet der Dinge“, der darauf hinweist, dass nunmehr physische Objekte mit ‚Intelligenz’ versehen werden und die Rolle der Benutzungsschnittstellen übernehmen. Geleitet ist Weiser von der Idee, dass die Nutzung von Werkzeugen reduziert bzw. gänzlich unbewusst erfolgen kann. Er verdeutlicht dies zum
Ubiquitous Computing und Benutzerschnittstellen
163
Beispiel an einem Blindenstock, der es dem Benutzer erlaubt, die Straße zu ertasten, ohne an den Stock selbst zu denken. Abbildung 1 zeigt eine bereits mehr als 10 Jahre alte Vorhersage der Entwicklung dieser Technologien. Erstaunlich ist, dass Weiser UC ab dem Jahr 2006 als das vorherrschende Paradigma sieht. Wir denken, dass er mit dieser Vorhersage sehr gut gelegen ist. The major trends in computing Mainframe (one computer, many people)
PC (one person, one computer)
UC (one person, many computers)
Sales / year
20 15 10 5 0 1940
1945
1950
1955
1960
1965
1970
1975
1980
1985
1990
1995
2000
2005
Years
Abbildung 1: Vorhersage der Entwicklung von UC nach Weiser (1996)1 Es existieren mehrere Synonyme für den Begriff „Ubiquitous Computing“. Wurde dieser von Weiser im Rahmen seiner Arbeit am Palo Alto Research Center (PARC) geprägt, so ist der Begriff „Disappearing Computing“ vor allem im Zusammenhang mit dem 6. Rahmenprogramm der EU von Bedeutung.2 Dort wurde versucht, einen eindeutigen Schwerpunkt in die Entwicklung allgegenwärtiger Services zu setzen. Dagegen ist der Begriff des „Pervasive Computing“ eher mit der zugrundeliegenden Technologie (zum Beispiel: RFID, GPS, GPRS, WLAN, Bluetooth) und realisierbaren Topologien verknüpft als mit der Oberflächen- und Interaktionsgestaltung. Daher verwenden wir vorzugsweise den Begriff des „Ubiquitous Computing“. Die Norm DIN EN ISO 9241-1103 definiert den Begriff der Benutzungsschnittstelle als „alle Bestandteile eines interaktiven Systems (Software oder Hardware), die Informationen und Steuerelemente zur Verfügung stellen, die für den Benutzer notwendig sind, um eine bestimmte 1 2 3
Grafik von http://www.ubiq.com/hypertext/weiser/UbiHome.html http://www.disappearing-computer.net/ http://www.procontext.com/de/news/2006-08-11.html
164
Melcher, Hitz, Leitner, Ahlström
Arbeitsaufgabe mit dem interaktiven System zu erledigen.“ Bisher wurden vor allem folgende Kategorien von Benutzungsschnittstellen unterschieden: – – – – – –
Kommandozeilen (CLI, zum Beispiel: DOS Kommandozeile), Zeichenorientierte Benutzungsschnittstellen (CBI, zum Beispiel: Norton Commander), Grafische Benutzeroberflächen (GUI, zum Beispiel: Windows), Sprachbasierte Benutzungsschnittstellen (VUI), Dreidimensionale Benutzungsschnittstellen (3DUI), Berührbare Benutzungsschnittstellen (TUI, vgl. Ishii und Ullmer 1997).
Die Umsetzung solcher Benutzungsschnittstellen war und ist eng an die Möglichkeiten gekoppelt, die die jeweils aktuelle Hardware bietet. Durch die zunehmende Diversifikation der Hardware-Plattformen reicht eine isolierte Betrachtung − also eine direkte Kopplung der Interaktionsmechanismen an die jeweilige Plattform − nicht mehr aus, so man durch ein Mindestmaß an Konsistenz von Interaktionsmechanismen insgesamt eine positive User Experience gewährleisten will. Folgende Beispiele sollen verdeutlichen, dass Gebrauchstauglichkeit auf die ‚traditionelle’ Art und Weise nicht mehr ohne weiteres gewährleistet werden kann: N:m Computing: Computing: Die kombinierte Nutzung von Wohnzimmer-PC, Laptop, Firmen-PC und Handy ist für viele Menschen bereits Alltag. Einige Geräte verwenden sie dabei exklusiv (Mobiles, Laptops), andere wiederum werden geteilt (PC). Die konsequente Datenhaltung und Applikationsverwaltung über all diese Plattformen hinweg wird zusehends umständlicher. Dieser Sachverhalt stellt sich aktuell als kaum überwindbarer Flaschenhals im Versuch der synergetischen Nutzung unterschiedlicher Geräte und Dienstleistungen dar. Mobile Computing: Computing: Aktuelle Smartphones operieren auf der DesktopMetapher. Diese Metapher ist für solche Geräte jedoch ungeeignet und wird fälschlicherweise aufgrund des Wiedererkennungsprinzips eingesetzt, um das Erlernen zu erleichtern. Dies mag zwar bis zu einem gewissen Grad gelingen, doch werden damit andere Kriterien der Gebrauchstauglichkeit, zum Beispiel die Nutzungseffizienz nicht gefördert. Letztere kann beispielsweise durch den Einsatz von Zooming Interfaces (ZUI) rasch gesteigert werden.4 4
Vgl. das Projekt PaperLens, online unter http://www.cs.umd.edu/hcil/paperlens/.
Ubiquitous Computing und Benutzerschnittstellen
165
Context Sensitivity, Context Awareness: Awareness: Kontextsensitivität wird heute meist teuer verkauft (zum Beispiel A-GPS)5 und kommt eher dem Anbieter (durch Gewinnung eines impliziten Benutzerprofils) als dem Kunden zu Gute, da es Letzterem nur in geringem Maße erlaubt wird, einen Service seinen Bedürfnissen entsprechend anzupassen. Anbieter versuchen diese Services vornehmlich im Hinblick auf die eigene Ertragsoptimierung zu gestalten. Benutzer müssen mit derart vorgegebenen Anwendungen vorlieb nehmen. Die Entwicklung und Implementierung zusätzlicher Services, zum Beispiel durch Drittanbieter, wird durch hohe Lizenzgebühren eher verhindert. Google Earth und die damit verbundenen Möglichkeiten (wie zum Beispiel die Nutzung beliebig konfigurierbarer Information Layers6) weisen hier jedoch neue Wege. Special Purpose Computing: Computing: Anhand von MP3-Playern kann gezeigt werden, dass sich Endgeräte an gewisse Konventionen halten müssen, zum Beispiel an die Bandrekorder-Metapher und kompatible Dateiablagen, um erfolgreich zu sein. Je proprietärer die Interaktionslösung, desto unattraktiver und unbenutzbarer werden die Geräte, sofern es nicht gleichzeitig gelingt, einen neuen Standard zu setzen. Apple hat mit dem iPod „Click Wheel“ und der iTunes Software7 einen solchen Brückenschlag geschafft. Dies ist unter anderem darauf zurückzuführen, dass die Bedienung trotz des neuen Interaktionselements konsequent einfach (BandrekorderSteuerung und Menüstruktur) gestaltet wurde. Disappearing Computing: Computing: Alle unter diesem Schlagwort (UC Synonym) diskutierten Lösungen (insbesondere Radio Frequency Identification, RFID) werfen immense Probleme hinsichtlich Datenschutz und Privatsphäre auf, sofern dem Benutzer nicht die absolute Verfügungsgewalt über das hintergründig generierte Profil gegeben wird. Im Rahmen der vorliegenden Arbeit verstehen wir unter Rechnerallgegenwart besondere computergestützte Infrastrukturen mit folgenden Merkmalen: Sie sind – – – 5 6 7
jederzeit und allerorts verfügbar bzw. mobil, heterogen, das heißt aus unterschiedlichen Einzelsystemen zusammengesetzt, kontextsensitiv und http://www.areamobile.de/specials/special_agps_drei.php http://earth.google.de/product_comparison.html http://www.apple.com/de/itunes/
166 –
Melcher, Hitz, Leitner, Ahlström möglichst unaufdringlich (soweit es der aktuelle Stand der Technik erlaubt).8
So gesehen verbreitern wir die Bedeutung des UC-Ansatzes und schließen beliebige Kombinationen von ‚unsichtbaren’ Gerätschaften und Benutzungsszenarien ein. Allen denkbaren Kombinationen gemeinsam ist, dass sie bei konsequenter Umsetzung im UC-Ideal münden würden. Die mit der Etablierung solcher heterogener Strukturen verbundenen Potentiale und Probleme für die Benutzer werden nun anhand der notwendigen Interaktionsparadigmen besprochen.
Änderung des Anwendungskontextes Wir sehen UC als den bisher umfassendsten Begriff für die Nutzung rechnergestützter Infrastrukturen, zumal durch diesen implizit auch die Aspekte „jederzeit“ und „allerorts“ Einzug in die systematische Betrachtung finden und trotzdem nicht auf die sogenannten „mobilen Systeme“ begrenzt bleiben. Eine konkrete Situation (Ort und Zeit) und die damit verbundenen Umwelt- und sozialen Bedingungen ergeben den „Context of Use“. In diesen versucht man nun unaufdringliche Werkzeuge einzubetten: „A good tool is an invisible tool […] Of course, tools are not invisible in themselves, but as part of a context of use“ (Weiser 1994, S. 7). Greenfield weist darauf hin, dass sich die Bedeutung des Kontextes und die Rolle des Benutzers durch die Allgegenwärtigkeit massiv verändern wird: „Its presence in our lives will transfigure our notions of space and time, self and other, citizen and society in ways that we haven't begun to contemplate. [...] We become acutely aware of our need for a more sensitive description of the terrain” (Greenfield 2006, S. 3). Wir können zeigen, dass sich die Anwendungskontexte bereits bei bekannten Systemen ständig ändern und vielfältiger werden: Büro und Desktop: Die überaus erfolgreichen WIMP Interfaces (Windows, Icons, Menus and Pointers) und die damit meist verbundene Desktop-Metapher stoßen zusehends an die Grenzen der Gebrauchstauglichkeit. Dies hat mit dem Zusammenspiel zwischen Artefakten, dahinterliegenden Speicherstrukturen und darauf zugreifenden Applikationen zu tun. Es existieren unnotwendige Hürden in der Nutzung. So ist zum Bei8
Technologien im Prototypstadium werden hier mit berücksichtigt, wenn davon auszugehen ist, dass eine unaufdringliche Ausführung nur eine Frage der Zeit und des Designs ist.
Ubiquitous Computing und Benutzerschnittstellen
167
spiel nicht einzusehen, warum E-Mails in einer eigenständigen Struktur gekapselt abgebildet werden und nicht als Textdateien in vom Benutzer gewählten Bereichen abgelegt werden. Die konsistente Verbindung von Artefakten und Nachrichten ist kaum möglich. Ein weiteres Beispiel stellt die Nutzung unterschiedlicher Präsentationsmodi dar (Einschirm, Mehrschirm, Publikumsprojektionen). Derartige Möglichkeiten sind hardwaretechnisch ausgereift und werden zunehmend eingesetzt. Jedoch bleiben diese aufgrund der inkonsistenten Steuerungsmöglichkeiten und der schlechten Softwareunterstützung weiterhin problematisch. Die sich ergebenden Potentiale können darum kaum umfassend genutzt werden. Mobile Systeme: Es ist bemerkenswert, in welch geringem Umfang individuelle an das Datennetz (GPRS, UMTS) gebundene Anwendungen – mit der Ausnahme Japan – tatsächlich eingesetzt werden, obwohl die aktuell verfügbaren Geräte bereits sehr leistungsfähig sind. Solche Anwendungen wurden bisher offensichtlich durch die damit verbundenen hohen und oft intransparenten Kosten (Datentarife) verhindert. Wir vermuten aber, dass ein weiterer Grund hierfür darin besteht, wie solche Applikationen in ein Gerät eingebunden werden. Es fällt auf, dass eine sinnvolle flexible Einbindung in die Menüstruktur der mobilen Geräte meist durch verbindliche Vorbelegungen der Netzanbieter behindert wird. Gerade dort wäre jedoch höchste Flexibilität erforderlich, damit Benutzer Funktionalitäten nach ihrem Geschmack und ihren Anforderungen anordnen, verknüpfen und verfügbar machen könnten. Wird in diesem Zuge über Location-Based Services (LBS) gesprochen, so fällt auf, dass diese durchwegs isoliert und nicht in ihrem Zusammenspiel betrachtet werden. Es scheint, dass ein solches Zusammenspiel unterschiedlichster Dienste aus kommerziellem Konkurrenzdenken nicht berücksichtigt wird. Doch eine sinnvolle Nutzung kann so nicht stattfinden. Home Entertainment: Entertainment: Hier wandelt sich die Rolle des Personal Computers in Richtung Entertainment-Zentrale in Haushalten. Dies bringt gänzlich neue Anforderungen an die Benutzungsschnittstelle mit sich (TVAusgabe, Fernsteuerung der Geräte). Das klassische WIMP Interface kann hier nicht mehr sinnvoll eingesetzt werden. Smart Homes: Homes: Die Idee der umfassenden Haussteuerung, obwohl technisch verfügbar, wurde bisher kaum realisiert. Dies mag daran liegen, dass bisherige Ansätze von einer zentralen Steuerungseinheit mittels Schaltpult, Touchpad oder PC ausgehen und Benutzer womöglich eher abschrecken. Es stellt sich nämlich die Frage, wer das System steuert und damit eventuell andere Mitbewohner bevormundet. Wird den Benutzern
168
Melcher, Hitz, Leitner, Ahlström
jedoch die Möglichkeit gegeben, diese Steuerung über dezentrale Objekte und Artefakte mit lokal begrenzter Auswirkung durchzuführen, dann scheint das Anwendungspotential erheblich größer. Kraftfahrzeuge: Hier halten Navigationssysteme, Bord-Computer, Car2Carund Car2Infrastructure- Systeme Einzug. Die Interaktion mit solchen Systemen erfordert spezielle Eingabemechanismen (Eingabegeräte, Sprachsteuerung) und Anzeigen, da die Aufmerksamkeit des Benutzers nicht vordergründig auf diese Systeme gerichtet werden kann. Im Moment werden hier ausschließlich proprietäre Lösungen angeboten. Dies ist vergleichbar mit dem fiktiven Szenario, dass Autohersteller Gas- und Bremspedale in beliebigen Anordnungen im Fahrzeug anbringen. Freizeit und Sport Monitoring: Monitoring: Es gibt mittlerweile eine Unzahl von Geräten zur Unterstützung von Trainingseinheiten (Uhren, Pulsmessung, Höhen- und Geschwindigkeitsmessung, Lokalisierung mittels GPS etc.). In diesem Bereich wird vor allem der Bedarf deutlich, die gewonnenen Daten zwecks Auswertung, Speicherung bzw. Präsentation auf andere Systeme zu übertragen. Diese Möglichkeiten werden hier nur sehr zögerlich ausgeschöpft. Anhand dieser Beobachtungen wird bereits deutlich, dass eine Weiterentwicklung von Computersystemen in Richtung UC unweigerlich stattfinden muss, zumal eine vernünftige Nutzung von IT nur durch deren intelligente und zurückhaltende Einbettung in die vielfältigen Kontexte möglich wird.
Bedürfnisänderung im Hinblick auf die Interaktion Merely improving interfaces makes the obstruction (your computer) nothing more than an easier to use obstruction. Doheny-Farina (1994)
Wir wenden uns nun der eigentlichen Frage zu, welche Konsequenzen sich durch UC für die Schnittstellengestaltung ergeben. „Wie interagiert man eigentlich mit unsichtbaren Computern? Offensichtlich sind hierfür neue Interaktionstechniken nötig, zum Beispiel bessere Sprachein- und -ausgabe oder sogar weitgehend implizite Schnittstellen“ (Gesellschaft für Informatik 2006). Vordergründig könnte man ja annehmen, dass die Anforderungen sinken, wenn die Systeme zusehends ‚unsichtbar’ werden. In Wahrheit
Ubiquitous Computing und Benutzerschnittstellen
169
ist es jedoch genau umgekehrt. Je unaufdringlicher, fließender und unsichtbarer Systeme werden, desto ‚besser’ müssen sie gestaltet werden, frei nach dem Motto: „Das Einfache ist nicht immer das Beste, aber das Beste ist immer einfach“. Fehler in der Interaktionslogik oder der Ausprägung wahrnehmbarer Interfacekomponenten fallen in diesem Kontext nämlich erheblich stärker auf, vergleichbar mit einem vertrauten Haushaltsgerät, das plötzlich unerwartete Geräusche von sich gibt. Damit wird der Fokus des Benutzers sofort weg von seinen Vorhaben und zurück auf das eigentliche System gelenkt. An erster Stelle ist wohl die Frage zu beantworten, wie aus der per definitionem unbegrenzbaren Menge an Special Purpose Interfaces und aus den ebenfalls nicht begrenzbaren Anwendungskontexten irgendwelche übergreifenden Schnittstellen-Paradigmen abgeleitet werden können. Dabei kommen wir sehr schnell zu dem Schluss, dass es sich bei diesen Paradigmen nicht um die Definition einer universellen Schnittstelle handeln kann, sondern um Richtlinien zur Ausprägung bestimmter (durch weitere Untersuchungen einzugrenzender) Faktoren, wie zum Beispiel: 1. 2.
3.
4. 5. 6.
die Gewährleistung der Benutzerautonomie, das heißt, die absolute Kontrolle über semantische strukturelle Verknüpfungen, über Datenbestände und Datentransfers mit Dritten durch den Benutzer; die Wahl der jeweils „besten Darstellung“ von Artefakten, wobei die konkrete Aufgabe und der Kontext in die Entscheidung einfließen. Auch hier muss dem Benutzer das selbständige Entscheiden ermöglicht werden; die Übertragbarkeit von Daten, Präferenzen, Strukturen von einem System auf das andere. Es scheint, dass nicht die unterschiedlichen Darstellungen auf unterschiedlichen Plattformen das Hauptproblem darstellen, sondern das Fehlen einer konsequenten und damit konsistenten Datenhaltung quer über alle Plattformen; die Wahl der jeweils „besten Eingabe- und Ausgabetechniken“ für die universellen Interaktionsaufgaben Navigation, Selektion, Manipulation und Systemkontrolle; der Grad der Modularität und damit das Vorhandensein definierter Schnittstellen zur beliebigen Kopplung von Interaktionselementen und Modalitäten; die Einfachheit (Simplicity) der Interfacelösung, bezogen auf die zu bewältigende Aufgabe. Übersimplifizierung wirkt sich dabei genauso negativ aus wie das Gegenteil.
Auf Basis dieser Betrachtungen formulieren wir folgendes Postulat: Es gibt eine Art „Vektorraum-Basis“ von Interaktionsmustern bezogen auf die
170
Melcher, Hitz, Leitner, Ahlström
genannten Dimensionen. Bestimmte darin enthaltene Kombinationen definieren die heute im Wesentlichen auftretenden Interfaces. Andere wurden noch nicht ausreichend untersucht bzw. noch nicht implementiert. Als einfaches Beispiel sei hier ein zeitbasiertes Medium genannt: Ein VCR Interface (Videorekorder-Bandsteuerung), kombiniert mit einem Timetrack (interaktive Zeitachse), stellt durch die Reduktion auf seine semantische Bedeutung ein zentrales Interaktionsmuster für die „serielle Darstellung und Bearbeitung“ von Artefakten dar und wird unabhängig von der konkreten Ausprägung verstanden. Es muss also untersucht werden, wie dieses Muster in den unterschiedlichsten Systemen und Kontexten realisiert werden kann, um es „ubiquitär“ verfügbar zu machen und gleichzeitig die eigentlich geforderte Konsistenz sicherzustellen. Es gibt beachtlich viele Interaktionsideen, die kaum genützt werden – wie zum Beispiel FishEye Views (Sarkar und Brown 1992), Starfield Displays (Ahlberg und Shneiderman 1993), Hyperbolic Trees (Lamping und Rao 1996) etc. –, obwohl damit bestimmte Interaktionsprobleme gelöst werden. Es scheint, dass dafür das derzeitige Verhältnis zwischen Betriebssystemen und Applikationen verantwortlich ist. Eine Implementierung solcher Mechanismen auf Applikationsebenen erlaubt nur eine isolierte Benutzung im Rahmen der jeweiligen Anwendung. Oft wäre jedoch die Einbettung derselben auf Betriebssystemebene zielführender. Dieser Ansatz wurde mit dem Fokus auf textorientierte Artefakte von Raskin (2000) ausführlich diskutiert. Setzt man seine Gedanken fort, so ist beispielsweise nicht einzusehen, warum die Darstellung einer interaktiven Mind-Map nur innerhalb einer dezidierten Applikation möglich ist und nicht als allgemein verfügbares Werkzeug zur Darstellung von Strukturen in verschiedenen Applikationen integriert werden kann, vergleichbar mit den allgegenwärtigen Listen, Bäumen und Tabellen. Interessant in diesem Zusammenhang ist auch die auf Weiser (1991) zurückgehende Idee, ein Fenster bzw. Programm von einem Gerät auf ein anderes zu übertragen. Das heißt, Systeme sollten nicht nur den Datenaustausch, sondern auch einen damit verbundenen Austausch von Funktionalitäten erlauben. Das Vorhandensein multipler Interfaces mit jeweils unterschiedlichen Paradigmen erschwert in den derzeitigen Ausprägungen die Erlernbarkeit und nachhaltige Beherrschung derselben. Doch auch die Vereinheitlichung basierend auf dominanten Paradigmen scheitert vielfach, da dadurch die inhärenten Vorteile einer Plattform nicht ausgenutzt werden können. Eine weitere Herausforderung an die Gestaltung von Systemen liegt in der verbesserten Unterstützung von peripherer Wahrnehmung und selektiver Fokussierung, beispielsweise in der Form von Ambient User Interfaces oder Calm Technology. Diesen Ansätzen liegt die Kritik an der Mo-
Ubiquitous Computing und Benutzerschnittstellen
171
nopolisierung der menschlichen Wahrnehmung und der Abschneidung ihrer Peripherie in der PC-Welt zugrunde. Ziel einer optimalen Gestaltung ist daher eine umsichtige systembestimmte Fokussierung. „Calm technology engages both, the centre and the periphery of our attention, and moves back and forth between the two” (Weiser und Brown 1995). Wie weit der Anspruch einer Interaktionstechnik und die vom Benutzer tatsächlich wahrgenommenen Eigenschaften auseinanderklaffen können, möchten wir am Beispiel DigiPen9 zeigen. Diese Technologie hat das Potential zur Allgegenwärtigkeit, indem sie versucht, eine Brücke zwischen dem händischen Schreiben auf Papier und der digitalen Erfassung von Texten zu schlagen. Vordergründig funktioniert diese Technik. Analysieren wir diese jedoch genauer, so zeigt sich, dass mehrere Faktoren eine „unaufdringliche“ und langfristige Nutzung verhindern: Es kann nicht jedes „universelle“ Papier verwendet werden, sondern es kommt nur Spezialpapier zur Anwendung. Der Formfaktor der verfügbaren Stifte ist meist zu klobig. Die Schrifterkennung ist noch immer nicht zuverlässig und es gibt keine geeigneten, in das zugrunde liegende System integrierten Möglichkeiten, die erfassten Artefakte sinnvoll zu verwalten. Eine große Herausforderung sehen wir weiters darin, die immer größer werdenden Informationsmengen durch das entsprechende InterfaceDesign zu bewältigen und adäquate Interaktionsmechanismen bereitzustellen. Unterschiedliche Plattformen eignen sich zur Darstellung unterschiedlicher Größenordnungen (Mengen) und stellen dazu unterschiedliche Möglichkeiten bereit. Das führt im Moment dazu, dass multiple parallele Strukturen ständig synchron gehalten werden müssen. Als markantes Beispiel sei die mehrfache inkonsistente Ausprägung des sogenannten Home-Ordners auf den von einem Benutzer verwendeten Systemen angeführt. Darüber hinaus werden die Datenbestände entlang bestimmter Dimensionen getrennt verwaltet (zum Beispiel Mail-Struktur vs. Dateistruktur). Konsistente Datenhaltung führt hier sehr schnell zum kognitiven Overload. Wir möchten darauf hinweisen, dass es auch Kontextsensitivität im negativen Sinn gibt. Diese führt zu von uns als Bubble Gum Interface bezeichneten Ausprägungen, in denen versucht wird das Interface ‚ungefragt’ auf implizite Verhaltensmuster und Präferenzen des Benutzers abzustellen. Damit wird das Prinzip der Benutzerkontrolle aufgegeben und ein falsch orientiertes Aneignungsprinzip angewandt.10 Aneignung soll jedoch nach wie vor durch Einzelpräferenzen oder durch Peer-Präfe9 10
http://www.bendit-interfaces.de Der Begriff des Aneignungsprinzips wird beispielsweise von Höök (2006) thematisiert.
172
Melcher, Hitz, Leitner, Ahlström
renzen (zum Beispiel Struktur eines Forums) und damit verbundenem Community Building stattfinden. In diesem Sinne möchten wir auch noch auf die Technologiewandelresistenz und Notwendigkeit der Weiterentwicklung von Interaktionstechnologien zu sprechen kommen. Wir sind überzeugt, dass Resistenz auftritt, wenn Benutzer das Gefühl haben, dass ihnen durch die Weiterentwicklung etwas genommen wird, was bereits durchaus adäquat seinen Zweck erfüllt hat. Wir erinnern uns zum Beispiel an die Diskussionen am Beginn der GUI-Ära Anfang der 90er Jahre. Etliche Benutzer, vor allem vermeintliche Profis, wollten den Norton Commander als Dateiverwaltungswerkzeug nicht missen, obwohl neue „Drag and Drop“ basierte Dateimanager angeboten wurden. Tatsächlich lag der Vorteil des Norton Commander in der einfachen und robusten Nutzung und nicht in der Ausprägung als CUI. Die Vorteile wurden letztlich ohne technologischen Grund aufgegeben. Ähnliches beobachten wir bei der Einführung ubiquitärer Technologien. Allesamt ‚knabbern’ sie and der Souveränität der Benutzer, verhindern damit aber die dauerhaft vorteilhafte Nutzung.
Datenschutz und Privatsphäre Datenschutz wird in all seinen Facetten, bezogen auf unterschiedlichste Anwendungen, laufend diskutiert. Wir wollen und können diese Diskussion im hier gegebenen Rahmen nicht führen, sehen jedoch einen sehr wichtigen Zusammenhang zwischen dem Schutz der Rechte des Benutzers und den von interaktiven digitalen Systemen angebotenen Verfahren. Es sei hier auf die 1973 vom Department of Health, Education, and Welfare in den USA entwickelten fünf Prinzipien des „Code of Fair Information“ verwiesen11: 1. 2. 3. 4.
11
There must be no personal-data record keeping whose very existence is secret. There must be a way for a person to find out what information about him is in a record and how it is being used. There must be a way for a person to prevent information that was obtained for one purpose from being used or made available for other purposes without his consent. There must be a way for a person to correct or amend a record of identifiable information about himself.
Gefunden als Sekundärzitat von Gary Marx im Zusammenhang mit „privacy and computing“ in Rheingold (1993), S. 294.
Ubiquitous Computing und Benutzerschnittstellen 5.
173
Any organization creating, maintaining, using, or disseminating records of identifiable personal data must assure the reliability of the data for their intended use and must take precautions to prevent misuses of the data.
Diese ‚einfachen’ Forderungen werden heute, gut dreißig Jahre später, derart konsequent nicht beachtet, dass sich der Verdacht aufdrängt, wir wären aufgrund der aktuell alles dominierenden technologischen Entwicklungen in unserer Autonomie damals weiter gewesen als heute. Wir möchten in diesem Zusammenhang aber auch auf spannende Entwicklungen hinweisen. Es wird bereits seit längerem untersucht, warum sich die Videotelefonie nicht in dem Maße durchsetzt wie von der Forschung skizziert und von den Netzanbietern sicherlich gewünscht. Microsoft Research hat die Ursachen analysiert12 und ist zu dem Schluss gekommen, dass Benutzer kein Interesse daran haben, ihren Aufenthaltsort preiszugeben. Dies hat zur prototypischen Entwicklung einer Videotelefonie-Software geführt, die es erlaubt, den sichtbaren Hintergrund für ein Gespräch beliebig auszutauschen, womit die Privatsphäre wiederum geschützt ist und zusätzlich eine kreative Nutzung ermöglicht wird. Lösungsansätze und Perspektiven „[…] ubiquitous computing is a very difficult integration of human factors, computer science, engineering, and social sciences“ (Greenfield 2006, S. 3). Aufgrund der sich hier abzeichnenden Entwicklungen und Problemstellungen ist ein Umdenken der an der Entwicklung ubiquitärer Systeme beteiligten Ingenieure, Wissenschaftler und letztlich auch der kommerziellen Auftraggeber unumgänglich. Insbesondere die HCI (Human Computer Interaction) Community sollte mit adäquaten Benutzungsschnittstellenparadigmen antworten und nicht nur bestehende Denkweisen und isolierte Interaktionsmuster fortschreiben. Durch ihre interdisziplinäre Ausrichtung und die Vermittlerrolle zwischen Mensch und Technik sollten HCI-Experten auch die Anwaltschaft für den Benutzer ‚wahr’ nehmen. Die Metaebene UC-Paradigmen werden intensiv erforscht und zusehends kommerziell sichtbar. Es fehlt jedoch ein konzeptueller Überbau, der dazu in der Lage wäre, die unterschiedlichen Bestandteile anhand wohlüberlegter Meta12
http://www.microsoft.com/uk/technet/fyi/issue6/thinking_machines.asp
174
Melcher, Hitz, Leitner, Ahlström
Benutzungsschnittstellenprinzipien zu verknüpfen und deren Eignung bezogen auf den Gesamtkontext zu beurteilen. Diese ‚fehlenden’ Prinzipien haben sich also auf die gesamte Infrastruktur des Benutzers zu beziehen und nicht nur auf die spezifische Einzellösung: (1) Der Benutzer muss wesentliche Aspekte der benützten Interfaces konfigurieren können und dürfen. UC wird oft so interpretiert, dass man aus angeblichen Komfortüberlegungen auch gleich die Möglichkeiten zur Konfiguration der Interfaces „weg gestaltet“ und die damit verbundenen Entscheidungen den Dienstanbietern überlässt. Diese sind jedoch oft von kommerziellen Überlegungen und weniger von der Idee der Gebrauchstauglichkeit geleitet, auch wenn letztere oft als Deckmäntelchen für das Marketing benützt wird. Bereits heute wird erkennbar, dass Anbieter die „always-on“ Strategie bevorzugen, wo ein Benutzer vielleicht sehr gerne mal ‚abschalten’ würde. Als Beispiel kann hier der Einfluss von Recommender-Technologien auf die Ausprägung von Web-Interfaces genannt werden. Natürlich sind Recommender sowohl für Anbieter als auch Nutzer von Vorteil, jedoch sollten Nutzer letzten Endes immer noch entscheiden können, wann und nach welchen Kriterien und Ordnungsprinzipien Inhalte angeboten werden. Es ist zu befürchten, dass sich vermeintlich intelligente Lösungen inhaltlich derart eng an die Benutzer und seine Umgebung anschmiegen, dass die Freiheit zur Objektivierung und Verweigerung abhanden kommt. Doheny-Farina (1994) postuliert in diesem Zusammenhang: In light of my concerns about Ubicomp, I want to propose a few principles of my own: 1. The normal state of anyone's computers is OFF. 2. The normal state of anyone's relationship to computer networks is UNCONNECTED. 3. The normal state of knowledge about the location of anyone is UNKNOWN whether connected or unconnected. 4. Connectivity and location is private information that must be protected by both technological and social policy mechanisms.
Eigenartig, dass ein solches Postulat nur ein gutes Jahrzehnt später bereits verwegen, wenn nicht sogar naiv klingt. Allein durch die Tatsache der Verfügbarkeit dieser technologischen Möglichkeiten wird das Gegenteil förmlich erzwungen. Sollte ein konkretes Interface per se nicht konfigurierbar sein, da die dazu notwendigen direkten Interaktionsmöglichkeiten fehlen, so sind diese über ein sekundäres Kontroll-Interface verfügbar zu machen. Web-Interfaces sind dazu hervorragend geeignet.
Ubiquitous Computing und Benutzerschnittstellen
175
(2) Der Benutzer muss jederzeit die Verfügungsmacht über sein Benutzerprofil behalten. Hier geht der Trend eindeutig in die andere Richtung. Das heißt, je netzgebundener, unaufdringlicher und integrierter die angebotenen Dienste, desto weniger Einfluss hat ein Benutzer auf die durch sein Verhalten und seine Tätigkeiten generierten Datenbestände. Erschwert wird die Kontrolle durch den Umstand, dass Lösungen für dieses Problem, falls überhaupt angeboten, immer proprietär sind. Das Ziel der Entwicklung und Nutzung allgegenwärtiger Rechnerinfrastrukturen kann und darf nicht mit der gleichzeitigen Aufgabe der Souveränität der einzelnen Benutzer erkauft werden. Im Moment herrscht aufgrund der ‚Goldgräberstimmung’ eher die Ansicht, dass hier alles erlaubt sei, auch wenn vordergründig anderes bekundet wird. Dies kommt jedoch der Aushöhlung von Bürgerrechten gleich und unterminiert damit langfristig das demokratische System. Wir wünschen uns daher ein „globales“ Verfahren, das eine kontrollierte Autorisierung und deren Widerrufung im Hinblick auf die Speicherung von Daten durch Dritte ermöglicht. Im Idealfall kann der Benutzer eine Liste aller exogen gespeicherten Profile abrufen und bei Bedarf modifizieren oder löschen. Daten, die als wesentlicher Vertragsbestandteil dienen, sind von der Forderung hinsichtlich Modifizierbarkeit und Löschbarkeit ausgeschlossen. Ein solches Verfahren ist zu standardisieren, um darauf aufbauend Schnittstellen definieren zu können. Es geht letztlich darum, den Benutzer mit einem zuverlässigen Sensorium auszustatten und ihn in die Lage zu versetzen, selbstbestimmt entscheiden zu können. Wird hier die technische Durchführbarkeit angezweifelt, so verweisen wir darauf, dass die Verwaltung einiger hundert bzw. tausend Profile selbst für mobile Systeme kein Problem darstellt. Damit reduziert sich das Problem auf eine entsprechend zuverlässige Verknüpfung der Einzelprofile eines Benutzers. Hier können Permalink-Verfahren zur Anwendung kommen, mit deren Hilfe dauerhaft gültige Verlinkungen gewährleistet werden können.13 (3) Unabhängig von den einzelnen Geräten muss der Benutzer die Möglichkeit haben, eine persönliche und persistente Metadatenstruktur zu verwalten und auf damit verbundene Inhalte in verschiedenen Kontexten (bedingt durch unterschiedliche Geräte, Lokationen und Aufgaben) zuzugreifen. Schon heute wird erkennbar, dass die persönliche Datenhaltung durch die heterogene Infrastruktur und das sogenannte n:m-Computing immens erschwert wird. Nicht die Zuverlässigkeit der Datenspei13
Permalink-Verfahren dienen der eindeutigen und vor allem ‚dauerhaften’ Identifizierung digitaler Artefakte mittels einer URL (Web-Adresse); vgl. Berners-Lee (1998).
176
Melcher, Hitz, Leitner, Ahlström
cherung selbst ist das Problem, sondern die Verwaltung der Datenbestände. In jedem einzelnen Gerät, jeder einzelnen Applikation und jedem einzelnen Dienst werden isolierte Datenbestände und -strukturen aufgebaut, die allenfalls durch mehr oder weniger explizite Synchronisationsvorgänge abgeglichen werden können. Die Effizienz solcher Lösungen beschränkt sich auf spezifische Anwendungsbereiche. Eine synergetische Nutzung ist kaum möglich. Damit wird jedoch die eigentliche Stärke von Rechnersystemen, nämlich ihre Abstraktions- und Verknüpfungspotentiale auf der Metaebene wieder verschenkt. Effizienzüberlegungen gehen nicht über die Außenhülle eines Systems hinaus. Das Problem wird zusehends erkannt und in Form von virtuellen Dateisystemen (VFS) eine Lösung versucht. Wir sind zuversichtlich, dass dieser Ansatz funktioniert, jedoch erfordert die Darstellung einer einheitlichen, personifizierten Meta-Struktur noch erhebliche Anstrengungen im Hinblick auf die optimale Darstellung. Hierarchische Dateisysteme sind nur begrenzt tauglich, da diesen Systemen assoziative Mechanismen fehlen. Hier sind auf allgemeinen Graphen basierende Strukturen (Mind Maps, Zooming Interfaces etc.) genauer zu untersuchen. Wir sehen gerade in diesem Bereich ein potentielles Anwendungsgebiet für die Nutzung dreidimensionaler Visualisierungstechniken (3DUI). Das heißt, wir nutzen diese Techniken nicht primär zur Detaildarstellung von Artefakten, sondern zur Vermittlung der sie umgebenden Strukturen. Artefakte selbst können, müssen aber nicht dreidimensional dargestellt werden. Am Beispiel von Texten wird unmittelbar deutlich, dass eine dreidimensionale Darstellung kaum sinnvoll wäre, jedoch die Verbindungen und Abhängigkeiten zwischen den Texten durchaus von einer solchen Darstellung profitieren könnten, wie am Beispiel einer Weiterentwicklung des PaperLens-Projektes14 gezeigt werden kann. Die Ausprägungen der Metastrukturen sollten nicht vorgegeben werden. Als Beispiel einer solchen Vorgabe kann die Idee der „Eigenen Dateien“ in Windows mit den verbindlich angelegten Unterordnern (Eigene Bilder, Eigene Musik, etc.) betrachtet werden. Diese Vorgaben versagen in dem Moment, da eine Applikation mit einer neuen Strukturidee darauf zugreift (zum Beispiel iTunes-Musikordner) oder der Benutzer Artefakte anders, zum Beispiel thematisch, ordnen will. An dieser Stelle zerfällt die Datenhaltung in inkonsistente Bruchstücke, die durch den kleinsten gemeinsamen Nenner, das eigentliche Dateisystem, zusammengehalten werden. Dabei sollte der Benutzer mit dem gerätespezifischen Dateisystem nur in Berührung kommen, wenn dies durch den Anwendungszweck erforderlich ist, zum Beispiel im Rahmen der Systemadministration. 14
http://www.cs.umd.edu/hcil/paperlens/
Ubiquitous Computing und Benutzerschnittstellen
177
An dieser Stelle ist auf den irritierenden Umstand hinzuweisen, dass bis heute kein einziges Betriebssystem einen konsequent einheitlichen Zugriffsdialog auf Dateien bereitstellt. Am konsequentesten ist hier das MacOS. In anderen Betriebssystemen kommen unterschiedlichste Dialoge zur Anwendung, was die Benutzung erschwert. (4) Als wesentliches Interface-Element fordern wir die konsequente, auf offenen Standards basierende Umsetzung des Unified-Messaging-Paradigmas. Benutzer sollen die Möglichkeit haben, alle bekannten Nachrichtenformate in einem zentralen Pool zu verwalten. Es ist ihnen dann der Zugriff auf diesen Pool in den unterschiedlichsten Kontexten mit der jeweils adäquaten Infrastruktur zu ermöglichen. Wird dieses Ziel nicht konsequent angestrebt, so werden viele skizzierte UC Anwendungsszenarien nutzlos, da die Benutzer die unüberschaubare Nachrichtenflut nicht mehr bewältigen können. (5) Es besteht eine Chance, die Nutzung allgegenwärtiger Infrastrukturen dadurch zu verstehen und zu vereinfachen, dass wir die Benutzeranforderungen auf unterschiedlichen Systemebenen identifizieren und entsprechende Lösungen erarbeiten. Wir plädieren daher für eine klare Ausprägung eines Schichtenkonzeptes. Am Beispiel von Windows XP kann gezeigt werden, dass die Austauschbarkeit von Diensten und funktionalen Modulen durch eine inkonsequente Umsetzung der Schichtengrenzen behindert wird. Zum Beispiel wird durch die zunehmende Integration von Web-Applikationsservices in die Windows-Architektur die technologische Grenze verwischt. Eine ‚oberflächliche’ Integration ist grundsätzlich positiv zu bewerten; wird dabei jedoch das Schichtenmodell durchbrochen, dann wird ein beliebiges, offenes Ineinandergreifen solcher Einheiten verunmöglicht. Eine unabhängige, evolutionäre Weiterentwicklung kann nicht stattfinden. Dies dürfte im zitierten Fall auch von den Herstellern beabsichtigt sein. Wir sind überzeugt, dass die Idee der Rechnerallgegenwart nicht zu 100 Prozent umgesetzt werden kann. Dies liegt zum einen an technischen Restriktionen (Energiebedarf, geographische Verfügbarkeit) und zum anderen an der immensen Komplexität und Kontextabhängigkeit, die zu bewältigen wäre. Vermeintlich allgegenwärtige Systeme haben daher auch weiterhin eine Außengrenze. Darin liegt nun aber auch die Wurzel für Konsistenzprobleme und unbeachtete Einflussfaktoren. Wir sind daher aufgefordert, uns zu überlegen, wie Information und Funktionalität über diese Grenzen hinweg fließen kann. Mit diesen Überlegungen eng verbunden ist folgende Aussage von Greenfield (2006, S. 2):
178
Melcher, Hitz, Leitner, Ahlström The vision is a lovely one: deeply humane, even compassionate. [...] Whatever improvement we hope to achieve by overlaying our lives with digital mediation, we'll have to balance against the risk of unduly complicating that which is presently straightforward, breaking that which now works, and introducing new levels of frustration and inconvenience into all the most basic operations of our lives.
Nachdem nun die Anforderungen auf der Metaebene identifiziert sind, können wir vielversprechende UC-Ansätze und deren Potentiale kritisch betrachten. Allen gemeinsam ist, dass sie sich von der klassischen Interaktion mittels Maus, Tastatur und Bildschirm entfernen, wobei diese Ansätze von uns nicht als Ersatz, sondern als Ergänzung zu klassischen Systemen diskutiert werden. Es geht also nicht um eine Entweder-OderEntscheidung, sondern um das Auffinden von synergetischen Nutzungspotentialen und dem damit verbundenen Paradigmenwechsel.
Mixed Realities Ubiquitous computing is roughly the opposite of virtual reality. Where virtual reality puts people inside a computer-generated world, ubiquitous computing forces the computer to live out here in the world with people. Weiser (1996)
Diese Betrachtungsweise deckt sich mit der Definition des „Mixed Reality Continuum“ nach Milgram und Kishino (1994). Die Virtual Reality (VR) wird dabei zum Gegenstück der Realität erklärt. Ähnlich legt Weiser das Gegensatzpaar zwischen UC und VR an. Damit ist UC viel näher an der Realität angesiedelt als an irgendeinem virtuellen Konzept. Betrachtet man Milgrams Kontinuum in Abbildung 2 auf der folgenden Seite, so stellt man fest, dass es in dieser Hinsicht einen engen Zusammenhang zwischen den Konzepten der Augmented Realities (AR) und des UC geben muss. Der Unterschied liegt möglicherweise vor allem im Fokus: AR versucht reale Umgebungen ‚sichtbar’ zu erweitern, während UC versucht, dies möglichst ‚unsichtbar’ zu tun. Viel wichtiger ist jedoch die Gemeinsamkeit zwischen AR und UC: Werden die Konzepte ernsthaft umgesetzt, so ist das angestrebte Ziel in beiden Fällen, die Realwelt des Benutzers nur soweit zu verändern, als dies für die Realisierung der jeweils beabsichtigten Funktionalität erforderlich ist. Damit wird versucht, möglichst nahe an der Realität zu bleiben. Wird eine solche Lösung also minimalistisch angelegt, und wird diese Erweiterung sorgfältig gestaltet, dann stellt diese einen echten
Ubiquitous Computing und Benutzerschnittstellen
179
Mehrwert für den Benutzer dar und kann als „intelligente“ Lösung bezeichnet werden. Daher rührt aus unserer Sicht die Distanz zur VR, die versucht, den Benutzer komplett zu vereinnahmen (totale Immersion). Aus diesem Grund betrachten wir das VR-Konzept, außer für Spezialanwendungen, nicht mehr als zukunftsträchtig. Es sei jedoch erwähnt, dass wir den Verdienst der VR-Forschung in der Entwicklung der notwendigen Technologien und des erweiterten Verständnisses der Mensch-Maschine-Beziehung sehen. Mixed Reality
Reality
Virtual Reality Augmented Reality
Augmented Virtuality
Abbildung 2: Mixed Reality Continuum nach Milgram In diesem Zusammenhang ist auch die Arbeit von Christopher Stapleton und seiner Gruppe (Stapleton, Hughes und Moshell 2002)15 von Interesse. Die Stapleton-Gruppe vertritt die Ansicht, dass Immersion vor allem auch über die Imagination des Benutzers zu bewerkstelligen ist. Diese Imagination wird dem Mixed Reality Continuum gegenübergestellt und damit ein Dreieck aller möglichen interaktiven Erfahrungen aufgespannt. Wir unterstützen diese Ansicht und betrachten Imagination als einen – oft zugunsten komplexer, aber kontrollierbarer technischer Umsetzungen – vernachlässigten Aspekt.
Das Internet der Dinge Damit werden vordergründig vor allem kommerzielle Applikationen bezeichnet. Waren werden dabei mit Hilfe von berührungslosen Identifikationsmechanismen wie RFID mit einer gewissen ‚Intelligenz’ ausgestattet. Die Idee ist also im Zusammenhang mit der Optimierung von Materialfluss und Logistik entstanden. In diesem Zusammenhang spricht man auch von Pervasive Computing und Silent Commerce. 15
http://www.mcl.ucf.edu/people.htm?http://www.mcl.ucf.edu/people/stapleton.htm
180
Melcher, Hitz, Leitner, Ahlström
Weiterführend sind Ideen, Objekte mittels RFID derart zu erweitern, dass diese sich auch untereinander verständigen können. Es geht dabei also um die „Autonomie der Dinge“, die zusehend selbstverwaltend werden bzw. ihren Weg selbst organisieren.16 Der Einfluss des Benutzers auf solche Abläufe ist gering, umgekehrt ist der Einfluss dieser Systeme auf die Möglichkeiten des Benutzers (Bestellungen im Internet) immens. Hier muss also die Forderung nach dem Schutz der Privatsphäre wiederholt werden. Benutzer müssen zum Beispiel die Möglichkeit haben, RFID-Tags auf Wunsch zu deaktivieren, um eine mögliche Rückverfolgung zu verhindern. In verstärktem Maße werden jedoch Ideen diskutiert und von uns untersucht, die sich mit den Einsatzmöglichkeiten von RFID abseits logistischer Problemstellungen befassen. Hier scheint die Möglichkeit interessant, Aktionen über identifizierbare Objekte auszulösen, zum Beispiel zum Zwecke der Haussteuerung. Bei der Gestaltung derartiger Systeme ist vor allem auf zwei Faktoren zu achten: Die Affordance17 der Objekte sollte im Zusammenhang mit den ausgelösten Aktionen stehen, und das konkrete Mapping18 muss durch den Benutzer jederzeit änderbar sein.
Embodied, Graspable und Tangible User Interfaces (EUIs) Der Trend zu immer kleineren, mobilen Geräten (Appliances) stellt uns vor große Herausforderungen hinsichtlich der Gestaltung von Interaktionsmechanismen. Es stellt sich nämlich die Frage, wie diese bedient und die umfangreichen Funktionen zugänglich gemacht werden können. Hier setzt die Idee an, vermeintlich natürliche Bewegungen zur Interaktion zu nutzen (Ishii und Ullmer 1997). Systeme dieser Art werden meist als Tangible Interfaces bezeichnet. Als in der Realität vorhandenes Analogon werden gerne Bücher herangezogen, die sowohl Inhalt als auch Navigationsmittel darstellen. Fishkin et al. (1998) stellen dies als einen Versuch dar, die kognitive Distanz zwischen einer Aufgabe und den zur Erfüllung notwendigen Aktionen zu minimieren. Die Aufgabe wird durch das Gerät verkörpert. Das Gerät dient sowohl als Input als auch als Output. Aufgrund des Formfaktors und der Leistungsfähigkeit wurden neben diversen konzeptionellen Objekten vor allem Mobiltelefone und Pocket PC zur Erforschung derartiger Interfaces herangezogen. 16 17
18
Vgl. Fraunhofer Institute – IML Podcast „Selbst ist das Paket!“. Affordance = subjektiv wahrgenommene Verwendungsmöglichkeit nach Norman (1988). Mapping = hier als Übertragung von Interaktionen (Skalierung, Orientierung, Positionierung) mit einem physischen Objekt auf ein digitales Objekt.
Ubiquitous Computing und Benutzerschnittstellen
181
Wir sehen diesen Ansatz als Möglichkeit, die Bandbreite der Interaktionstechniken zu erweitern. EUIs können vor allem in Augmented RealityAnwendungen nutzbringend eingesetzt werden. Die damit verbundenen Interaktionsmöglichkeiten sind jedoch trotzdem derart beschränkt, dass diese nur selten ausschließlich zur Anwendung kommen. Hier wird des Öfteren vorgeschlagen, solche Interfaces für die nichtdominante Hand zu entwerfen. Die unterschiedlichen Ausprägungen solcher Interfaces versuchen Fishkin et al. (1998) durch eine Taxonomie zu fassen. Sie schlagen vor, diese anhand der Dimensionen „Embodiment“ (full, nearby, environment, distant) und „Metaphor“ (none, noun, verb, verb and noun, full) zu klassifizieren. Werden die Implikationen derartiger Schnittstellen erst einmal verstanden, so könnte die dezidierte Abgrenzung wieder an Bedeutung verlieren. Ritual Based Interfaces (RUI)19 Wir arbeiten im Moment an Konzepten, die Benutzungsschnittstellen eng an ritualisierte (gewohnheitsmäßige) Verhaltensweisen von Benutzern koppeln. Zum Beispiel wird es dadurch möglich, eine Reihe von adäquaten computergestützten Aktionen auszuführen, wenn der Benutzer am Morgen aufsteht und als erkennbare Verhaltensweise (Trigger) die Vorhänge oder Rollläden öffnet: Licht geht an, Raumtemperatur wird angehoben, Radio geht an, Kaffee ist fertig, News und ToDos werden am Monitor angezeigt. All zu oft werden derartige Visionen gebetsmühlenartig zitiert (zum Beispiel der selbst „einkaufende“ Kühlschrank) und damit die Nutzung der technologischen Möglichkeiten als Selbstzweck vor die eigentlichen Bedürfnisse des Benutzers gestellt. Es lassen sich nämlich unschwer Argumente gegen die tatsächliche Verwendung einer solchen Idee finden (zum Beispiel die Gefahr der Aufgabe der Benutzerautonomie). Wir erwarten, durch die Untersuchung solcher Steuerungspotentiale herauszufinden, welche davon von Benutzern tatsächlich als ‚angenehme’ technologische Unterstützung wahrgenommen werden. UC versucht, rechnergestützte Funktionalitäten in die Realwelt einzubetten, ohne Benutzer allzu sehr zu ‚belästigen’. Dieses Ziel kann aber nur erreicht werden, indem der Benutzer diese Funktionalitäten flexibel und autonom an seine Gewohnheiten koppeln ‚darf’. „Machines that fit the 19
Der Begriff „Ritual Based Interface“ wird von den Autoren als Arbeitsbegriff verwendet.
182
Melcher, Hitz, Leitner, Ahlström
human environment, instead of forcing humans to enter theirs, will make using a computer as refreshing as taking a walk in the woods” (Weiser 1991, S. 104).
Ausblicke Sicher scheint, dass Weiser mit seiner Definition und Vorhersage des Ubiquitous Computing recht behält. Es besteht reges (wirtschaftliches) Interesse, solche technologischen Potentiale auszuschöpfen. Jedoch erscheint es uns wesentlich, die damit verbundenen Implikationen genauer zu untersuchen und ein besseres Verständnis für das resultierende Zusammenspiel zwischen Mensch und Technik zu entwickeln. Dieses Zusammenspiel wird aber gerade an den Schnittstellen der Benutzung sichtbar, deren bewusste Gestaltung das Hauptanliegen der HCICommunity ist. Abschließend sei noch einmal Greenfield (2006) zitiert, der UC als „Everyware“ beschreibt und eindringlich darauf hinweist, dass wir den eigentlichen Benutzer nicht aus den Augen verlieren dürfen: „[...] and as yet, the people who will be most affected by it, the overwhelming majority of whom are non-technical, non-specialist, ordinary citizens of the developed world, barely know it even exists […] The challenge now is to begin thinking about how we can mold that emergence to suit our older prerogatives of personal agency, civil liberty, and simple sanity“ (ebd., S. 4f).
Literatur Ahlberg, Cristopher und Ben Shneiderman (1993): „Visual Information Seeking – Tight Coupling of Dynamic Query Filters with Starfield Displays“. In: ACM CHI '94 Conference Proceedings. New York: ACM Press, S. 313317. Bederson, Benjamin, et al. (2002): „DateLens – A Fisheye Calendar Interface for PDAs”. Arbeitspapier. Erschienen als „DateLens: A Fisheye Calendar Interface for PDAs“. Transactions on Computer-Human Interaction 11/1[2004]: 90-119. Berners-Lee, Tim (1998): „Cool URIs Don't Change”. http://www.w3.org/Provider/Style/URI (Online-Ressource). Doheny-Farina, Stephen (1994): „The Last Link: Default = Offline. Or Why Ubicomp Scares Me“. Computer-Mediated Communication Magazine 1/6: 18. Fishkin, Kenneth P., Thomas P. Moran und Beverly L. Harrison (1998): „Embodied User Interfaces – Towards Invisible User Interfaces“. In: Procee-
Ubiquitous Computing und Benutzerschnittstellen
183
dings of the Seventh Working Conference on Engineering for Human-Computer Interaction. Deventer: Kluwer, S. 1-18. Fleisch, Elgar und Friedemann Mattern (2005), Hg.: Das Internet der Dinge – Ubiquitous Computing und RFID in der Praxis. Berlin: Springer. Gesellschaft für Informatik e.V (2006): „Pervasive/Ubiquitous Computing: Informatiklexikon“. http://www.gi-ev.de/service/informatiklexikon/informatiklexikondetailansicht/meldung/65/ (Online-Ressource). Greenfield, Adam (2006): Everyware – The Dawning Age of Ubiquitous Computing. Berkeley: New Riders. Höök, Kristina (2006) „Designing Familiar Open Surfaces“. In: Proceedings of NordiCHI 2006. New York: ACM press, S. 242-251. Ishii, Hiroshi und Brygg Ullmer (1997): „Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms“. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, S. 234-241. Lamping, John und Ramana Rao (1996): „Visualizing Large Trees Using the Hyperbolic Browser“. In: Conference Companion on Human Factors in Computing Systems: Common Ground. New York: ACM Press, S. 388-389. Milgram, Paul, Haruo Takemura, Akira Utsumi und Fumio Kishino (1994): „Augmented Reality – A Class of Displays on the Reality-Virtuality Continuum“. In: SPIE Proceedings Vol. 2351-34, Telemanipulator and Telepresence Technologies. Bellingham: SPIE, S. 282-292. Milgram, Paul und Fumio Kishino (1994): „A Taxonomy of Mixed Reality Visual Displays“. IEICE Transactions on Information and Systems E77-D/12: 1321-1329. Norman, Donald A. (1988): The Psychology of Everyday Things. New York: Basic Books. Raskin, Jef (2000): The Humane Interface – New Directions for Designing Interactive Systems. New York: ACM Press. Rheingold, Howard (1993): The Virtual Community. Homesteading on the Electronic Frontier. Reading: Addison-Wesley. Sarkar, Manojit und Marc H. Brown (1992): „Graphical Fisheye Views of Graphs“. In: Proceedings of the ACM SIGCHI ’92 Conference on Human Factors in Computing Systems. New York: ACM Press, S. 83-91. Stapleton, Christopher, Charles Hughes und J. Michael Moshell (2002): „Mixed Reality and the Interactive Imagination“. First Swedish-American Workshop on Modeling and Simulation, SAWMAS 2002. http://www.cs.ucf.edu/~ceh/Publications/Papers/CrossCutting/SAWMAS 02StapletonHughesMoshell.pdf (Online-Ressource). Weiser, Marc (1991): „The Computer for the 21st Century“. Scientific American 265/3: 94-104. Weiser, Marc (1994): „The world is not a desktop“. ACM Interactions 1/1: 7-8. Weiser, Marc (1996): „Ubiquitous Computing“. http://www.ubiq.com/hypertext/weiser/UbiHome.html (Online-Ressource).
184
Melcher, Hitz, Leitner, Ahlström
Weiser, Marc und John Seely Brown (1995): „Designing Calm Technology“. http://sandbox.xerox.com/hypertext/weiser/calmtech/calmtech.htm (Online-Ressource). Alle Online-Quellen geprüft im Juli 2007.
Emotionalität und Rationalität im digitalen Zeitalter. Eine Auseinandersetzung mit der Position von Eva Illouz Christina Schachtner*
Eines Tages, es war mitten im August, lag es in meinem Briefkasten. Es war ein Geburtstagsgeschenk. Ich nahm es mit in den Süden und las es am Morgen vor dem Haus, wenn die Lorbeerbäume noch ihre Schatten auf die Terrasse warfen: das Buch mit dem Titel Gefühle in Zeiten des Kapitalismus von Eva Illouz, erschienen im Jahr 2006 bei Suhrkamp. Ambivalente Gefühle begleiteten die Lektüre. Der Inhalt schien mir brisant, mich faszinierte, wie die Autorin neue Formen der Kommunikation in Wirtschaftsunternehmen, in Familien und im Cyberspace in den Kontext des Modernisierungsprozesses stellte, und zugleich hatte ich immer wieder den Impuls, zu widersprechen. Doch stets, wenn ich glaubte, die Ambivalenz in die eine oder andere Richtung auflösen zu können, nahm die Argumentation von Eva Illouz eine Wendung. Gegenstand dieses Buches ist die Geschichte der Emotionen1 als Nebenerzählung des Kapitalismus, die Trennung von Vernunft und Gefühl, deren jeweilige gesellschaftliche Verortung, deren Neuordnung in der Gegenwartsgesellschaft und schließlich die Frage, welche Rolle das Internet als neuer virtueller Verhaltensschauplatz in der Geschichte der Emotionen spielt. Die Texte beruhen auf den Adorno-Vorlesungen der Autorin an der Universität Frankfurt. Sie konfrontieren mit Denkansätzen, die das Denken einer Generation von WissenschaftlerInnen, zu der ich mich zähle, stark beeinflusst haben: mit der Kritischen Theorie, mit Modernisierungsdiskursen, mit dem Feminismus, mit einer psychologischpsychotherapeutischen Perspektive, und sie stellen vieles von dem, was mir (uns) lieb und teuer war, auf den Kopf.
* 1
Institut für Medien- und Kommunikationswissenschaft, Universität Klagenfurt. Die Begriffe „Emotionen“ und „Gefühle“ werden hier synonym verwendet. Sie bezeichnen den affektiven Aspekt des Erlebens, das in der Interaktion mit der sozialen und dinglichen Umwelt entsteht und das einen Handlungsimpuls darstellt (Drever und Fröhlich 1972, S. 89 ff, S. 115).
186
Schachtner
Die Erzählung über Emotionen ist Eva Illouz zufolge zwar eine Nebenerzählung (Illouz 2006, S. 9), aber eine nicht allzu verborgene. Von den Klassikern der Soziologie werden Emotionen vor allem im Hinblick darauf diskutiert, dass sie im Zeitalter der Moderne an Bedeutung verlieren oder verlieren sollen. Der häufig gleichzeitig formulierte Hinweis auf nötige Emotionskontrolle signalisiert, dass der Bedeutungsverlust des Emotionalen nicht zwangsläufig und nicht konfliktfrei erfolgt. Georg Simmel konstatierte in den 20er Jahren mit Blick auf die zunehmende Herausbildung von großstädtischen Strukturen, dass das Gemüt und gefühlsmäßige Beziehungen, die er als typisch für das kleinstädtische und dörfliche Leben betrachtete, im Zuge der Urbanisierung zurückgedrängt werden (Simmel 1995, S. 117). Dem „raschen und ununterbrochenen Wechsel äußerer und innerer Eindrücke“ (ebd., S. 116) in der Großstadt kann Simmel zufolge nicht mit einem kleinstädtisch und dörflich geprägten, in einem langsameren Rhythmus des Alltags verankerten Gemüt reagiert werden, das in den unbewussten Schichten der Seele wurzelt. Die Komplexität der Eindrücke im großstädtischen Alltag erfordere ein gesteigertes Bewusstsein und damit ein intellektualisiertes Seelenleben, das vor Überforderung und Entwurzelung schützt. Der Großstädter schafft sich laut Simmel gegen die Entwurzelung ein Schutzorgan, den Verstand (Simmel 1957, S. 228 f). Nicht die Überfülle sinnlicher Reize und die darin liegende Gefahr der Entwurzelung, sondern den Anspruch an ein gottgefälliges Leben, das in einem ökonomischen Handeln gründet, macht Max Weber für die steigende Bedeutung von Rationalität in der modernen, kapitalistisch geprägten Kultur verantwortlich (Weber 1920, S. 167 ff). Diese finde ihren alltäglichen Ausdruck in einer rationalen Lebensführung, die sich abgrenzt von Muße, Genuss und einem unbefangenen Sich-Ausleben. Kernstück der rationalen Lebensführung sei die Askese, die aus den Mönchszellen heraus in das Berufsleben übertragen worden sei und die innerweltliche Sittlichkeit beherrsche. Für Weber ist die Askese als Element eines rationalen Lebensstils eine Bedingung für den Aufbau einer an Technik gebundenen rationalen Wirtschaftsordnung (ebd., S. 188). Emotional motiviertes Handeln laufe dem Ethos dieser Ordnung und der rationalen Organisation von Arbeit zuwider (ebd., S. 174). Die Affekte müssen im Prozess der Zivilisation, der Teil des Modernisierungsprozesses ist, reguliert und modelliert werden, stellt Norbert Elias fest, dessen Kulturanalyse sich insbesondere auf den Übergang vom Mittelalter zur Neuzeit im 15. und 16. Jahrhundert richtet (Elias 1978, S. 186). Auch im Mittelalter waren Affektäußerungen nach Elias nicht völlig ungebunden und unmodelliert, aber die Kontrolle des Emotionalen habe sich durch die gesellschaftliche Arbeitsteilung und durch die intensivierte
Emotionalität und Rationalität im digitalen Zeitalter
187
Verflechtung der Menschen im Zuge der fortschreitenden Zivilisation verstärkt (ebd., S. 187). Wie eine Rüstung legten sich Vorschriften und Regelungen um das Triebleben. Die Zivilisationsbewegung sei darauf ausgerichtet, körperlich-emotionale Funktionen zu intimisieren, in bestimmten Enklaven einzuklammern und sie hinter verschlossene Türen zu verlegen. So bilde sich eine private und eine öffentliche Sphäre heraus. Emotionen gehörten in das Reich des Privaten, in das Reich der Familie. Der Elias’schen Kulturanalyse zufolge ist es erfolgversprechender, das Emotionale nicht einfach zu unterdrücken, sondern ihm einen exklusiven Ort zu geben, wo es dem gesellschaftlichen Fortschritt nicht gefährlich werden kann. Modernisierung und Modernität werden im soziologischen Diskurs überwiegend als Prozess der Rationalisierung beschrieben, der sich von einem Anderen abgrenzt und sich zu diesem Anderen ins Verhältnis setzt. Eva Illouz fragt nach dem spezifischen Verhältnis zwischen Rationalität2 und Emotionalität in der Gegenwartsgesellschaft. Sie tut dies mit Blick auf unterschiedliche Lebensbereiche wie Arbeitswelt, Familie, Partnerschaft und virtuelle Begegnungsräume, denen hier ein besonderes Interesse gilt. Trotz dieses spezifischen Interesses können die Lebensbereiche im so genannten real life nicht ausgeklammert werden, weil Aussagen über Emotionen im Cyberspace erst vor dem Hintergrund der Gewichtung von Emotionen im gesamten gesellschaftlichen Zusammenhang verstehbar werden. Im ersten Teil des Beitrags werde ich den Blickrichtungen von Eva Illouz folgen, im zweiten Teil versuche ich, diese Blickrichtungen in den Modernisierungsdiskurs einzuordnen und den gesellschaftspolitischen und erkenntnistheoretischen Gehalt des Ansatzes von Illouz zu bestimmen. Abschließend diskutiere ich die Frage: „Wo kann Kritik als Korrektiv gesellschaftlicher Entwicklung heutzutage ansetzen?“
1
Gegenläufige Tendenzen im Modernisierungsprozess der Gegenwartsgesellschaft
Galten die Berufs- und Arbeitswelt neben der Politik im bisherigen Modernisierungsdiskurs als die zentralen Territorien rationalen Denkens und Handelns und die Familie als Enklave für das ausgegrenzte Andere, so behauptet Eva Illouz das aktuelle Vorhandensein gegenläufiger Tendenzen. 2
Rationalität wird als eine schlüssige, vom Verstand her begründete Urteilsbildung verstanden. Rationales Verhalten beruht auf intellektueller Einsicht und bildet den Gegensatz zu irrationalem Verhalten. Der Begriff „rational“ wird aber auch oft, so wie in diesem Beitrag, dem Begriff „emotional“ gegenübergestellt (Drever und Fröhlich 1972, S. 222).
188
Schachtner
1.1 Emotionalisierung der ökonomischen Sphäre Die Ursachen für die Emotionalisierung der ökonomischen Sphäre sieht Eva Illouz in strukturellen Veränderungen wie die Entstehung interdependenter ökonomischer Netzwerke, die damit einhergehende Notwendigkeit zur Kooperation und zur Verteilung von Verantwortung innerhalb und zwischen Unternehmen. Um effizient in diesen neuen Strukturen zu agieren, sind der Autorin zufolge nicht nur rationales Denken und Handeln gefragt, sondern zunehmend auch psychische Kompetenzen wie Empathie, Anerkennung, Ambiguitätstoleranz, Kommunikations- und Beziehungsfähigkeit. Das ruft – so Illouz – die PsychologInnen auf den Plan, die sich als SpezialistInnen jenes Wissens präsentieren können, das nötig ist, um das emotionale und soziale Potenzial in Wirtschaftsunternehmen zu mobilisieren. Das psychologische Wissen sei willkommen, denn es verspreche, das Arbeitsklima zu verbessern und Hierarchien abzubauen, kurz: die Demokratisierung der Beziehungen zwischen Managern und Arbeitern zu fördern. Es erzeuge den Glauben, die Persönlichkeit des Einzelnen sei der Schlüssel für beruflichen Erfolg. Die Psychologie erarbeitet im Sinne des neuen emotionalen Stils in Unternehmen neue Verhaltensmodelle zur Kommunikation am Arbeitsplatz, zur Teamarbeit, zur lernenden Organisation, in denen emotionale und kommunikative Kompetenzen den Dreh- und Angelpunkt bilden. Als ein bekanntes Beispiel, das die Beobachtungen von Eva Illouz bestätigt, kann das Buch Die fünfte Disziplin (1999) genannt werden, in dem Peter Senge eine Vision vom Unternehmen der Zukunft entwirft. Die von Senge genannten Erfolgskriterien haben einen unübersehbar emotionalen Charakter. Die „Spitzenorganisationen der Zukunft“ (Senge 1999, S. 12) brauchen, so heißt es, auf allen Ebenen MitarbeiterInnen, die im kommunikativen Austausch Hoffnungen und Visionen entwickeln, die leidenschaftlich gern lernen, die miteinandern lernen, die einander vertrauen. Senge plädiert unter Rekurs auf Daniel Yankelovich für das Ende instrumenteller Sichtweisen, bei denen Arbeit als reines Mittel zum Zweck gilt, zugunsten einer eher „heiligen“ Sichtweise, bei der intrinsische Belohnungen im Vordergrund stehen (Yankelovich 1981, S. 13). Männer und Frauen in modernen Unternehmen sind, so Eva Illouz, dazu eingeladen, empathisch und emotional ansprechbar zu sein, ihre Emotionen zu kontrollieren, sich selbst durch die Augen anderer zu sehen (Illouz 2006, S. 41). Illouz konstatiert eine Neuordnung der emotionalen Kultur, aus der ein emotionaler Kapitalismus hervorgeht, in dem sich auch der männliche Manager auf das Ideal eines traditionellen weiblichen Selbstverständnisses hin bewegt. Die in den Unternehmen sich
Emotionalität und Rationalität im digitalen Zeitalter
189
ausbreitende kommunikative Ethik verwischt ihrer Ansicht nach die Geschlechterdifferenzen. Ich teile die Ansicht von Eva Illouz, dass die emotionale Dimension in der Arbeitswelt als wichtige Bedingung für individuellen und organisationellen Erfolg erkannt wurde und dass verstärkt mit Hilfe psychologischer Modelle an dieser Dimension gearbeitet wird. Aber ich zweifle, ob dies als eine Emotionalisierung des Kapitalismus bezeichnet werden kann, die eine Gegenläufigkeit zur Rationalisierung der ökonomischen Sphäre begründet. Psychisches Geschehen zu thematisieren und kommunikativ zu bearbeiten bedeutet ja gerade, es einer rationalen Behandlung zugänglich zu machen. Es scheint vielmehr, dass die Modernisierung einen Punkt erreicht hat, an dem die Einbindung des Emotionalen in die Arbeits- und Unternehmensorganisation den rationalen Zielen eines Unternehmens dienlicher ist als deren Ausklammerung, so wie sie im etablierten Modernisierungsdiskurs mit Blick auf den bisherigen Modernisierungsprozess angenommen worden ist. Es ist Eva Illouz auch insofern zuzustimmen, dass die Aufforderung an Männer und Frauen, über ihre Gefühle in Arbeits- und Geschäftszusammenhängen zu reflektieren, die Tendenz zur Verflüssigung der Geschlechterdifferenzen hat, jedenfalls auf dem Gebiet emotionaler Expressivität. Es stellt sich jedoch die Frage, weshalb bei Illouz ein Bedauern angesichts einer solchen Entwicklung anklingt, liefern die tradierten Geschlechterdifferenzen doch auch die Legitimation für die Gestaltung der Geschlechterverhältnisse als Machtverhältnisse. Die Trennlinie zwischen Ratio und Gefühl, zwischen Mann und Frau konstituiert eine Ordnung, in der die beiden Bereiche und die ihnen zugeordneten Geschlechter gegeneinander hierarchisch gesetzt sind. 1.2 Rationalisierung des Privaten Auslöser für die Rationalisierung des Privaten ist nach Illouz die feministische Bewegung, die Frauen dazu ermutigt hat, die einander widersprechenden gesellschaftlichen Sphären Beruf und Familie und damit auch kontrastierende Tätigkeiten und Werte miteinander zu verbinden, nämlich Sorge und Pflege mit Autonomie und Selbständigkeit (Illouz 2006, S. 45 ff). Dieser feministische Anspruch wird nach Illouz umgesetzt, indem die Ideale der Freiheit und der Gleichheit in das Verhältnis zwischen den Geschlechtern hineingetragen werden. Sexuelles Vergnügen ist diesem Anspruch zufolge an faire und gleiche Beziehungen zwischen den Geschlechtern geknüpft. Die Herstellung von partnerschaftlichen Verhältnissen zwischen Mann und Frau erfordere, Emotionen, Bedürfnisse und Verletzungen zu verbalisieren, wofür die Psychologie Konzepte und Ver-
190
Schachtner
fahren anbiete. Mit Hilfe der Psychologie werde das intime Leben in einen mess- und kalkulierbaren Gegenstand verwandelt (Illouz 2006, S. 55). Was Eva Illouz im Privaten beobachtet, erinnert an die bereits von Max Weber benannte rationale Lebensführung, durch die der Prozess der Modernisierung auch auf die private Welt von Familie und Partnerschaft überspringt (Weber 1920, S. 187). Sowohl für Illouz als auch für Weber bedarf es spezifischer Mittel, um die Rationalisierung des privaten Lebens sicherzustellen. Für Illouz sind solche Mittel zum Beispiel die zahlreichen Ratgeber für eine gute Ehe und ein erfülltes Sexualleben; Weber erwähnt Erziehungstechniken, Techniken der Askese und erotische Techniken (Weber 1972, S. 32). Mittel und Techniken dieser Art dienten dem Subjekt dazu, sich über seine Bedürfnisse und Emotionen klar zu werden, was erfordere, sie zu behandeln wie „äußerliche Gegenstände, die beobachtet und kontrolliert werden sollen“ (Illouz 2006, S. 58). Mit ihrer Hilfe entziehe man sich dem „unreflexiven Charakter der Erfahrung und verwandelt emotionale Erfahrung in Emotionswörter“ (ebd., S. 55). Die intensivierte Reflexion emotionaler Erfahrungen verstärke die Wahrscheinlichkeit, so prognostiziert Illouz, dass Beziehungen ihres „besonderen Charakters verlustig“ gehen (ebd., S. 59) und zu kognitiven Objekten werden, die miteinander verglichen und zum Gegenstand von Kosten-Nutzen-Analysen werden (ebd.). Die negative Konnotation dieser Prognose ist unüberhörbar. Es soll nicht bestritten werden, dass unter dem Einfluss psychologischen Wissens und der Reflexion spontane emotionale Reaktionen eingeschränkt werden und das Risiko besteht, dass emotionale Beziehungen modellgerecht geformt werden. Andererseits kann die Bewusstmachung von Gefühlen zu einem konstruktiven Umgang mit Aggression und zur Demokratisierung der Geschlechterbeziehungen führen. Illouz fordert mit Rekurs auf Weber, die Errungenschaften von Freiheit und Gleichheit nicht als letztgültige Maßstäbe der Bewertung sozialer Transformationen heranzuziehen (ebd., S. 50). Die Aufmerksamkeit sei vielmehr darauf zu richten, wie „Gleichheit und Freiheit die emotionale Textur intimer Beziehungen verwandelt haben“ (ebd.). Die Realisierung von Gleichheit erfordere eine Rationaliserung weiblichen Verhaltens in der Privatsphäre; Frauen müssten sich, um ihre Beziehungen neu zu ordnen, „sorgfältig zum Gegenstand eigener Beobachtung machen, ihre Emotionen kontrollieren, ihre Entscheidungen bewerten und den von ihnen präferierten Handlungskurs bewusst wählen“ (ebd., S. 53). Dieser reflexive Akt fixiere Emotionen, was ihrem flüchtigen Charakter entgegenstehe (ebd.).
Emotionalität und Rationalität im digitalen Zeitalter
191
Eva Illouz behauptet, so kann zusammenfassend festgehalten werden, gegenläufige Tendenzen im Verhältnis zwischen Emotionen und Rationalität als Ausdruck sozialer Transformation in der Gegenwartsgesellschaft. Die Gegenläufigkeit besteht darin, dass dort, wo traditionell die Rationalität Regie geführt hat, in der Arbeits- und Berufswelt, Emotionen ins Zentrum gerückt werden und dort, wo man die Enklaven des Emotionalen gewähnt hat, in Familie und Partnerschaft, rationale Verfahren zur Regelung des Zusammenlebens herangezogen werden. Als Triebfeder der Transformation betrachtet sie die Verzahnung der Diskurse der Psychologie bzw. der Psychotherapie mit dem feministischen Diskurs. Sie zeigt die Wirksamkeit der Vermischung der beiden Diskurse insbesondere am Beispiel der Geschlechterbeziehung in Ehe und Partnerschaft auf, wofür der Feminismus die Ziele liefert und die Psychologie die Mittel. Die Funktion der Psychologie wird von Illouz für familiale und berufliche Zusammenhänge ähnlich beschrieben; die Psychologie in Gestalt kommunikativer Verfahren diene hier wie dort dazu, das immer schon vorhandene, aber übersehene und missachtete (in der Berufswelt) oder unreflektiert gelebte (in der Familie) Andere explizit zu machen, zu analysieren und zu gestalten. Warum dieser Vorgang im Bereich der Arbeitsund Berufswelt von Eva Illouz als Emotionalisierung bezeichnet wird und im Bereich der Familie als Rationalisierung, diese Frage findet bei Illouz keine Beantwortung. Obschon Eva Illouz im Verlauf ihrer Analyse auf Hierarchieabbau, auf die Aufrechterhaltung weiblicher Grundrechte und auf dazugewonnene Autonomie als Effekte des sich verändernden Verhältnisses zwischen Rationalität und Emotionalität in unterschiedlichen Lebensbereichen verweist, überwiegt in ihrer Bewertung dieser Entwicklung ein Jargon des Nicht-Wünschbaren, des Defizitären. Kritisch betrachtet sie insbesondere die mögliche Verflüssigung der Geschlechterdifferenzen, die sich für Illouz dadurch andeutet, dass in den Unternehmen eine „Neuausrichtung von Maskulinität auf weibliche Selbstmuster hin“ stattfindet, während in der Familie Frauen den „Status autonomer und selbst kontrollierter (männlicher) Subjekte für sich beanspruchen“ (Illouz 2006, S. 50). Darüber hinaus scheint Illouz im Nachdenken, Reden und Streiten über Emotionen die Gefahr zu sehen, dass „man sich dem Fließen und dem unreflexiven Charakter der Erfahrung“ (ebd., S. 55) entzieht, das heißt der spontanen emotionalen Erfahrung verlustig geht, weil man immer schon psychologische Kriterien im Kopf hat, die das spontane Erleben filtern.
192 2
Schachtner Das Internet als Schauplatz radikaler Rationalisierung
Die neuen Informations- und Kommunikationstechnologien haben neue Verhaltensschauplätze generiert, an denen kommuniziert, gespielt, kooperiert wird; an denen sich Menschen treffen, verlieben, streiten, versöhnen. Man kann von virtuellen Räumen sprechen, wenn man dem Raumbegriff von Georg Simmel folgt, wonach sich Räume nicht durch geografische Ausmaße bilden, sondern durch „psychologische Kräfte“ (Simmel 1922, S. 460 ff), die Menschen miteinander verbinden. Räume konstituieren sich nach Simmel als eine „Tätigkeit der Seele“ (ebd.). Dieses Merkmal trifft auf die webbasierten kommunikativen Sphären nicht nur unter anderem zu, es steht vielmehr im Mittelpunkt des Geschehens im Cyberspace. Virtuelle Räume werden mit der Intention aufgesucht, mit anderen in Beziehung zu treten und selbst dann, wenn das Internet nur zur Informationsrecherche genutzt wird, trifft man auf kommunikative Inhalte und Botschaften, mit denen man in Interaktion tritt. Die virtuellen Räume werden mit steigender Tendenz als Verhaltensschauplätze genutzt, auch wenn nach wie vor der so genannte digital divide, der ungleiche Zugang zu den neuen Informations- und Kommunikationstechnologien, zu konstatieren ist. Während in Nordamerika 69,4% der Bevölkerung einen Zugang zum Internet hat, liegt Afrika, wo nur 3,5% der Bevölkerung das Internet nutzen, am untersten Ende der Skala der InternetnutzerInnen. Europa liegt mit einer Rate der Internetnutzung von 38,6% im Mittelfeld (Quelle: http://www.internetworldstats.com, Stand: 1.2.2007). Aber gerade jene Länder und Kontinente, die als benachteiligt gelten, verzeichnen die höchsten Zuwachsraten. In Afrika ist der Anteil der Internetuser an der Gesamtbevölkerung zwischen 2000 und 2006 um 625,8% gestiegen, in Lateinamerika und in der Karibik um 370,7% (ebd.). In der Diskussion über soziale und kulturelle Transformation können die virtuellen Räume schon angesichts ihrer zunehmenden quantitativen Bedeutung als kommunikative Verhaltensschauplätze nicht ausgespart bleiben. Es ist zu klären, in welcher Weise diese Räume von den beschriebenen Transformationen betroffen sind. Dieser Frage geht Eva Illouz in ihrer Analyse ebenfalls nach und kommt zu dem Ergebnis, dass das Internet Ort einer radikalen Rationalisierung von Gefühlen ist (Illouz 2006, S. 115 ff). Illouz stützt ihre These auf eine empirische Untersuchung von Partnersuchdiensten (eharmony.org; watch.com), wobei es sich um Internetseiten handelt, die Partnerschaften vermitteln. Diejenigen, die diese Suchdienste in Anspruch nehmen, entwickeln mit Hilfe eines standardisierten Fragebogens ein verschriftlichtes Profil ihrer Persönlichkeit, mit dem sie sich potenziellen PartnerInnen online vorstel-
Emotionalität und Rationalität im digitalen Zeitalter
193
len. Die virtuelle Performance wird durch ein Foto ergänzt. Illouz hat 15 Israelis und 10 AmerikanerInnen (die Geschlechtszugehörigkeit der Befragten wird nicht expliziert) nach ihren Motiven für die Inanspruchnahme dieser Partnersuchdienste und nach ihren Erfahrungen mit diesen Diensten befragt (Illouz 2006, S. 115 ff). Sie stellt auf der Basis der empirischen Daten fest, dass die virtuelle Präsentation ein hohes Maß reflexiver Selbstbeobachtung und Selbstklassifizierung erfordert (ebd.). Sich auf diesen Prozess als BenutzerIn der Suchdienste einzulassen, bedeutet nach Illouz, insofern auf psychologische Kategorien zu rekurrieren, als „das Selbst konstruiert [wird], indem es in einheitliche Kategorien des Geschmacks, der Meinung, der Persönlichkeit und des Temperaments aufgeteilt wird, so dass es anderen unter Bezug auf die Idee und Ideologie psychologischer und emotionaler Kompatibilität begegnen kann“ (ebd., S. 119). Illouz konstatiert: Das „Internet [trägt], wie das psychologische Weltbild insgesamt, zu einer Textualisierung der Subjektivität bei […], das heißt zu einer Art des Selbstzugangs, die das Selbst mit Hilfe visueller Mittel der Repräsentation und Sprache externalisiert und objektiviert“ (ebd.). Illouz behauptet damit auch für die virtuellen Räume eine Entwicklung zwischen den Geschlechtern, die der Entwicklung der Partnerschaften im so genannten real life entspricht. Die am Beispiel von Partnersuchdiensten analysierten Netzbegegnungen werden von Illouz mit der „romantischen Begegnung“ verglichen, die sie als traditionelle erotische Begegnung behauptet. Ging in der „romantischen Begegnung“ nach Illouz die Anziehung dem Wissen über den anderen voraus, so ist es in der Netzbegegnung umgekehrt: Die Anziehung basiert auf dem Wissen über den/die potenzielle(n) PartnerIn. Die romantische Liebe bedurfte „keiner kognitiven oder empirischen Kenntnisse […], um zu wissen: Das ist er!“ (ebd., S. 134). In dieser Art der Liebe „triumphiert die emotionale Spontaneität, während „das Internet einen rationalisierten Modus der Partnerwahl“ (ebd.) verlangt. Es sieht laut Illouz so aus, „als hätten die Architekten der Partnersuche im Internet alle düsteren Diagnosen“ (ebd., S. 13) der Kritischen Theorie in Gestalt von Instrumentalisierung, Verdinglichung, totaler Administration und dergleichen umgesetzt. Obwohl Illouz ihre Ergebnisse aus einem spezifischen virtuellen Verhaltensschauplatz gewinnt, schränkt sie die Gültigkeit ihrer Ergebnisse nicht auf den Bereich der virtuellen Partnervermittlung ein. Sie formuliert vielmehr auf der von ihr ermittelten Empirie allgemeine Aussagen über das Internet und dessen Rolle im Modernisierungsprozess. Ein Internetselbst zu haben, bedeutet für Illouz, ein cartesianisches Ego zu haben (ebd., S. 266), das heißt ein Ego, das sich dem Körper entwindet und sich allein auf die Ratio stützt. Ein ähnlicher Gedanke taucht bei Slavoj
194
Schachtner
Žižek auf, wenn er von einem Selbst im Cyberspace schreibt, das sich von der Bindung an seinen natürlichen Körper befreit und in eine virtuelle Entität verwandelt (Žižek 2001, S. 81). Während Žižek jedoch diese Auffassung vom Selbst als eine Ideologie charakterisiert, wird sie von Illouz als empirische Tatsache behandelt. Das Internet scheint aus ihrer Sicht „den Prozess der Rationalisierung der Emotionen und der Liebe auf ein von den kritischen Theoretikern nie erträumtes Niveau zu heben“ (Illouz 2006, S. 136). Ich möchte an dieser Stelle die Untersuchungsergebnisse von Illouz mit Ergebnissen aus anderen Untersuchungen, darunter auch eigenen, vergleichen, die sich ebenfalls mit Fragen der Kommunikation, der Selbstdarstellung, der Beziehungen im Netz und deren emotionaler Qualität befassen. Es ist jedoch festzuhalten, dass in den Vergleichsstudien nicht nur erotische Beziehungen untersucht wurden, wie in den Studien von Eva Illouz. Thomas Leithäuser und Paulina Leicht gingen der Frage nach, inwieweit junge Erwachsene in der webbasierten Kommunikation in Chats Erfahrungen sammeln, die auf ihre Identitätsentwicklung Einfluss nehmen (Leithäuser und Leicht 2001, S. 5). Sie befragten 143 Chatter (99 männliche und 44 weibliche Chatter) mittels eines Fragebogens und führten zusätzlich sechs Interviews. 57% der befragten Chatter gaben an, dass man im virtuellen Raum „intensive Beziehungen zu anderen Menschen aufbauen kann“ (ebd., S. 21 ff). Im Sinne von Illouz wurde von den Chattern mitgeteilt, dass verschriftlichte Emotionen bewusster seien und besser kontrolliert werden könnten, doch dies wurde im Unterschied zu Illouz nicht als Objektivierung und Instrumentalisierung von Gefühlen erlebt, sondern vielmehr als Bedingung für eine Intensivierung von Gefühlen (ebd., S. 25 f). Auch scheint es den Ergebnissen von Leithäuser und Leicht zufolge so zu sein, dass im Chat spontane Gefühle entstehen, ohne dass man sehr viel voneinander weiß, eine Erfahrung, die nach Auffassung der Befragten zu face-to-face-Begegnungen kontrastiert, wo „ein spöttisch herabgezogener Mundwinkel“ oder eine „sorgenvoll in Falten gelegte Stirn“ (ebd., S. 36), also empirische Beobachtungen, spontane Emotionalität blockieren. Diese Erfahrungen besagen, dass im Chat spontane emotionale Zuwendung dem Wissen über den anderen vorausgeht und im real life empirische Beobachtung, also Wissen, die emotionalen Reaktionen reguliert. Dieses Ergebnis scheint der von Illouz vertretenen These zum Verhältnis zwischen Wissen und spontaner Emotionaliät an virtuellen Verhaltensschauplätzen zu widersprechen. Ob es sich tatsächlich um widersprüchliche Ergebnisse handelt, kann hier nicht entschieden werden, da die kontrastierenden Ergebnisse in verschiedenen, wenngleich nicht grundsätzlich verschiedenen Anwendungsbereichen des Internets gewonnen wurden.
Emotionalität und Rationalität im digitalen Zeitalter
195
Auch ein Blick auf das vom SWR-Kinderfunk initiierte und betreute Online-Kummernetz lässt rasch erkennen, dass webbasierte Kommunikation emotional stark besetzt sein kann. Kinder drücken hier in Text und selbst angefertigten Zeichnungen ihre emotionalen Empfindungen aus. Insbesondere sind es Ängste, etwa die Angst vor dem Tod oder die Angst vor Gewalt, die aus den verbalen und visuellen Mitteilungen spricht und die bei den angesprochenen Adressatinnen auf Mitgefühl stoßen. Angi zum Beispiel, eine Userin des Kummernetzes, tröstet ein anderes Mädchen, das befürchtet, dass ihre Eltern sich trennen könnten. „Ich denke, du kannst das schaffen“, schreibt Angi dem anderen Mädchen, „Gib nicht auf …! Nur Mut“ (www.kummernetz.de). Es ist Eva Illouz darin zuzustimmen, dass der Ausdruck von Gefühlen in Bild und Text auch bedeutet, diese in gewisser Weise von sich abzutrennen. Darin steckt ein Moment der Rationalisierung, aber das muss nicht notwendigerweise bedeuten, dass sich damit die düsteren Diagnosen der kritischen Theoretiker in Gestalt von Instrumentalisierung, Manipulation und Verdinglichung erfüllen. Das Beispiel der emotionalen Reaktionen auf Mitteilungen im virtuellen Kummernetz zeigt, dass Kinder sich auch von verschriftlichten Gefühlen emotional angesprochen fühlen. In einer eigenen Studie mit dem Titel „E-Network“3 wurden Kommunikationsformen und Gemeinschaftsbildung in virtuellen Mädchenund Frauennetzen untersucht. Es wurden 33 Interviews mit Netzakteurinnen aus Mädchen- und Frauennetzen geführt; außerdem wurde in vier Netzwerken über drei Monate hinweg eine Kategorisierung sämtlicher Netzdiskussionen vorgenommen; 15 Netzdiskussionen wurden einer detaillierten Netzanalyse unterzogen. Eines der Ergebnisse war, dass das Netzwerk zu einer emotionalen Heimat werden kann, das heißt zu einem Ort, dem sich die Netzakteurinnen emotional verbunden und zugehörig fühlen. Eine 17jährige Netzakteurin drückt ihr emotionales Engagement in einem Bild aus, das sie als grafische Antwort auf die Frage „Was bietet mir das Netzwerk?“ gezeichnet hat (siehe Abbildung 1 auf der folgenden Seite). Das Bild zeigt ein Herz mit der Inschrift „Große Familie“. Das Herz stehe für Liebe und Freundschaft, die sie im Netz finde. Sie habe nicht das Gefühl, mit Fremden zu diskutieren, sondern mit Menschen, denen sie sich verbunden fühle. 3
Die Untersuchung wurde vom BMBF gefördert, Laufzeit 2003-2005; Projektteam: Univ.-Prof. Dr. Christina Schachtner, Dipl. Psych. Bettina Duval und Dipl. Päd. Andrea Welger. Es handelt sich um ein Teilprojekt des Gesamtprojekts „E-Empowerment“, das gemeinsam mit der TU Hamburg-Harburg (Prof. Dr. Gabriele Winker) durchgeführt wurde. Die Ergebnisse sind in den Büchern Virtuelle Räume – neue Öffentlichkeiten (Schachtner und Winker 2005) und Erfolgreich im Cyberspace (Schachtner 2005b) veröffentlicht.
196
Schachtner
Im virtuellen Raum können, wie in der Studie ermittelt wurde, Gemeinschaften, so genannte virtual communities, entstehen, in denen Emotionen eine möglicherweise noch wichtigere Rolle als in Gemeinschaften offline, zum Beispiel in Nachbarschaften, Familien oder Vereinen spielen, weil die Netzgemeinschaft oft wenig mehr zusammenhält als ein befriedigendes emotionales Klima (Schachtner 2005a, S. 203). Die Textualisierung der Emotionen bedeutet nicht, dass diese aus dem Erleben verschwinden und zu rein kognitiven Objekten werden. Die Existenz einer Online-Community und die emotionalen Ansprüche der Mitglieder einer solchen Community aneinander sind Belege dafür, dass emotionale Erfahrungen gemacht werden bzw. dass das Selbst der Netzakteurinnen nicht auf ein cartesianisches Ego reduziert werden kann, wie laut Illouz das Selbst der Männer und Frauen, die sich der von ihr untersuchten Partnersuchdienste bedienen.
Abbildung 1: Der emotionale Gewinn im Cyberspace Die skizzierten empirischen Erkenntnisse sollen zeigen, dass die These von Eva Illouz, das Internet sei zum Schauplatz einer radikalen Rationalisierung geworden, nicht in dieser Allgemeinheit und nicht in dieser Absolutheit formuliert werden kann. Unter Berücksichtigung der von Illouz ermittelten empirischen Befunde erscheint es mir treffender, davon aus-
Emotionalität und Rationalität im digitalen Zeitalter
197
zugehen, dass das Internet vielgestaltig ist, dass es sich aus vielen verschiedenen Kommunikationsräumen zusammensetzt, in denen Rationalität und Emotionalität dynamisch und sich verändernd zueinander in Beziehung gesetzt werden.
3
Der Ansatz von Eva Illouz unter modernisierungstheoretischen, ethischen und erkenntnislogischen Gesichtspunkten
Der Versuch, die modernisierungstheoretischen, ethischen und erkenntnislogischen Implikationen des Ansatzes von Eva Illouz im Folgenden herauszuarbeiten, ist zugleich ein Versuch, diesen Ansatz in den Modernisierungsdiskurs einzuordnen. Auf diese Weise sollen die theoretische und gesellschaftspolitische Relevanz der Implikationen dieses Ansatzes noch deutlichere Konturen erhalten. 3.1 Modernisierungstheoretische Implikationen Bezugspunkte für eine modernisierungstheoretische Einordnung bilden die von Cornelia Klinger in ihrem Buch Flucht – Trost – Revolte, Die Moderne und ihre ästhetischen Gegenwelten (1995) entwickelten Kategorien zur Charakterisierung der beiden im Untertitel benannten Welten. Diese Kategorien stellen Klingers Antwort auf die Frage dar: Wie wird das Verhältnis konzipiert zwischen den Bereichen, die als Hauptstrom der Modernisierung gelten und jenen, die als Gegenströmungen aufgefasst werden? Als Hauptstrom der Modernisierung gilt Klinger zufolge, wie bereits zu Beginn dieses Beitrags am Beispiel ausgewählter modernisierungstheoretischer Positionen vorgetragen, der Prozess der Rationalisierung aller Gesellschafts- und Wissensbereiche (Klinger 1996, S. 7), anders gesagt: die Entzauberung der Welt. In den Gegenströmen fließt nach herrschender Auffassung alles, was dem nahe kommt, was Illouz als spontane Emotionalität, als fließende unreflektierte Erfahrung, als das nicht Mess- und Kalkulierbare bezeichnet hat. Klinger unterscheidet idealtypisch vier Konzepte zur Bestimmung des Verhältnisses zwischen so genanntem Hauptstrom und so genannten Gegenströmungen: das Externalisierungskonzept, das Ausdifferenzierungskonzept, das Kompensations- und das Korrelationskonzept (ebd., S. 8 ff): Externalisierung bezeichnet die Auffassung, dass die so genannten Gegenströme Restbestände vormoderner Lebensformen enthalten oder, im Gegenteil, Potenzial für eine künftige Überwindung des „herrschenden Realitätsprinzips“ (ebd.). In jedem Fall bleiben diese Gegenströme aus
198
Schachtner
dem Modernisierungsprozess ausgegrenzt und stehen diesem feindlich gegenüber. Ausdifferenzierung: Diesem Konzept wird der Ansatz von Max Weber zugeordnet, demzufolge sich im Prozess der Modernisierung drei Wertsphären ausdifferenzieren (Klinger 1995, S. 8 ff): – – –
die kognitive Rationalität von „(Natur-)wissenschaft und Technik“, die „evaluative Rationalität von Naturrecht und (protestantischer) Ethik“, die „ästhetisch-expressive Rationalität“ als Ort des Emotionalen in Gestalt von Kunst, Erotik, Liebe zwischen den Geschlechtern.
Im Unterschied zum Konzept der Externalisierung ist für Weber das Emotionale dem Rationalisierungsprozess nicht äußerlich, sondern ein Teil davon. Allerdings betrachtet er die ästhetisch-expressive Wertsphäre für die Entwicklung der Moderne nicht als fördernden Faktor, sondern als potenzielle Störquelle, die es in Schach zu halten gilt (ebd.). Komplementarität bezeichnet ein Konzept, wonach es Bereiche gibt, die nicht derselben Logik folgen, welche in Wissenschaft, Technik, Wirtschaft dominiert, die dem Prozess der Moderne vielmehr widersprechen. Sie existieren aber nicht jenseits der Moderne, sondern bilden andersartige Orte innerhalb der Moderne. Sie stellen eine Art von Gegengewicht zur herrschenden Logik dar (ebd., S. 18 ff). Korrespondenz: In diesem Konzept rückt die Entsprechung der drei Wertsphären in den Mittelpunkt. Der Modernisierungsprozess macht dem Konzept zufolge als Emanzipationsprozess nicht vor den so genannten Enklaven Halt, es werden vielmehr Bereiche erfasst, die dem Zugriff rationaler Orientierungen bislang entzogen waren, wie Familie, Partnerschaft, Liebe, Sexualität. Prinzipien von Gleichheit und Freiheit und dergleichen werden auch in intime Beziehungen hineingetragen und sorgen dafür, dass sowohl das patriarchale Familienideal verabschiedet wird als auch die romantische Liebesidee (ebd., S. 33). Auf der empirisch beobachtbaren Ebene beschreibt Eva Illouz ein Korrespondenzverhältnis zwischen Rationalisierung und Emotionalisierung, indem sie nachweist, dass Kriterien der Rationalität, ausgelöst und unterstützt von psychologischen und feministischen Diskursen, in der ästhetisch-expressiven Wertsphäre wirksam werden. In Bezug auf die ökonomische Sphäre spricht sie zwar von einer Emotionalisierung, was den Eindruck erwecken könnte, als ob es sich um eine Gegenbewegung
Emotionalität und Rationalität im digitalen Zeitalter
199
zur Rationalisierung handelte, die Konkretion dieses Prozesses jedoch macht deutlich, dass es darum geht, Emotionen im Hinblick auf rationale Ziele wie Abbau von Hierarchien und Steigerung des ökonomischen Gewinns zu nutzen. Auf der normativen Ebene, die die Basis ihrer Kritik bildet, orientiert sich Eva Illouz am Komplementaritäts- bzw. am Externalisierungskonzept. Spontane Emotionen und romantische Liebe werden als Gegengewichte behauptet, die einer Rationalisierung entzogen bleiben sollen. Die Zuordnung kann nicht eindeutig erfolgen, weil aus der Argumentation nicht hervorgeht, ob sie diese Gegengewichte innerhalb des Modernisierungsprozesses verortet, wie das im Komplementaritätsmodell geschieht, oder außerhalb, wie im Externalisierungskonzept. 3.2 Ethische Implikationen Wie bewertet Eva Illouz ihre empirischen Befunde? Wertungen tauchen in der Illouz’schen Argumentation wiederholt auf und wurden im Verlauf dieses Beitrags mehrmals erwähnt. An dieser Stelle sollen diese Wertungen lediglich zusammengefasst und in ihrer gesellschaftspolitischen Bedeutung besprochen werden. Obschon Illouz sowohl der von ihr behaupteten Emotionalisierung der ökonomischen Sphäre als auch der Rationalisierung des Privaten positive Effekte abzugewinnen vermag und sie als solche benennt, wie die zunehmende Demokratisierung in Unternehmen oder die Stärkung der Autonomie von Frauen in der Familie, überwiegt in ihrer Stellungnahme zu den beobachteten Transformationen, wie bereits angesprochen, ein Jargon des Nicht-Wünschbaren. Es soll nicht bestritten werden, dass der Modernisierungsprozess als Rationalisierungsprozess auch Risiken enthält, zum Beispiel das Risiko, dass Netzbegegnungen zu sehr Marktstrukturen unterworfen werden, dass die psychologisch unterstützte Bewusstmachung von Gefühlen in Unternehmen auch der Manipulation von MitarbeiterInnen dienen kann, oder dass reflexive Emotionalität in privaten Beziehungen zu einer Entfremdung vom emotionalen Erleben führen kann. Andererseits kann nicht unbeachtet bleiben, dass die den psychologischen bzw. psychotherapeutischen und feministischen Diskursen entspringenden rationalen Orientierungen, die Eva Illouz als Triebfedern kultureller Veränderungen betrachtet, auch den Zielen von Machtabbau, Demokratisierung, Partnerschaftlichkeit und individueller Entfaltung verpflichtet sind. Der Modernisierungsprozess ist auch ein Emanzipations- und Demokratisierungsprozess, den Illouz weitgehend ignoriert, was mit der Erkenntnislogik zusammenhängen dürfte, die zumindest ihrer empirischen Analyse zugrunde liegt.
200
Schachtner
3.3 Erkenntnislogische Implikationen Eva Illouz folgt auf der normativen Ebene einer dualistischen Perspektive, die dazu auffordert, alternative Entwicklungen im Modus des EntwederOder wahrzunehmen und zu beschreiben (Adorno 1969, S. 148, zitiert nach Meyer-Drawe 1990, S. 10). Dieser Perspektive ist das Ideal der romantischen Liebe geschuldet, das sie den sich verändernden Beziehungsformen in Familie und Internet als das bessere Modell entgegenhält und als traditionelle Liebesvorstellung behauptet, obwohl dieses Ideal nur in bestimmten historischen Epochen, insbesondere in der Romantik, das vorherrschende Ideal war. Es gab im Verlauf der Geschichte auch andere Liebesideale, in denen sich Emotionalität und Rationalität in einem versöhnlicheren Verhältnis befanden, etwa in den Liebesidealen der griechischen und römischen Antike (Klotter 1999, S. 30 ff). Ovid beispielsweise, ein Repräsentant der römischen Antike „berücksichtigt zwar auch die irrationale Liebe, dennoch plädiert er für eine rationale Liebeskunst, die zum friedlichen Beisammensein der Geschlechter führen soll“ (ebd.). Er schreibt: „Aber das Mädchen schwebt nicht zu dir herab durch die Lüfte. Mit eigenen Augen musst du die suchen, die zu dir passt“ (Ovid 1991, S. 9, zitiert nach Klotter 1999, S. 30). In diesem Zitat ist die Ratio angesprochen. Die Liebe soll auf die Basis von Wissen über den anderen gestellt werden. Keineswegs ist also die spontane Verliebtheit das immer schon da gewesene Liebesideal, wie Illouz annimmt. Vielmehr existierten Liebesvorstellungen, die Illouz als neueste Form der Liebe im Internet behauptet, bereits in der Antike. Als Konsequenz einer dualistischen Perspektive kann Illouz die Veränderungen in verschiedenen gesellschaftlichen Bereichen lediglich unter dem Gesichtspunkt sehen, ob spontane Emotionalität unterdrückt wird oder nicht. Diese Beschränkung einer dualistischen Logik thematisiert und kritisiert Eva Illouz am Ende ihres Buches selbst (Illouz 2006, S. 136), was eine dieser anfangs erwähnten überraschenden Wendungen in der Argumentation von Illouz darstellt, die mit ihrer empirischen Analyse kontrastieren. Die Analyse von Illouz folgt nicht nur einer dualistischen Logik, sondern auch einer linearen. Illouz kennzeichnet den Modernisierungsprozess im Kontext ihrer empirischen Analyse als unaufhaltsam fortschreitenden, geradlinig verlaufenden Prozess, in dem die ökonomische Rationalität den Ton angibt, was impliziert, dass die ästhetisch-expressive Wertsphäre als abhängige Sphäre gesehen wird. Cornelia Klinger vertritt dagegen die These, dass zwischen den von Max Weber unterschiedenen Sphären ein Wechselverhältnis existiert, aus dem sich neue Verbindungen und Verschränkungen ergeben (Klinger
Emotionalität und Rationalität im digitalen Zeitalter
201
1995, S. 58). Dies gesteht den ausdifferenzierten Wertsphären – der kognitiven, der evaluativen und der ästhetisch-expressiven Rationalität – eine jeweils eigene Logik zu, eine Annahme, die sensibilisiert für die Wahrnehmung von Differenzen, Widersprüchen und Verschiebungen im Verhältnis zwischen den Wertsphären. Diese Annahme ist kompatibel mit einer subjekttheoretischen Position, die das Subjekt als Akteur betrachtet, der als kognitives, emotionales, soziales, körperliches Wesen in eine Interaktion mit anderen Subjekten und gesellschaftlichen Strukturen tritt und dabei „sich und die Welt verändert“ (Piaget 1983, S. 19). Da in den verschiedenen Wertsphären unterschiedliche interaktive Konfigurationen entstehen, können in den einzelnen Wertsphären unterschiedliche Entwicklungen ausgelöst werden. Auch Eva Illouz räumt am Ende ihres Buches eine gewisse Eigenwilligkeit einzelner gesellschaftlicher Bereiche ein, indem sie auf nicht intendierte Handlungsfolgen verweist (Illouz 2006, S. 136). In den vorangegangenen Kapiteln fehlt allerdings ein Hinweis auf den autonomen Status des Subjekts; Subjektivität wird vielmehr als Resultat gesellschaftlicher Prozesse gesehen.
4
Fazit
Wenn man einer dualistischen Logik, die eine widerspruchsfreie Einordnung und Bewertung empirischer Phänomene ermöglicht, eine Absage erteilt und stattdessen für eine Sowohl-als-Auch-Logik plädiert, kommt man unweigerlich an den Punkt, an dem man sich fragt: Wo kann wissenschaftliche Kritik gegenüber der gesellschaftlichen und technischen Entwicklung angesichts der Uneindeutigkeit und Mehrdeutigkeit dieser Entwicklungen ansetzen? Wie kann zum Beispiel der komplexe virtuelle Kommunikationsraum Internet, der sich in viele Teilbereiche gliedert, die ein breites Spektrum an Kommunikations- und Verhaltensmöglichkeiten eröffnen, kritisch analysiert werden? Es ist Eva Illouz, die, möglicherweise am Ende mit ihrer eigenen Analyse unzufrieden geworden, das Stichwort liefert. Sie spricht sich dafür aus, sich von der „reinen Kritik“ zu verabschieden. Kritik ist am stärksten, so Illouz, wenn sie sich von olympischer Reinheit entfernt und einem tiefen Verständnis der konkreten kulturellen Praktiken zuwendet (Illouz 2006, S. 138). Das heißt, die vielen Arten wahrzunehmen, in denen sich Emotionalität und Rationalität ausdrücken, miteinander verbinden und einander bekämpfen. Das verlangt eine empirische Analyse, die den Anspruch hat, die Dinge immer wieder neu zu sehen. Das erfordert ein theoretisches Denken, das die Begegnung mit dem Unerwarteten, dem Schil-
202
Schachtner
lernden und Uneindeutigen nicht scheut. Eine solche Art von Kritik kann dem zugerechnet werden, was Illouz als „unreine Kritik“ (Illouz 2006, S. 142) charakterisiert; sie meint eine Kritik, die nicht vorgibt, per se Kenntnis von den emanzipatorischen und den repressiven Kräften zu haben, sondern sich diese erst im Durchgang durch ein kontextuelles Verständnis kultureller Praktiken erwirbt (ebd.). In zweifacher Hinsicht ist dieser Kritiktypus für die Analyse des virtuellen Raums geeignet: zum einen, weil der virtuelle Raum neuartig ist und das genaue Hinsehen und Offensein für Uneindeutiges für die Erfassung der besonderen Qualitäten dieses Raumes unverzichtbar ist, und zum anderen, weil dessen Existenz von neuem Ängste entfacht hat, die Georg Simmel bereits zu Beginn des 20. Jahrhunderts benannt hat, Ängste „des Subjekts, in einem gesellschaftlich-technischen Mechanismus nivelliert und verbraucht zu werden“ (Simmel 1995, S. 116). Die „unreine Kritik“ muss nicht zwischen schwarz und weiß wählen und sichert sich so die Chance, auf die Facetten, Nuancen, Paradoxien des Cyberspace aufmerksam zu werden. Sie verspricht, auf dem schmalen Grat zu wandeln zwischen den medialen Möglichkeiten, die das Subjekt in seiner Autonomie unterstützen, und den Mechanismen, die Autonomie und Besonderheit untergraben. Sie fördert die Kompetenz zur Unterscheidung und zur Wahrnehmung von Möglichkeiten inmitten von Risiken. Sie befreit vom Zwang, sich im Entweder-Oder zu bewegen, gibt keine Werturteile vor und ermutigt das Subjekt, im virtuellen Raum zu experimentieren, um selbst seine Möglichkeiten auszuloten und zu verändern.
Literatur Drever, James und Werner D. Fröhlich (1972): Wörterbuch zur Psychologie. 6. Auflage. München: dtv. Elias, Norbert (1978): Über den Prozeß der Zivilisation. Soziogenetische und psychogenetische Untersuchungen. 2 Bde. Frankfurt am Main: Suhrkamp. Illouz, Eva (2006): Gefühle in Zeiten des Kapitalismus. Frankfurt am Main: Suhrkamp. Klotter, Christoph (1999): „Abendländische Liebesvorstellungen“. In: ders., Hg.: Liebesvorstellungen im 20. Jahrhundert. Gießen: Psychosozial Verlag, S. 11-86. Klinger, Cornelia (1995): Flucht – Trost – Revolte. Die Moderne und ihre ästhetischen Gegenwelten. München und Wien: Hanser. Leithäuser, Thomas und Paulina Leicht (2001): Junge Erwachsene im Netz: Kommunikation und Identitätsbildung in Chats und Online-Rollenspielen. Eine sozialpsychologische Untersuchung. Universität Bremen.
Emotionalität und Rationalität im digitalen Zeitalter
203
http://www.uni-bremen.de/~ipsnet/jein/html/berichthtml.htm (OnlineRessource, geprüft Juli 2007). Meyer-Drawe, Käte (1990): Illusionen von Autonomie. München: Kirchheim. Ovid (1991): Ars Amatoria – Remedia Amoris. München und Zürich: Artemis & Winkler. Piaget, Jean (1983): Meine Theorie der geistigen Entwicklung. Frankfurt am Main: Fischer. Schachtner, Christina (2005a): „Virtuelle Mädchen- und Frauennetze als Kommunikationsräume“. In: Schachtner und Winker (2005), S. 167-218. Schachtner, Christina (2005b): Erfolgreich im Cyberspace. Handbuch virtuelle Frauen- und Mädchennetze. Opladen: Barbara Budrich. Schachtner, Christina (2004): „Das Ich auf virtuellen Pfaden. Eine kritische Reflexion computergestützter Ich-Experimente“. Journal für Psychologie 12/2: 130-147. Schachtner, Christina und Gabriele Winker (2005): Virtuelle Räume – neue Öffentlichkeiten, Frauennetze im Internet. Frankfurt am Main: Campus. Senge, Peter M. (1999): Die Fünfte Disziplin. Stuttgart: Klett-Cotta. Simmel, Georg (1922): Soziologie. Untersuchungen über die Formen der Vergesellschaftung. 2. Auflage. Berlin: Duncker & Humblot. Simmel, Georg (1957): Brücke und Tür – Essays des Philosophen zur Geschichte, Religion, Kunst und Gesellschaft. Im Verein mit Margarete Susman herausgegeben von Michael Landmann. Stuttgart: K. F. Koehler. Simmel, Georg (1995): „Die Großstädte und ihr Geistesleben“. In: Rüdiger Kramme, Angela Rammstedt und Otthein Rammstedt, Hg.: Georg Simmel – Aufsätze und Abhandlungen 1901-1908. Band 1. Frankfurt am Main: Suhrkamp, S. 116-131. Weber, Max (1920): Die protestantische Ethik und der „Geist“ des Kapitalismus. Tübingen: J.C.B. Mohr. Weber, Max (1972): Wirtschaft und Gesellschaft. Tübingen: J.C.B. Mohr. Yankelovich, Daniel (1981): New Rules: Searching for Self-fulfillment in a World Turned Upside Down. New York: Random House. Zižek, Slavoj (2001): Die gnadenlose Liebe. Frankfurt am Main: Suhrkamp.
Teil V: Bildung
Computer als Lernmedium und Lerngegenstand in der Grundbildungsarbeit mit bildungsbenachteiligten Frauen Monika Kastner*
Einleitende Bemerkungen1 Unter Grundbildung werden diejenigen Kompetenzen verstanden, die nach Absolvierung der Schulpflicht vorhanden sein sollten. Erwachsenenbildnerinnen und Erwachsenenbildner wissen allerdings um die Problematik mangelnder Grundbildung: Eine nicht unerhebliche Zahl Erwachsener weist Defizite in den so genannten Grundkulturtechniken, das heißt Lesen, Schreiben und Rechnen, auf. Als zusätzliche wichtige Grundkulturtechnik wird in der Grundbildungsarbeit neuerdings die Handhabung der Informations- und Kommunikationstechnologien (IKT), das heißt der kompetente Umgang mit den neuen Medien, diskutiert, denn bildungsbenachteiligte Personen, und innerhalb dieser Personengruppe verstärkt Frauen, verfügen oftmals über keine bzw. unzureichende Zugänge zum Computer. Resultate dieser Benachteiligung sind vielfältig und verstärken mangelnde gesellschaftliche Teilhabe: Es droht sozialer Ausschluss durch (Langzeit-) Erwerbslosigkeit aufgrund des Abbaus so genannter Einfacharbeitsplätze und des zunehmenden Einsatzes von Computern auch im Niedriglohnsektor (zum Beispiel Computerkassen in Geschäften, EDV-gestützte Bestellsysteme in Restaurants oder CADSysteme in Produktionsbetrieben). Für die Teilnahme an Weiterbildungsangeboten (Höherqualifizierung, Umschulung im Rahmen arbeitsmarktpolitischer Maßnahmen) wird neben schriftsprachlichen Kompetenzen die Kompetenz zur Computernutzung (als Lernmedium) als selbstverständlich vorausgesetzt. *
1
Institut für Erziehungswissenschaft und Bildungsforschung, Abteilung für Erwachsenen- und Berufsbildung, Universität Klagenfurt. Unter dem Titel „Bildungsbenachteiligte Frauen und Computernutzung: Zugänge und Lernerfahrungen“ beleuchte ich weitere Aspekte des Themas. Dieser Beitrag (Kastner, im Erscheinen) wird in dem von Christina Schachtner und Angelika Höber herausgegebenen Band Learning Communities. Der Cyberspace als neuer Lernund Wissensraum vertreten sein.
208
Kastner
Die Vermittlung fehlender bzw. Förderung von in nicht ausreichendem Maße vorhandenen Grundkompetenzen ist daher ein wesentlicher Teilbereich der Erwachsenenbildung. In diesem Beitrag beziehe ich mich auf ein Grundbildungsangebot für die Zielgruppe der un- und angelernten Arbeiterinnen mit Defiziten in den Grundkulturtechniken: Der Lehrgang „Bildung wieder entdecken“ zielt darauf ab, für die Teilnehmerinnen neue Zugänge zum lebensbegleitenden Lernen durch die Vermittlung der Grundkulturtechniken, inklusive der Nutzung des Computers, zu schaffen. Anhand ausgewählter Evaluationsergebnisse (Kastner 2006) werden Einblicke in die Lernprozesse und Aneignungsmöglichkeiten der Teilnehmerinnen in Bezug auf die Computernutzung (unter anderem Barrieren, Zugänge und Lernerfolge) gegeben. In diesem Beitrag werden zuerst die bildungspolitischen Rahmenbedingungen analysiert, die in die Forderung nach stetiger Weiterbildung – das „lebensbegleitende Lernen“ – münden. Daran anschließend werden Fragen von Teilhabemöglichkeiten und gesellschaftlichen Ausschlussmechanismen mit dem Fokus auf Computernutzung und Gender diskutiert. Danach folgt die Beschreibung der Grundbildung als Teilbereich der Erwachsenenbildung, wobei anhand des Praxisbeispiels die Lernprozesse und Lernerfolge der Teilnehmerinnen des Lehrganges „Bildung wieder entdecken“ dargestellt werden. Abschließend wird die Problematik differenter Ausschlüsse diskutiert.
Informations- und Wissensgesellschaft unter bildungspolitischer Perspektive: Gesellschaftliche Teilhabe und Ausschlüsse Für die Gegenwartsgesellschaft existieren viele Bezeichnungen; zwei gängige Bezeichnungen sind „Informations-“ und/oder „Wissensgesellschaft“ (vgl. Kübler 2005 zu einer umfassenden Diskussion dieser Begrifflichkeiten; vgl. Gruber 2001, S. 100-179 zu einer kritischen bildungswissenschaftlichen Analyse). Vereinfacht formuliert wird mit diesen beiden Bezeichnungen die Bedeutung von Information und Wissen als Kapital bzw. Ressource betont. Diese Bezeichnungen verweisen insbesondere auch auf die rasanten technologischen Entwicklungen, die sich in den neuen Informations- und Kommunikationstechnologien manifestieren. Personen mit Defiziten in den Grundkulturtechniken sind in Gesellschaften, die auf dem Austausch von Informationen und der Verfügbarkeit und Verarbeitung von Wissen basieren, zwangsläufig benachteiligt: Gesellschaftliche Teilhabe – verstanden als die Beteiligung am sozialen, kulturellen, politischen und wirtschaftlichen Leben (vgl. Giere 2005, S. 26) – ist nur eingeschränkt möglich, und diverse Ausschlüsse, wie bei-
Computer in der Grundbildungsarbeit
209
spielsweise Erwerbslosigkeit und Armut, resultieren aus dieser Benachteiligung. „Lebenslanges Lernen“ Mit der Bedeutungszunahme von Information und Wissen steht die Betonung der Wichtigkeit des so genannten lebensbegleitenden Lernens in engem Zusammenhang. Im Jahr 2000 wurde in Lissabon beschlossen, dass die Europäische Union zur wettbewerbsfähigsten und dynamischsten Wissensgesellschaft der Welt werden soll. Ziel ist die Stärkung der Wettbewerbsfähigkeit durch „Verbesserung von Beschäftigungsfähigkeit und Anpassungsfähigkeit der Arbeitskräfte“ (Europäische Kommission 2000, S. 5). Dazu sollen die Investitionen in Humanressourcen, „Europas wichtigstes Kapital – das Humankapital“, erhöht werden (ebd., S. 14). Das Ziel des Aufbaus einer integrativen Gesellschaft, „die allen Menschen gleiche Zugangschancen zu hochwertigem lebenslangem Lernen bietet und in der sich Bildungs- und Berufsbildungsangebote in erster Linie an den Bedürfnissen und Wünschen der Einzelnen ausrichten“ (ebd., S. 5), wird hervorgehoben. Es wird gefordert, den „allgemeinen und ständigen Zugang zum Lernen [zu] gewährleisten und damit allen Bürgerinnen und Bürgern [zu] ermöglichen, die für eine aktive Teilhabe an der Wissensgesellschaft erforderlichen Qualifikationen zu erwerben und zu aktualisieren“ (ebd., S. 12). Im Zusammenhang mit dieser Forderung nach lebenslangem Lernen muss allerdings festgestellt werden, dass sie vor allem als Aufforderung zur stetigen berufsbezogenen Weiterbildung interpretiert wurde und von einer Aufforderung mittlerweile zu einer normativen Erwartung (vgl. Holzer 2004 zur Analyse und Kritik dieser Norm) geworden ist. In diesem Zusammenhang stellt sich die Frage nach der Situation von bildungsbenachteiligten Erwachsenen. Benachteiligte sind keine homogene Gruppe, allerdings verbindet benachteiligte Menschen das Faktum der verringerten Chancen: „Benachteiligung drückt sich in ungleichen Entwicklungs- und Partizipationschancen aus“ (Geßner 2004, S. 38). Für Österreich gilt, dass das Bildungssystem, insbesondere Schule und berufliche Aus- und Weiterbildung, bestehende sozioökonomische Benachteiligungen und Ungleichheiten widerspiegelt bzw. potenziert. Statistiken belegen, dass Höherqualifizierte seltener von Erwerbslosigkeit betroffen sind. Eine über die Lehre hinausgehende berufliche Qualifikation stellt daher einen gewissen Schutz vor Erwerbslosigkeit dar.2 In Bezug 2
Die Statistik des AMS (vgl. Arbeitsmarktservice Österreich 2006) zur Arbeitslosigkeit nach Bildungsstand zeigt für 2005, dass Pflichtschulabsolvent/inn/en und
210
Kastner
auf die berufliche Weiterbildung beschreibt Gruber (ohne Jahr, S. 1) das unverändert geltende Muster: je höher die formale Ausbildung und (daher) die berufliche Position, und je konkreter die Aufstiegsmöglichkeiten, desto höher die Weiterbildungsbeteiligung – frei nach dem Motto: Wer hat, dem wird gegeben.3 Die Aufnahmefähigkeit des Arbeitsmarktes für Personen ohne bzw. mit geringer Berufsausbildung (Pflichtschule, Lehre) wird immer kleiner, und mit einem weiteren Abbau der Hilfs- und Einfacharbeitsplätze wird gerechnet (vgl. Reinberg 2003, S. 15; für Österreich vgl. Schneeberger 2005). Dadurch sind vor allem Niedrigqualifizierte (Ungelernte und Angelernte) von Arbeitsplatzverlust betroffen. Berufliche Tätigkeiten werden komplexer („Job-Enrichment“, „Job-Enlargement“) und sind ohne entsprechende und ausreichend vorhandene fachliche, soziale und personale Kompetenzen nicht zu bewältigen. Generell ist in der Gesellschaft die Tendenz zur Höherqualifizierung feststellbar.4 Personen müssen sich „über Weiterbildung und lebenslanges Lernen fit und ‚employable’ halten. Dann besteht zumindest eine Chance“ (Gruber 2005, S. 13), lautet der nüchterne und ernüchternde Befund.5 Ribolits (vgl. ÖVH 2003, S. 7) kritisiert das lebenslange Lernen folgerichtig als falsches Versprechen. Das Problem der Arbeitslosigkeit wird individualisiert und somit das Scheitern der Verantwortung der Einzelnen übertragen: Wer davon betroffen ist, hat wohl nicht genug gelernt. „Es soll, um des ökonomischen Wachstums willen, mehr aus uns Menschen gemacht werden, und dies durch stetige Selbstverbesserung. [...] Nicht die Politik, wir stehen unter Zugzwang“ (Geißler 2004, S. 67). Funktionale Grundbildungsdefizite haben in einer sich modernisierenden Gesellschaft fatale Auswirkungen: Bildungsbenachteiligte Personen befinden sich in prekären Beschäftigungsverhältnissen (mit geringem Einkommen) auf oftmals gefährdeten Arbeitsplätzen, haben keine bzw. geringe Aufstiegsmöglichkeiten und sind noch dazu von der Teilnahme an (betrieblicher bzw. beruflicher) Weiterbildung ausgeschlossen
3 4
5
Personen mit einem Lehrabschluss am stärksten von Erwerbslosigkeit betroffen sind (Anteil von 46,3% bzw. 35,6%). Die über Pflichtschule und Lehre hinausgehenden Abschlüsse bewegen sich mit ihrem Anteil an den Erwerbslosen zwischen 0,5% und 3,1%. Der Umkehrschluss ist selbstverständlich zulässig. Etwas vereinfacht ausgedrückt: An Arbeitsplätzen, an denen vor ca. fünf bis zehn Jahren eine Maturantin eingesetzt wurde, ist heute eine Absolventin einer Fachhochschule bzw. Universität anzutreffen. Was bedeutet es, ‚employable’ zu sein? Übersetzt wird „Employability“ mit „Beschäftigungsfähigkeit“, die natürlich selbst und in Eigenverantwortung herzustellen ist. Sie soll uns befähigen, neue berufliche Herausforderungen anzunehmen und zu bewältigen, soll also Zeichen unserer Flexibilität, unseres großen persönlichen Einsatzes und unserer stets vorhandenen Lernbereitschaft sein.
Computer in der Grundbildungsarbeit
211
bzw. können oder wollen aufgrund ihrer Grundbildungsdefizite an Weiterbildungsangeboten nicht teilnehmen. Wer über eine gute, weil ausreichende Grundbildung verfügt, kann dagegen aus bestehenden Bildungsangeboten (zum Beispiel berufliche Weiterbildung) auswählen und erfolgreich partizipieren und auch, falls gewünscht bzw. notwendig, selbstgesteuert lernen, beispielsweise selbstorganisiert mittels des Computers als Lernmedium. Mangelnde Grundbildung verstärkt ohnehin bestehende Benachteiligungen, reduziert individuelle Möglichkeiten und Chancen und wirkt so als Barriere, die Ausschlüsse evoziert bzw. verstärkt.
Bildungsbenachteiligung und digitale Spaltung der Gesellschaft Schätzungen gehen davon aus, dass in Österreich ca. fünf Prozent der Erwachsenen Schwierigkeiten damit haben, einen Text zu lesen, zu verstehen und zu schreiben und/oder rechnerische Operationen durchzuführen (vgl. Doberer-Bey und Rath 2003, S. 166). Mittlerweile wird, wie einleitend bereits festgestellt, die Kompetenz zum Umgang mit den neuen Informations- und Kommunikationstechnologien, insbesondere der Umgang mit dem Computer, als vierte Grundkulturtechnik angesehen. Die geschätzte Zahl erhöht sich unter Berücksichtigung der technologischen Entwicklungen für Informations- bzw. Wissensgesellschaften auf acht bis 15 Prozent (ebd.). Folgende Befürchtung wird in diesem Zusammenhang formuliert: „[…] the digital divide and the literacy divide may overlap so strongly as to be identical“ (Wagner und Sweet 2006, S. 9). In Industriegesellschaften ist der Begriff des „funktionalen Analphabetismus“6 gebräuchlich, wobei dieser folgendermaßen definiert wird: Die vorhandenen Kenntnisse reichen nicht aus, um schriftsprachliche oder rechnerische Belange des beruflichen und privaten Alltags selbständig abzuwickeln. Der Begriff ist international anerkannt und setzt die Kenntnisse in Beziehung zu den jeweiligen gesellschaftlichen Erfordernissen, um etwa Funktionen zu erfüllen und als mündiger Bürger am gesellschaftlichen Geschehen teilhaben zu können. (Doberer-Bey und Rath 2003, S. 168) 6
Aktuell wird versucht, für den diskriminierenden, weil auf ein Defizit verweisenden, Begriff des „Analphabetismus“ einen nicht stigmatisierenden Ersatz zu finden. Dazu gehört auch der Diskurs über die Bezeichnung der Zielgruppe, wobei „Analphabetinnen“ und „Analphabeten“ jedenfalls nicht länger verwendet werden sollten. Eine die Bedarfe der Zielgruppe charakterisierende und dennoch nicht stigmatisierende Bezeichnung ist allerdings noch ausständig.
212
Kastner
Jedoch geht es längst nicht mehr nur um die Grundkulturtechniken, sondern um weitere fachliche (insbesondere EDV und Fremdsprachen) sowie soziale Kompetenzen (zum Beispiel Team-, Kommunikations- und Konfliktfähigkeit) und personale Fähigkeiten, wie beispielsweise die Fähigkeit zur Steuerung des eigenen Lernprozesses7 (vgl. Nuissl 1999, S. 563, zitiert nach Tröster 2000, S. 13). Wie oben ausgeführt, wird die Fähigkeit, mit einem Computer umgehen zu können, als vierte Grundkulturtechnik betrachtet. Der Zugang zu einem Computer und die grundlegenden Fähigkeiten für dessen Nutzung sind jedoch keine Selbstverständlichkeit. Richten wir den Blick auf die Informations- und Kommunikationstechnologien, so zeigt sich, dass auch hier differente Teilhabe und Ausschlüsse8 feststellbar sind, wobei eine Betrachtung unter geschlechts- und schichtspezifischer Perspektive aufschlussreich ist. Es zeigt sich nämlich, dass berufliche PC-Nutzung bei erwerbstätigen Frauen (43%) etwas häufiger ist als bei Männern (39%), Internet-Nutzung für berufliche Zwecke findet sich allerdings häufiger bei Männern (vgl. Statistik Austria 2002, S. 47 f). Hinsichtlich der Ausstattung von Einpersonenhaushalten (hierzu liegen Daten vor) zeigt sich, dass die Anschaffung eines Computer, vor allem mit Internet-Anschluss, eindeutig „Männersache“ ist (ebd., S. 70). Im Freizeitverhalten zeigen sich ebenfalls geschlechtsspezifische Unterschiede, denn PC- und Internet-Nutzung sind bei Frauen seltener als bei Männern: Elf Prozent aller Männer setzen sich täglich an den PC, aber nur sechs Prozent der Frauen. 71 Prozent der Frauen geben an, den PC nie zu benützen, aber nur 63 Prozent der Männer. 15 Prozent der Männer und nur neun Prozent der Frauen surfen täglich im Internet. Diese geschlechtsspezifischen Unterschiede bestehen auch bei den jüngeren Altersgruppen (ebd., S. 85). Eine aktuelle Statistik (Statistik Austria 2006, S. 56, Tabelle 34) zeigt, dass so genannten Risikohaushalten (Migrant/inn/en, Langzeitarbeitslose, Menschen mit Behinderung, Pflegegeld- und Sozialleistungsbezieher/innen, Haushalte mit mehr als drei Kindern, Alleinerziehende und Haushalte mit einer weiblichen Hauptverdienerin) bestimmte Konsumgüter, die für privilegierte Menschen eine Selbstverständlichkeit darstellen, nicht zur Verfügung stehen: Neun Prozent der Risikogruppe verfügen über keinen 7
8
Zum Konstrukt der Lernkompetenz werden unter anderem folgende Teilaspekte gezählt: Einschätzung des eigenen Lernstandes, Beurteilung möglicher Lehrangebote, Reflexion des eigenen Lernweges, Evaluation des Lernergebnisses, Einschätzung der Verwendung des Lernergebnisses (vgl. Arbeitsstab Forum Bildung 2001, S. 41). In diesem Zusammenhang ist die Rede von „Computer-Analphabetismus“ (Giere 2005, S. 26), womit gemeint ist, dass viele Menschen einen Computer nicht benützen können, obwohl diese Kompetenz im Umfeld als selbstverständlich vorausgesetzt wird (ebd.), und davon kann in Österreich mittlerweile ausgegangen werden.
Computer in der Grundbildungsarbeit
213
DVD-Player, sieben Prozent der Risikogruppe haben keinen PC und zwölf Prozent der Risikogruppe verfügen über keinen Internet-Anschluss.9 Hanappi-Egger (2003, S. 172) stellt fest, dass der „typische österreichische Internetnutzer“ ein Mann ist, zwischen 20 und 39 Jahren alt und mit einer über die Pflichtschule hinausgehenden Ausbildung. Deutlich unterrepräsentiert sind Hausfrauen sowie Pensionistinnen und Pensionisten. In der Internet-Gemeinde sind vorwiegend Angehörige der höheren Bildungs- und Einkommensschichten zu finden. Weiters stellt HanappiEgger (ebd., S. 173) fest, dass das (leider alte) Phänomen des geringen Selbstvertrauens von Mädchen und Frauen hinsichtlich ihrer technischen Fähigkeiten auch im Zusammenhang mit dem Internet besteht.
Grundbildung als Teilbereich der Erwachsenenbildung „Funktionaler Analphabetismus“ und Grundbildungsdefizite werden in Österreich erst sehr langsam enttabuisiert und als relevante Probleme erkannt. Nur sehr zögerlich rücken bildungsbenachteiligte bzw. bildungsferne Zielgruppen in das Zentrum der nationalen bildungspolitischen Aufmerksamkeit. Angebote gibt es bislang von Social-Profit-Organisationen, die jedoch fast gänzlich als Projekte, das heißt mit „Ablaufdatum“, eingerichtet sind. Die OECD (2004) stellte in ihrem Thematic Review on Adult Learning für Österreich fest, dass Programme zur Vermittlung von „Basic Literacy“ bzw. „Basic Skills“ weitgehend fehlten und dass die bislang eingesetzten Lehr- und Lernmethoden großteils traditionell, weil lehrerzentriert und behavioristisch orientiert seien und daher ein „Need for Pedagogical Change“ (das heißt: pädagogische Innovationen im Bereich der Lehr- und Lernmethoden) bestehe (ebd., S. 38). Die EQUAL-Entwicklungspartnerschaft „In.Bewegung. Netzwerk Alphabetisierung und Basisbildung in Österreich“10 zielt darauf ab, das Thema in der Gesellschafts9
10
Für den Verzicht auf das Internet dürften, neben finanziellen Gründen, auch mangelnde bzw. fehlende Kompetenzen (zum Beispiel Deutschkenntnisse) verantwortlich sein. Die Organisation (Anbieter, Preisvergleich) und Installation eines Internetanschlusses stellt auch für „bildungsprivilegierte“ Menschen eine nicht unerhebliche Herausforderung dar. Personen mit Grundbildungsdefiziten haben hierbei einen erheblichen Nachteil. Außerdem stellt sich in diesem Zusammenhang die grundlegende Frage, ob die untersuchten Personengruppen das Internet überhaupt als lohnenswert betrachten, was wiederum die Frage nach dem individuellen Nutzen aufwirft. Diese Entwicklungspartnerschaft wird vom Europäischen Sozialfonds und dem Bundesministerium für Unterricht, Kunst und Kultur gefördert (Laufzeit 20052007), setzt sich aus sechs operativen Modulen und mehreren strategischen Partnern zusammen und wird von „ISOP – Innovative Sozialprojekte Graz“ koordi-
214
Kastner
und Bildungspolitik nachhaltig zu platzieren und qualitätsgesicherte Grundbildungsangebote zu entwickeln und zu implementieren. Ein Teilprojekt der Entwicklungspartnerschaft „In.Bewegung“ war das Projekt „Bildung wieder entdecken“, das von den Kärntner Volkshochschulen durchgeführt wurde. In diesem Projekt wurden Lehrgänge für die Zielgruppe der ungelernten und angelernten Arbeiterinnen entwickelt und in Kärntner Firmen11 durchgeführt. Ziel dieses Angebotes war, für die Teilnehmerinnen Zugänge zum lebensbegleitenden Lernen durch die Vermittlung der Grundkulturtechniken, inklusive der Nutzung des Computers, zu schaffen. Während der Projektlaufzeit wurden insgesamt vier Lehrgänge mit jeweils ca. acht Teilnehmerinnen durchgeführt.12 Der Lehrgang fand an zwei Tagen in der Woche ca. 20 Wochen lang direkt nach der Arbeit in eigens dafür adaptierten betriebsinternen Kursräumen mit Computerarbeitsplätzen statt. Das Rahmencurriculum umfasste 35 Einheiten, davon zehn Einheiten Tastaturtraining (gekoppelt an die Vermittlung der neuen deutschen Rechtschreibung), danach folgten zehn EDV-Einheiten (Office-Paket). In den weiteren Einheiten wurden wiederum die neue deutsche Rechtschreibung sowie Alltagsrechnen, Gedächtnistraining („Lernen lernen“), Persönlichkeitstraining und Typberatung angeboten. Das Rahmencurriculum ist als innovativ zu bewerten, denn in der Grundbildungsarbeit wird gefordert, neue Medien einzusetzen und Medienkompetenz als eigenes Bildungsziel zu formulieren (vgl. Tröster 2005, S. 12).
Computereinsatz in der Grundbildungsarbeit Im Folgenden beziehe ich mich auf Daten der formativen Evaluation, die ich im Auftrag der Kärntner Volkshochschulen durchgeführt habe.13 An-
11
12
13
niert. Informationen zur Entwicklungspartnerschaft und zum Netzwerk finden sich im Internet unter www.alphabetisierung.at. An dieser Stelle sei darauf hingewiesen, dass ein Grundbildungsangebot, das im betrieblichen Kontext organisiert wird, für Österreich eine Innovation darstellt. Der Lehrgang findet direkt im Betrieb statt (Lernort ist Arbeitsort). Das erleichtert der Zielgruppe die Teilnahme (zeitliche und räumliche Niederschwelligkeit) und ist gleichzeitig ein Beitrag zur Sensibilisierung der Betriebe für die Notwendigkeit von Weiterbildungsangeboten für alle Mitarbeiter/innen. Eine Firma stellte während der Projektlaufzeit die Produktion am Kärntner Standort ein, von der Projektleiterin konnte jedoch ein neuer Kooperationsbetrieb für das Projekt „Bildung wieder entdecken“ gewonnen werden. Die andere Firma musste ebenfalls Arbeitsplätze abbauen, viele potenzielle Teilnehmerinnen wurden gekündigt, ein weiterer Lehrgang kam dennoch zustande. Die Teilnehmerinnen der beiden Pilotlehrgänge wurden zur Halbzeit ausführlich befragt. Danach folgte eine Reflexion zum Status quo mit der Projektleiterin und
Computer in der Grundbildungsarbeit
215
hand ausgewählter Evaluationsergebnisse werden Einblicke in die Lernprozesse und Aneignungsmöglichkeiten der Teilnehmerinnen in Bezug auf die Computernutzung (unter anderem Barrieren, Zugänge und Lernerfolge) gegeben. Der Computer wurde als Lernmedium (Lernprogramme) und Lerngegenstand (Office-Paket) in die Grundbildungsarbeit integriert. Es hat sich gezeigt, dass die Zielgruppe auf diesen Inhalt positiv reagiert hatte: Offenbar ist es einfacher, sich dieser neuen Grundkulturtechnik zu nähern, da Defizite in diesem Bereich weniger stigmatisierend wirken als Defizite in den Bereichen Lesen, Schreiben und Rechnen. Grundbildung ist immer mit Scham behaftet, denn die Teilnehmenden lernen etwas, das eigentlich als selbstverständlich betrachtet und vorausgesetzt wird. Dies dürfte beim Computer m.E. noch nicht in demselben Ausmaß der Fall sein wie bei den anderen Grundkulturtechniken. Außerdem bewirkt der Erwerb von Anwenderinnenkenntnissen offensichtlich einen Statusgewinn innerhalb der Zielgruppe dieses Angebotes. Die Schaffung eines positiven Zugangs zum Computer14 und der Erwerb von Anwenderinnenkenntnissen15 waren zwei wesentliche Ziele des Lehrganges. In den ersten Lerneinheiten erfolgte die Annäherung an das Gerät über das Tastaturtraining mittels Lernprogramm. Die Trainerin für Lesen, Schreiben, Rechnen und das Tastaturtraining erläuterte die dabei eingesetzte Vorgangsweise und ihre Haltung folgendermaßen: Ich habe es einfach mit Humor gemacht und versucht, ihnen so die Angst zu nehmen. Sie haben dann bald gemerkt, es kann nicht viel schief gehen. […] Es war also gar nicht so schlecht, dass ich nicht die große EDV-Expertin bin, sondern ganz offen sagen konnte, das kann ich nicht oder da muss ich selber nachfragen. Da haben sie gesehen, da kann nicht viel passieren.16
14 15
16
den Trainerinnen. Am Ende des Lehrganges wurden die Teilnehmerinnen sowie die Trainerinnen ausführlich befragt. Die Ergebnisse wurden der Projektsteuerungsgruppe sowie den beteiligten Firmen kommuniziert. Ein detaillierter Evaluationsbericht (Kastner 2006) liegt vor. Bader (1999, S. 41) spricht vom „Konzept der Aneignung“. Baacke (1999, S. 31) versteht unter Medienkompetenz die Befähigung, „[…] die neuen Möglichkeiten der Informationsverarbeitung souverän handhaben zu können“, und sie sei ein „Qualifikationsfeld“ (ebd., S. 34), wodurch der Prozess der Kompetenzentwicklung betont wird. Baacke benennt vier Ebenen von Medienkompetenz: Medienkritik, Medienkunde, Mediennutzung und Mediengestaltung (vgl. ebd.). Dieses Zitat und die folgenden Zitate von Teilnehmerinnen und Trainerinnen sind dem Evaluationsbericht (Kastner 2006) entnommen.
216
Kastner
Interessanterweise – und wie sich herausgestellt hat: klugerweise – verfügt diese Trainerin ‚nur’ über Anwenderinnenkenntnisse, denn das hatte auf die Lernprozesse der Teilnehmerinnen eine positive Auswirkung: Sie konnten ihre Ängste abbauen und die Scheu vor dem Gerät überwinden. Mehr als die Hälfte der Teilnehmerinnen hatte vor dem Lehrgang nämlich noch nie mit einem Computer zu tun gehabt, einige haben anderen Personen bei der Anwendung zugeschaut, insgesamt zeigten die Interviews jedoch, dass der Computer ganz klar männlich (Mann, Sohn, Bruder, Chef) konnotiert und besetzt ist. Die Erschließung von Lerninhalten erfolgte großteils über angeleitete und individuell von der jeweiligen Trainerin betreute Lernschritte bzw. teilweise auch in leistungshomogenen Kleingruppen. Dabei zeigte sich, dass der Einsatz von Lernprogrammen äußerst sinnvoll ist, denn dadurch bleiben die individuellen Lernbedarfe Sache der jeweiligen Teilnehmerin, und die Aneignung von Lerninhalten wird als weniger beschämend erlebt. Der Computer wurde als Lernmedium in den Lernfeldern Lesen und Schreiben sowie für das Tastaturtraining eingesetzt. Die Lernprogramme (Computer Based Training) waren bei den Teilnehmerinnen sehr beliebt, denn die Rückmeldung erfolgt dabei auf unpersönliche Weise durch den Computer. Das ist beim tabuisierten Lernfeld des Erwerbs von grundlegenden Lese- und Schreibkompetenzen offenbar von immenser Bedeutung: Unpersönliche Rückmeldungen der Lernprogramme sind für die Betroffenen, so scheint es, leichter ‚zu nehmen’ als entsprechende Rückmeldungen durch die Trainerinnen. Denn die Trainerinnen sollten ja in erster Linie als Vertrauensperson die Lernprozesse unterstützen, begleiten und fördern – insofern ist es von Vorteil, wenn die Lernprogramme die eher unangenehme Aufgabe der Beurteilung bzw. Korrektur übernehmen. Im Bereich der mathematischen Kompetenzen fiel es den Teilnehmerinnen noch schwerer, sich ihre Defizite einzugestehen. Im Bereich Lesen und Schreiben diente die Bezeichnung „neue deutsche Rechtschreibung“ gleichsam als Schutzmantel, unter dem individuelle Defizite vorborgen bleiben konnten. Für die Vermittlung von grundlegenden mathematischen Kompetenzen wäre ein Lernprogramm daher ebenfalls äußerst sinnvoll.17 Lernprogramme ermöglichen also eine individuelle und geschützte – und somit als weniger beschämend erlebte – Aneignung von 17
In einem Gespräch mit einer Grundbildungsexpertin (19. Oktober 2006, St. Pölten) konnte geklärt werden, dass erwachsenengerechte Lernprogramme für den Erwerb mathematischer Kompetenzen noch gar nicht entwickelt wurden. Hier besteht also dringender Handlungsbedarf. Aktuell werden in Deutschland entsprechende Entwicklungsschritte unternommen, Informationen dazu finden sich unter http://www.ich-will-rechnen-lernen.de/vorschau/.
Computer in der Grundbildungsarbeit
217
Lerninhalten, denn durch dieses technische Hilfsmittel bleiben die Lernbedarfe Sache der Lernenden. Die Evaluationsergebnisse zeigten auch die Bedeutung von Lernerfolgen im Bereich der Computernutzung: Weiterbildungsungewohnte Personen verfügen über eine geringere Lernkompetenz18 und können daher eigene Lernfortschritte weniger gut feststellen bzw. einschätzen. Jedoch sind Lernfortschritte am Computer sehr leicht feststellbar und sie stellen sich auch rasch ein. Positive Anreize – wie beispielsweise eine mit Hilfe einer Suchmaschine gefundene Information oder eine ausgedruckte Einladung zu einem Fest – sind gut sichtbar und steigern das Vertrauen in die eigenen Fähigkeiten, wodurch sich die Selbstwirksamkeitserwartung19 erhöht. Auch die Fähigkeit, den Computer bedienen zu können, ihn sich nutzbar zu machen, steigert, vor allem bei Frauen für die der Computer bislang „Männersache“ war, das Vertrauen in die eigenen Fähigkeiten.
Scheinbar Selbstverständliches ist nicht selbstverständlich… Im Folgenden sollen drei Problemfelder beleuchtet werden, wobei die Grundproblematik darin besteht, dass scheinbar Selbstverständliches eben nicht selbstverständlich ist. Problemfeld I Die Kumulation von Nachteilen wurde evident, denn wer nicht gut lesen kann, findet sich im textbasierten Internet schwer zurecht. Im Lehrgang erfolgte die Internet-Recherche angeleitet durch die Trainerinnen. Dadurch sollte eine mögliche Überforderung der Teilnehmerinnen durch die Fülle an verfügbaren Informationen verhindert werden. Es zeigte sich aber, dass die Teilnehmerinnen mit ausgeprägten Grundbildungsdefiziten stärker benachteiligt waren, denn das Internet ist 18
19
Die individuelle Lernkompetenz kann durch die Teilnahme an Weiterbildungsangeboten durch die dabei stattfindenden Lernprozesse gefördert und gestärkt werden. Durch didaktisch-methodische Elemente kann dazu ein Beitrag geleistet werden, beispielsweise durch Unterstützung bei der Selbsteinschätzung, durch das Führen eines Lerntagebuches, durch Feedback-Runden, durch gemeinsame Planung, durch gemeinsame Ergebnissicherung etc. „Selbstwirksamkeitserwartung beschreibt die subjektive Gewissheit, neue oder schwierige Anforderungssituationen aufgrund eigener Kompetenzen bewältigen zu können (Bandura 1997) oder in diesen Situationen über eigene Handlungsmöglichkeiten zu verfügen (Situations-Handlungs-Erwartungen, Krampen 2000)“ (Kohlmann et al. 2005, S. 11).
218
Kastner
primär textbasiert. Die Trainerin für Lesen, Schreiben und Rechnen berichtete in diesem Zusammenhang folgendes: […] wenn wir nicht genau wissen, was wir da suchen sollen, was sollen wir da nehmen [tauchte als Frage der Teilnehmerinnen auf, M.K.]. Ich habe am Beginn schon geleitet, wir gehen auf diese oder jene Homepage, aber dieses Erschlagen werden [von der Fülle an Informationen, M.K.] haben sie auch. Und da kommt die Hürde dazu, bei den schwachen Teilnehmerinnen, dass sie beim Lesen ganz viel Zeit brauchen, dann vielleicht das Erstbeste nehmen und gar nicht mehr weitersuchen, weil sie die Lesefähigkeit zum Querlesen gar nicht haben.
Die EDV-Trainerin setzte in diesem Zusammenhang die Übung „InternetQuiz“ ein. Diese dient dazu, den Wert von Informationen einschätzen zu lernen, wobei in Paararbeit unbekannte Begriffe mit Hilfe des Internets er- bzw. geklärt werden. Die Trainerin meinte rückblickend, dass die Teilnehmerinnen mit dieser Aufgabe Schwierigkeiten hatten, das heißt damit, „[…] selber zu beurteilen, ob die gefundene Information zur Fragestellung passt“. Im Zusammenhang mit Lernprozessen von (weiter-) bildungsungewohnten Personen wird folgendes festgehalten: Gerade auch im Umgang ‚bildungsferner Gruppen’ mit den neuen Medien, wie z.B. dem Internet und den vielen neuen Formen des ‚blendedlearnings’ geht es vielfach um Qualitäten der Kontextualisierung von Wissen, denn Informationen sind kaum etwas wert, wenn der dazu notwendige Kontext der Einordnung nicht hergestellt werden kann. (Egger 2006, S. 209)
Die für die angesprochene Kontextualisierung von Wissen erforderlichen Kompetenzen (vor allem Lesefähigkeit) könnten mit entsprechender Förderung und den dafür notwendigen zeitlichen Ressourcen entwickelt werden. Im Lehrgang war dafür die Zeit zu knapp. Für eine Nachhaltigkeit der Lernprozesse müsste dieser Prozess des Erwerbs von Kompetenzen mit den Teilnehmerinnen fortgeführt werden. Problemfeld II Für die Teilnehmerinnen stellte sich die Frage nach dem (individuellen, praktischen) Nutzen von Anwenderinnenkenntnissen. In der Grundbildung sollte die Vermittlung von Anwenderinnenkenntnissen nicht als Selbstzweck, sondern in Verbindung mit individuell brauchbaren Inhalten erfolgen, denn das Ziel ist, die individuelle Teilhabe zu erhöhen. Im Programm Excel wurde beispielsweise die Ein-
Computer in der Grundbildungsarbeit
219
nahmen-Ausgaben-Rechnung, die auch bei vielen Teilnehmerinnen sehr gut angekommen ist, geübt. Das Internet (Suchmaschinen) wurde zur Informationsbeschaffung genutzt: Es wurde unter anderem auf den Seiten der Arbeiterkammer (Arbeitnehmerveranlagung, Konsumentenrecht) sowie Bahnverbindungen, Tageszeitungen oder das VHS-Kursangebot recherchiert. Beim Erstellen von Briefen wurden beispielsweise Mobiltelefon- und Versicherungsvertragskündigungen angefertigt und Einladungen zu Grillpartys und ähnliches gestaltet. Es zeigte sich, dass die Anwendungsbeispiele mehrheitlich aus dem privaten Bereich der Teilnehmerinnen stammten. Die Befragten sind großteils auf so genannten Einfacharbeitsplätzen, bei denen kein Computer eingesetzt wird, tätig – nur eine Teilnehmerin konnte ihre neu erworbenen Anwenderinnenkenntnisse gewinnbringend an ihrem Arbeitsplatz einsetzen. In Bezug auf die künftige Nutzung des Computers stellte eine Teilnehmerin beispielsweise fest, der Computer sei für sie „reiner Zeitvertreib“: Zuhause schreibt sie an einem gebrauchten Computer übungshalber Texte, oder „wenn ich jemanden erwische, der Internetzugang hat, dann lese ich so Reiseberichte“. Als weitere Nutzungsmöglichkeiten wurden folgende genannt: Informationsbeschaffung und Surfen, Schreiben und Ablegen von Dokumenten, Spielen, Musik Hören, E-Mails, Einnahmen-Ausgaben-Rechnung. Künftige berufliche Nutzungsmöglichkeiten wurden nicht angesprochen, obwohl einigen Teilnehmerinnen die Bedeutung von Anwenderinnenkenntnissen in der gegenwärtigen beruflichen Welt bewusst zu sein schien. Eine Teilnehmerin stellte beispielsweise fest: „In der heutigen Zeit geht ohne Computer überhaupt nichts mehr. Es ist in jedem Beruf von Vorteil.“ Eine andere meinte: „Es ist so, wenn man es nur für private Zwecke braucht, ist es eine Spielerei. Aber wenn man in einen Beruf umsteigt, wo heute überall EDV-Kenntnisse gefragt sind, wirklich überall schon. Ich glaube, dann ist das sehr wichtig.“ Hier wird eine Diskrepanz evident: Die Teilnehmerinnen sehen keinen unmittelbaren beruflichen Nutzen, wissen aber um die Bedeutung des Computers in der modernisierten Arbeitswelt und reflektieren auf diese potenzielle Anforderung. Bedingt durch den Abbau von Arbeitsplätzen sind einige der Lehrgangsabsolventinnen von Entlassung, Aufnahme in eine Arbeitsstiftung, Umschulung und/oder Erwerbslosigkeit betroffen. Es könnte also durchaus sein, dass der Computer für einige doch recht plötzlich zum Gebrauchsgegenstand im beruflichen Kontext bzw. in berufsspezifischen Weiterbildungsmaßnahmen20 wird. 20
Arbeitsmarktpolitische Weiterbildungsmaßnahmen sind nicht per se von schlechter Qualität, aber sie sind m.E. großteils weniger teilnehmer/innen/orientiert und ganz sicher nicht auf die Bedürfnisse der Zielgruppe der Weiterbildungsungewohnten zugeschnitten. Im schlimmsten Fall könnten die positiven Lernerfah-
220
Kastner
Problemfeld III Vielen Teilnehmerinnen bleibt der Zugang zum Computer nach dem Ende des Lehrganges aufgrund der männlichen Dominanz sowie der (vermuteten bzw. befürchteten hohen) Kosten für Gerät(e) bzw. InternetAnschluss großteils verwehrt. Viele Teilnehmerinnen konnten die Hemmschwelle in Bezug auf den Computer überwinden und Begeisterung wurde teilweise geweckt. Befragt nach möglichen Weiterbildungswünschen, meinten einige Teilnehmerinnen, sie würden gerne ihre Anwenderinnenkenntnisse vertiefen bzw. erweitern. In diesem Zusammenhang fiel auch positiv auf, dass den Teilnehmerinnen bewusst war, dass sie üben sollten, um ihre erworbenen Fähigkeiten nicht wieder zu verlernen (Stichwort: Lernkompetenz). Nach dem erfolgreichen Erwerb von Anwenderinnenkenntnissen haben sich viele Teilnehmerinnen für zuhause einen Computer gewünscht. Allerdings können sich viele die Anschaffung eines Computers nicht leisten, zusätzlich stellt sich auch noch die Frage der Finanzierung eines InternetAnschlusses, wie die EDV-Trainerin ausführte: Man muss das mit dem Einkommen [der Teilnehmerinnen, M.K.] beurteilen. Mit diesem Einkommen ist ein Computer ein Luxusgut, brauche ich es oder nicht. Wenn ich sage, beruflich kann ich es nicht nutzen und zuhause habe ich andere Dinge zu tun in meiner Freizeit, die wichtiger sind. So von der Entscheidung her, soll ich mir ein Gerät kaufen oder nicht.
Im privaten Bereich stellte sich für die Teilnehmerinnen die Frage nach der Sinnhaftigkeit eines Computers jedoch nicht nur wegen der Kosten, denn bei den Teilnehmerinnen handelte es sich um doppelt- bzw. dreifach (Erwerbs- und Hausarbeit sowie Kinderbetreuungspflichten) belastete Frauen mit einem geringen Freizeitbudget. War in der Familie bereits ein Computer vorhanden, blieb dieser offenbar in Männerhand. Eine Teilnehmerin berichtete beispielsweise, dass ihr Sohn sie durch das Setzen eines Passwortes vom Gebrauch des Gerätes ausgeschlossen hatte. Die Trainerin für Lesen, Schreiben und Rechnen stellte in diesem Zusammenhang fest: Es ist schon schwierig, dass nicht alle daheim einen Computer haben. Eine oder zwei haben zwar einen Computer, aber da herrscht diese Hierarchie, alles was Computer ist, da ist der Mann zuständig. Und die Frau hat bei dem Gerät nichts zu suchen. rungen mit dem Lehrgang „Bildung wieder entdecken“ zunichte gemacht werden und es könnte sich „Bildungsfrust“ statt „Bildungslust“ einstellen.
Computer in der Grundbildungsarbeit
221
Diese Ausführungen illustrieren einige empirische Befunde zu schicht-, geschlechts- und bildungsspezifischen Differenzen hinsichtlich der Teilhabe an den neuen Medien, speziell der Internet-Community. In der Gruppe der bildungsbenachteiligten Frauen, insbesondere auch bei älteren Frauen, sind starke Ausschlussmechanismen (wie zum Beispiel männliche Dominanz, Auswirkungen der geschlechtsspezifischen Arbeitsteilung) feststellbar.
Ausblick: Erhöhung der individuellen Teilhabe durch Bildung Von besonderer Bedeutung – und eine nationale bildungspolitische Herausforderung – ist es, Bildungsbenachteiligungen zu beseitigen und (neue) Zugänge zum lebensbegleitenden Lernen zu schaffen. Unerlässlich für die Erhöhung der Teilhabe von bildungsbenachteiligten Personen sind erwachsenengerechte, qualitätsgesicherte und kostenlose bzw. kostengünstige21 Grundbildungsangebote zum Erwerb bzw. zur Verbesserung der Lese-, Schreib- und Rechenkompetenzen sowie zur Vermittlung von IKT-Kompetenzen. Das vorgestellte Projekt „Bildung wieder entdecken“ scheint für die Zielgruppe der bildungsbenachteiligten Frauen ein Beispiel guter Praxis zu sein. Die drei beschriebenen Problemfelder zeigen jedoch, wie diese Frauen dennoch in ihren Teilhabechancen eingeschränkt sind/werden bzw. wie es zu Ausschlüssen kommt. Bei der Beseitigung dieser Barrieren ist Bildung nicht in jedem Fall (beispielsweise im Kampf gegen die strukturellen Ursachen der geschlechtsspezifischen Arbeitsteilung) das Mittel der Wahl. Geht es jedoch um die Zugänglichkeit von Informationen und deren Weiterverarbeitung, die Entwicklung von Kompetenzen und um persönliche Stärkung, spielt Bildung eine nicht unbedeutende Rolle. Gerade für die Zielgruppe der bildungsbenachteiligten Frauen scheinen betriebliche Grundbildungsmodelle sinnvoll zu sein. Die Rahmenbedingungen des Lehrganges wurden von den interviewten Teilnehmerinnen oftmals als ideal beschrieben: Die Teilnehmerinnen schätzten die räumliche und zeitliche Nähe des Bildungsangebotes zum Arbeitsplatz (direkt in der Firma und gleich nach der Arbeit), denn für das Angebot „Bildung wieder entdecken“ wurden in den beteiligten Firmen Kursräume mit Computerarbeitsplätzen eingerichtet. Diese Kursräume könnten in Zukunft für weitere betriebliche Grundbildungsangebote genutzt werden, wodurch diese Räume zu „Bildungsräumen“ werden könnten, die Teilhabe an Informationen und Wissen eröffnen. 21
M.E. sollten Angebote zur nachholenden Grundbildung für die Teilnehmerinnen und Teilnehmer kostenlos sein, denn die (primäre) Grundbildung ist es in Österreich bis zur Absolvierung der allgemeinen Schulpflicht (9. Schulstufe) ja auch.
222
Kastner
Literatur Arbeitsmarktservice Österreich (2006): Arbeitsmarkt & Bildung. Jahreswerte 2005 (AMS info 79). Wien: AMS. Arbeitsstab Forum Bildung (2001): Lernen – ein Leben lang. Vorläufige Empfehlungen und Expertenbericht. Materialien des Forum Bildung Nr. 9. Bonn: Arbeitsstab Forum Bildung in der Geschäftsstelle der Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. Baacke, Dieter (1999): „Medienkompetenz als zentrales Operationsfeld von Projekten“. In: Baacke et al. (1999), S. 31-35. Baacke, Dieter, Susanne Kornblum, Jürgen Lauffer, L. Mikos und B.A. Thiele (1999), Hg.: Handbuch Medien: Medienkompetenz. Modelle und Projekte. Bonn: Bundeszentrale für politische Bildung. Bader, Roland (1999): „Förderung von Handlungskompetenz in der pädagogischen Arbeit mit PC und Internet“. In: Baacke et al. (1999), S. 41-47. Doberer-Bey, Antje und Otto Rath (2003): „Ein verborgenes Problem. Alphabetisierung, Basisbildung, Literarität“. In: Brigitta Busch und Rudolf De Cillia, Hg.: Sprachenpolitik in Österreich. Eine Bestandsaufnahme. Frankfurt am Main u.a.: Lang, S. 166-179. Egger, Rudolf (2006): Gesellschaft mit beschränkter Bildung. Eine empirische Studie zur sozialen Erreichbarkeit und zum individuellen Nutzen von Lernprozessen. Graz: Leykam. Europäische Kommission (2000): Memorandum über Lebenslanges Lernen. Arbeitsdokument der Kommissionsdienststelle. SEK(2000)1832. Brüssel. http://ec.europa.eu/education/policies/lll/life/memode.pdf (Online-Ressource). Geißler, Karlheinz (2004): „Bildung und Einbildung“. Schulheft 29/116: 60-72. Geßner, Thomas (2004): „Was benachteiligt wen und warum? Versuch einer Präzisierung des Konstrukts ‚Benachteiligung’“. Zeitschrift für Sozialpädagogik 2/1: 32-44. Giere, Ursula (2005): Jede Vierte, jeder Sechste… Analphabetismus und Alphabetisierung in Entwicklungs- und Industrieländern. Ein Beitrag zur UNWeltalphabetisierungsdekade. Barcelona u.a.: Klett Sprachen. Gruber, Elke (2001): Beruf und Bildung – (k)ein Widerspruch. Bildung und Weiterbildung in Modernisierungsprozessen. Innsbruck u.a.: Studienverlag. Gruber, Elke (2005): „Alphabetisierung und Grundbildung – Grundlagen beruflicher und gesellschaftlicher Teilhabe“. In: Kammer für Arbeiter und Angestellte für Kärnten, Hg.: Bildung. Chance für Beschäftigung. Dokumentation zur Fachtagung „Grundbildung und Alphabetisierung“. Schriftenreihe Arbeit & Bildung 11/2005. Klagenfurt: Arbeiterkammer Kärnten, S. 5-17. Gruber, Elke (ohne Jahr): „Weiterbildung – (k)ein Weg zur Chancengleichheit?“ Arbeitspapier. http://www.uni-klu.ac.at/ifeb/eb/Chancengleicheit_weissbuch_vsstoe.pdf (Online-Ressource). Hanappi-Egger, Edeltraud (2003): „Geschlechtsspezifische Aspekte von selbstgesteuertem und selbstorganisiertem Lernen mit Neuen Medien“. In:
Computer in der Grundbildungsarbeit
223
Christian Gary und Peter Schlögl, Hg.: Erwachsenenbildung im Wandel. Theoretische Aspekte und Praxiserfahrungen zu Individualisierung und Selbststeuerung. Wien: Österreichisches Institut für Berufsbildungsforschung, S. 168-176. Holzer, Daniela (2004): Widerstand gegen Weiterbildung. Weiterbildungsabstinenz und die Forderung nach lebenslangem Lernen. Wien: Lit. Kastner, Monika (2006): Evaluationsbericht zum Projekt “Bildung wieder entdecken”. Über die Möglichkeiten und Grenzen der Bildungsarbeit mit „bildungsfernen“ Arbeiterinnen (im Auftrag der Kärntner Volkshochschulen; unveröffentlicht). Klagenfurt: Universität Klagenfurt. Kastner, Monika (im Erscheinen): „Bildungsbenachteiligte Frauen und Computernutzung: Zugänge und Lernerfahrungen“. In: Christina Schachtner und Angelika Höber, Hg.: Learning Communities. Der Cyberspace als neuer Lern- und Wissensraum. Frankfurt am Main und New York: Campus. Kohlmann, Carl-Walter, H. Eschenbeck, U. Heim-Dreger, H. Albrecht, V. Hole und A. Weber (2005): „Entwicklung und Validierung einer Skala zur Erfassung computerbezogener Selbstwirksamkeitserwartungen (SWE-C)“. In: Karl-Heinz Renner, Astrid Schütz und Franz Machilek, Hg.: Internet und Persönlichkeit. Differentiell-psychologische und diagnostische Aspekte der Internetnutzung. Göttingen: Hogrefe, S. 11-23. Kübler, Hans-Dieter (2005): Mythos Wissensgesellschaft. Gesellschaftlicher Wandel zwischen Information, Medien und Wissen. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenschaften. OECD (2004), Hg.: Thematic Review on Adult Learning. Austria – Country Note. Paris: OECD. http://www.oecd.org/dataoecd/31/19/32303060.pdf (Online-Ressource). ÖVH (2003): „Wer nicht lernt, soll auch nicht essen. Die Illusionen des lebenslangen Lernens. Weiterbildung ist mit Mythen befrachtet.“ Interview mit Erich Ribolits. Die Österreichische Volkshochschule (ÖVH). Magazin für Erwachsenenbildung. 54/208: 7-9. Reinberg, Alexander (2003): „Schlechte Zeiten für gering Qualifizierte? – Arbeitsmarktsituation, Beschäftigung und Arbeitsmarktperspektiven“. In: Friedrich-Ebert-Stiftung, Abteilung Arbeit und Sozialpolitik, Hg.: Gering Qualifizierte – Verlierer am Arbeitsmarkt?! Konzepte und Erfahrungen aus der Praxis. Gesprächskreis Arbeit und Soziales Nr. 101. Bonn: Friedrich-EbertStiftung, S. 13-26. http://library.fes.de/pdf-files/asfo/01578.pdf (OnlineRessource). Schneeberger, Arthur (2005): Strukturwandel – Bildung – Employability. Reihe ibw-Bildung & Wirtschaft Nr. 34. Wien: Institut für Bildungsforschung der Wirtschaft. Statistik Austria (2002), Hg.: Geschlechtsspezifische Disparitäten. Wien: Bundesministerium für Soziale Sicherheit und Generationen. Statistik Austria (2006), Hg.: Einkommen, Armut und Lebensbedingungen. Ergebnisse aus EU-SILC 2004. Wien: Statistik Austria. Tröster, Monika (2000): „Grundbildung – Begriffe, Fakten, Orientierungen“. In: dies., Hg.: Spannungsfeld Grundbildung. Bielefeld: Bertelsmann, S. 12-27.
224
Kastner
Tröster, Monika (2005), Hg.: Neue Medien bewegen die Grundbildung. Lernprogramme – Konzepte – Erfahrungen. Bonn: Deutsches Institut für Erwachsenenbildung. Wagner, Daniel A. und Richard Sweet (2006): „Introduction“. In: OECD, Hg.: ICT and Learning. Supporting Out-of-school Youth and Adults. Paris: OECD, S. 9-12. Alle Online-Quellen geprüft im Juli 2007.
Ist das Konzept des Blended Learning eine zufriedenstellende pädagogische Antwort auf didaktische Defizite des E-Learning? Karin Kornprath*
Einleitung Digitale Medien haben sich in den letzten Jahren als selbstverständlicher Bestandteil des Lehr- und Lernangebots in den verschiedensten Bildungsinstitutionen etabliert. Die zunehmende Auseinandersetzung (meist in Form von Studien, Aktivitäten, Projekten) mit virtuellen oder teilvirtuellen Lernformen trägt zu einem erkenntnisreichen Prozess der Weiterentwicklung neuer Lernformen bei. Ausgehend von diesen Erkenntnissen geht es heute nicht mehr vorrangig um die Erprobung von technologiegestützten Lernarrangements, sondern bereits um die Weiterentwicklung von Curricula, Strukturen und Prozessen. Die Frage lautet demgemäß nicht mehr, ob digitale Medien im Lehr- und Lernkontext ihre Berechtigung haben, sondern vielmehr, in welcher Ausprägung und Intensität sie Curricula sinnvoll ergänzen. Gefordert sind also Lösungen oder Lösungsansätze, die zur Weiterentwicklung des technologiegestützten Lehrens und Lernens und zu nachhaltigen Veränderungen an Schulen und Hochschulen beitragen. Im vorliegenden Aufsatz wird die Sichtweise vertreten, dass das große Potential der neuen Lernformen in Kombination mit konventionellen Unterrichtsmethoden eine besonders hohe Wirksamkeit bietet. Daraus entwickelte sich der Ansatz des so genannten Blended Learning, ein Lernmodell, das auf dem gezielten Einsatz von technologischer Unterstützung in Kombination mit herkömmlichen Unterrichtsmethoden basiert. Weiters ist relevant, dass der Einsatz von technologiegestützten Lernarrangements in das didaktische Modell der Bildungsinstitution integrierbar sein muss, um erfolgreich zu sein. Ziel der Weiterentwicklung von Lehrund Lernmethoden muss es sein, Lernen erfolgreicher zu gestalten. Ich gehe davon aus, dass Präsenzveranstaltungen auch in Zukunft weiter *
BKS und Institut für Erziehungswissenschaft und Bildungsforschung, Universität Klagenfurt.
226
Kornprath
fortbestehen werden und der Lehrende1 im Rahmen einer Ausbildung dabei weiterhin eine wichtige Rolle bei der Wissensvermittlung behält – wenngleich sich das Berufsbild eines Lehrers den neuen Anforderungen anpassen muss. Deshalb sollten Lehr-/Lernarrangements so konzipiert sein, dass sowohl der Lehrende als auch der Lernende in den einzelnen Phasen des Lernprozesses unterstützt werden. Die Integration neuer Medien im Unterricht vollzieht sich vor dem Hintergrund, dass internetbasierte, multimedial aufbereitete Lernmodule in traditionelle Lehrveranstaltungen eingebunden werden sollen. Sie ergänzen nun die für den klassischen Frontalunterricht traditionellen Unterrichtsmedien. In den so genannten hybriden Lernarrangements darf allerdings nicht die Überlegenheit eines bestimmten Mediums oder einer bestimmten Methode im Vordergrund stehen, sondern vielmehr deren Zusammenspiel. Es geht darum, die Vorteile möglicher Varianten so zu kombinieren, dass pädagogische Zielvorstellungen ebenso wie Effizienzkriterien so weit wie möglich erreicht werden können. Unter diesem Verständnis wird im vorliegenden Aufsatz versucht, die Lernform Blended Learning als eine mögliche pädagogische Antwort auf die Frage nach neuen Lehr- und Lernmethoden vorzuschlagen.
Blended Learning – ein pädagogischer Mehrwert – vs. E-Learning Blended Learning ist eine Lehrmethode, bei der die Vorteile von Präsenzunterricht und E-Learning systematisch jeweils eingesetzt werden. Das Konzept verbindet die Effektivität und Flexibilität von elektronischen Lernformen mit den sozialen Aspekten des gemeinsamen Lernens. Die beiden sehr unterschiedlichen Lernformen werden kombiniert und zu einer Einheit zusammengeführt. Sie haben also eine didaktisch sinnvolle Verknüpfung von traditionellem Klassenzimmerlernen und virtuellem bzw. Online-Lernen. Der zentrale Aspekt von Blended Learning muss in der Vor- bzw. Nachbereitung von Präsenzveranstaltungen liegen. Insbesondere die Nachbereitung sichert einen gewissen Lerntransfer, den klassische Präsenzveranstaltungen nicht leisten können. Nur die Kombination von traditionellen mit neuen Medien – versehen mit einem sinnvollen didaktisch-methodischem Bildungskonzept – bietet einen tatsächlichen pädagogischen Mehrwert. Durch Blended Learning soll die Optimierung von Lernprozessen angestrebt werden, um in1
Geschlechtsspezifische Bezeichnungen wurden in diesem Artikel aufgrund der besseren Lesbarkeit nicht gleichzeitig in ihrer männlichen und weiblichen Form, sondern ausschließlich in ihrer männlichen verwendet.
Blended Learning und E-Learning
227
dividuelle Lernziele unter Nutzung aller dafür geeigneten Lehr- und Lernmethoden zu erreichen. Wenn Blended Learning vor allem den bewusst arrangierten Mix aus Medien und Methoden meint, könnte der Schluss nahe liegen, dass diese Form des Lernens als eine eigenständige Form des E-Learning gilt. Dem ist nicht so. Blended Learning betont sowohl die grundsätzliche Kombination von IKT-basiertem2 als auch nicht-IKT-basiertem Lernen. Eine Interpretation dieser gemischten Lernform hängt davon ab, aus welcher Perspektive Bildungsarbeit geleistet werden soll. Vom Standpunkt des Präsenzlehrens und -lernens aus betrachtet, ist Blended Learning eine Bezeichnung dafür, dass man traditionelle Methoden und Medien mit Möglichkeiten des E-Learning kombiniert. Im Vordergrund steht jedoch nach wie vor die Präsenzlehre. Vom Standpunkt des virtuellen Lernens und Lehrens aus betrachtet, beschreibt Blended Learning einen Ansatz, der E-Learning mit dem klassischen Lehr- Lernrepertoire ohne Technikeinsatz ‚mischt.’ Im Fokus steht weiter das Lernen mit neuen Medien. Insgesamt betrachtet entspricht das pädagogische Grundkonzept, auf dem diese semivirtuelle Lernform fußt, einer gemäßigt-konstruktivistischen Auffassung, der zufolge Lernen ein aktiv-konstruktiver, selbstgesteuerter, sozialer und situativer Prozess ist. Die Idee, mehrere Lernformen miteinander zu verbinden, ist nicht neu. Schon in den 70er Jahren wurde von so genannten „hybriden Lernformen“ gesprochen, wenn es darum ging, die damals ‚neuen’ Medien Audio und Video mit herkömmlichen Lernformen zu verbinden. In den 80er Jahren wiederholte sich die Diskussion bei der Einführung des Computer Based Trainings (CBT) auf Basis von CD-ROM. Die Chancen und Möglichkeiten, die in einer didaktisch und inhaltlich gut begründeten Kombination von E-Learning und Präsenzlernen stecken, werden grundsätzlich als sehr positiv betrachtet (vgl. Kraft 2003). Kraft betont dabei die besondere Wirksamkeit kombinierter Lernarrangements, wenn sie in das Gesamtkonzept eines Lehr-Lernarrangements eingebunden sind. Gegenwärtig wird Blended Learning im Bereich der Weiterbildung stark diskutiert. Fundierte Konzepte sowie empirische Studien zum Blended Learning werden vor allem an Universitäten erstellt. Richtwerte über die technischen, didaktisch-methodischen und nicht zuletzt organisatorischen Standards sind ebenso Teile der Studien wie Konzeptionen über Lerninhalte, Lehr-Lernziele und Lernertypen dieser Arrangements. Bildungsforscher sind sich jedoch darüber einig, dass der gemeinsame Vorteil der medialen und traditionellen Lehr-Lern-Formen darin liegt, dass sie sich gegenseitig integrieren und kombinieren und dadurch ein 2
IKT = Informations- und Kommunikationstechnologien.
228
Kornprath
effektives, erfolgreiches Lernen für die Lernenden ermöglicht wird. Die Grenzen zwischen Präsenzlernen und E-Learning sind durch die Integration neuer Medien in Präsenzveranstaltungen fließend. Die methodischen und didaktischen Konzepte und Fragen beim E-Learning und Präsenzlernen sind sich ähnlich. Trotzdem gibt es je Lernform spezifische Merkmale, die bei der Gestaltung von Blended-Learning-Konzepten berücksichtigt werden sollten. In Präsenzveranstaltungen haben die Teilnehmenden die Möglichkeit, zeitgleich direkten Kontakt mit allen Teilnehmenden aufzunehmen, spontan auf andere zu reagieren, und die Partizipation im Lerngeschehen ist transparent. Beide Seiten, Lehrende und Lernende, erhalten im gemeinsamen Austausch unmittelbares verbales und nonverbales Feedback. Überdies bieten Präsenzveranstaltungen über den offiziellen Rahmen hinaus die Möglichkeit für informelle Kontakte und Treffpunkte. Vor- und Nachteile des Präsenzlernens lassen sich wie folgt zusammenfassen: Beim Präsenzlernen besteht die Möglichkeit zur persönlichen Kontaktaufnahme; der soziale Kontakt, die Gruppenbildung und das persönliche Kennenlernen von Lehrenden und Lernenden sind konkrete Kennzeichen der Präsenzlehre. Dieses Zusammentreffen macht die Kommunikation ganzheitlich. Allerdings verlangt der Präsenzunterricht, dass sich alle Personen zur gleichen Zeit am gleichen Ort befinden müssen. Die Teilnehmer müssen das gleiche Lerntempo aufweisen und auch denselben Lerninhalt anstreben. In der Lernform E-Learning lassen sich folgende Vor- und Nachteile erkennen: Lernort und Lernmodus obliegt den Lernenden, ebenso wird das Lerntempo vom Teilnehmer selbst bestimmt. Dies setzt voraus, dass der Lernstoff gut aufbereitet ist. Es findet keine soziale Bindung zu weiteren Teilnehmern statt. Missdeutungen von Inhalten bleiben unbemerkt, und eine hohe Selbstlernkompetenz ist erforderlich. Bei der Gegenüberstellung der Vor- und Nachteile von Präsenzlehre und E-Learning fällt auf, dass Präsenzveranstaltungen durch überwiegend sozial-kommunikative Elemente geprägt sind. Die direkte, persönliche und reale Kommunikation und der soziale Austausch werden in der Präsenzveranstaltung besonders geschätzt. Präsenzveranstaltungen sollen ein Bindeglied zwischen den Online-Modulen darstellen. Dadurch ergeben sich in der Präsenzphase Möglichkeiten, den sozialen und kollegialen Austausch sowie Gruppenaufgaben weiterzuentwickeln, diese zu reflektieren und zu diskutieren. Der Blended-Learning-Ansatz nimmt für sich in Anspruch, an den Bedürfnissen und Voraussetzungen der Lernenden anzusetzen und von daher anschlussfähige Informationen zur persönlichen Wissenskonstruktion zu bieten, gleichzeitig aber wird die systematische Wissensvermitt-
Blended Learning und E-Learning
229
lung nicht verweigert. Es findet beim Blended Learning also nicht nur ein Medien- und Methodenmix statt, auch die dem Lernen und Lehren zugrunde liegende Auffassung lässt sich nicht einer einzigen Lerntheorie zuordnen. Jede Theorie des Lernens kann prinzipiell zur Anwendung kommen.
Merkmale des Blended Learning Blended Learning im Sinne einer Medien-, Methoden- und KonzeptMischung ist nicht nur eine didaktische Innovation, sondern vor allem eine Prozessinnovation. Mit dem Einsatz multipler Methoden und Medien werden neue Gestaltungen vorgenommen und damit Prozesse und Strategien des Lernens und Lehrens verändert. Blended Learning ist flexibel, weil es sich an die gegebenen Bedingungen eines Lehr-Lernkontextes anpasst. Sowohl die Inhalte als auch die Voraussetzungen der Lernenden und die verfügbaren Ressourcen werden berücksichtigt. Damit steigt die Wahrscheinlichkeit, dass sich didaktische Neuerungen aus Blended-Learning-Modellen im Bildungsmanagement durchsetzen und weiter innovative Ansätze daraus gewonnen werden können. Blended Learning arbeitet mit virtuellen und mit face-to-face-Anteilen und bringt damit hybride Lernarrangements hervor, in denen die LehrLerninhalte auf verschiedenen Medien und Methoden verteilt sind (vgl. Kerres 2002). Dieses Charakteristikum macht didaktische Konzepte aus dem Blended-Learning-Ansatz an verschiedene Lernerfahrungen und Lernstile der Lernenden anschlussfähig. Als innovativer Ansatz kann durchaus gewertet werden, dass Blended Learning nicht nur Medien und Methoden ‚mixt’, sondern auch verschiedene Lehr-Lernauffassungen integriert. Diese didaktischen Konzepte knüpfen an Bestehendes an und binden gewachsene Strukturen, Einstellungen und Routinen zum Lernen in neue Vorgehensweisen ein, um sie allmählich zu verändern. Die Prozessmerkmale des Blended Learning werden, insbesondere in ihren Vorzügen, in der Literatur wie folgt beschrieben: Die Lernenden rezipieren die angebotenen Inhalte nicht nur, sondern bauen aktiv und konstruktiv mentale Modelle zu den einzelnen Themenblöcken auf und erweitern die bereits bestehenden Modelle. Die Lernenden erarbeiten sich die Inhalte weitgehend eigenständig und selbstgesteuert und werden darin unterstützt, ihren Wissenserwerb auch selbständig zu evaluieren. Sie praktizieren neben individuellem Lernen auch soziales bzw. kooperatives Lernen, indem sie vorgegebene Aufgabenstellungen in Gruppen bearbeiten. Auf diesem Wege werden auch situative Aspekte in den Lernprozess aufgenommen. Der Ansatz von Blended Learning im Allgemeinen,
230
Kornprath
aber auch der von Kerres im Speziellen erfüllt meines Erachtens die Forderungen der konstruktivistischen Lerntheorie. Instruktionale Anleitung wird also mit aktiven, kontextgebundenen und authentischen, interaktiven Elementen gemeinsam angeboten, wodurch die in offenen Lernumgebungen erforderlichen Selbstlernkompetenzen schrittweise entwickelt werden können.
Methoden des Blended Learning Das Ineinandergreifen einer personengebundenen und authentischen face-to-face-Darstellung von Inhalten einerseits und einer hypertextuellen Aufbereitung derselben Inhalte andererseits führt dazu, dass verschiedene Darstellungsformen von Information miteinander kombiniert werden. Die Wahl der Medien beeinflusst das methodische Vorgehen beträchtlich. Die Präsenzphasen beinhalten die klassische Form der Informationsvermittlung, indem über die jeweiligen Inhalte referiert wird. Die Lernenden sind dabei in einer eher rezeptiven Position, sie werden allerdings von Anfang an zu Fragen und Diskussionen aufgefordert. In der nach jedem Präsenztermin sich anschließenden Selbstlernphase arbeiten die Lernenden individuell mit der CD-ROM, anhand derer sie den jeweiligen Themenblock wiederholen und vor allem vertiefen können. Ebenfalls in diese Selbstlernphase fällt die Bearbeitung einer problemorientierten Aufgabe in jedem Themenblock, die in face-to-face-Gruppen erfolgen kann. Informationsaufnahme und Diskussion im Plenum, selbstgesteuerte Phasen des individuellen Lernens und selbstorganisierte Gruppenarbeit kommen der Forderung nach praxisnahen und problemorientierten Aufgabenstellungen nach. Zudem ist es sinnvoll, wenn es zu unterschiedlichen Themen Aufgaben gibt, in denen der Lernende die neu erworbenen Inhalte anwenden soll. Dabei soll auf den Anwendungscharakter Wert gelegt werden, nämlich dadurch, dass die Aufgaben zum einen in möglichst authentische Kontexte eingebettet sind, die für die Lernenden auch nachempfunden werden können, und dass sie zum anderen eine praktische Umsetzung im Rahmen der authentischen Kontexte erfordern. Problemorientierte Aufgaben spielen in hybriden Lernszenarien eine zentrale Rolle und können als Lernaufgaben mit mehrfacher Funktion verstanden werden. Nach Kerres (2002) haben Lernaufgaben in E-Learning-Angeboten die Funktion, den Lernenden zu aktivieren und den Lernerfolg zu sichern. Diesen Ausführungen entnehme ich, dass die Aktivierung kognitiv, emotional und/oder in Bezug auf soziale Interaktionen erfolgen kann. Bei der Sicherung des Lernerfolgs geht es um die Anwendung des Gelernten, um Übung neuer Inhalte und Überprüfung des Ge-
Blended Learning und E-Learning
231
lernten. Die problemorientierten Aufgaben in der semivirtuellen Veranstaltung erfüllen alle genannten Funktionen gleichzeitig: Sie aktivieren kognitiv, weil sich die Aufgaben nur sinnvoll bearbeiten lassen, wenn man die dargebotenen Inhalte auch verstanden hat. Sie aktivieren emotional, weil die Aufgaben so gestellt sind, dass die Lernenden einen persönlichen Bezug zu den geforderten Inhalten herstellen können. Die Aufgaben bieten ein zusätzliches Element für den Wissenserwerb und bewirken damit eine wiederholte Auseinandersetzung mit den Inhalten. Neben dem persönlichen Austausch wird mit direkter Kommunikation auch die Möglichkeit zu gemeinsamer Reflexion, zum Austausch von Sichtweisen, zur Klärung von Aufgaben und zur Vorbereitung für das nächste Online-Modul verbunden. Die Bedeutung der Präsenzphasen hängt stark von den Inhalten, Zielsetzungen, eingesetzten Methoden, von der Teilnehmergruppe, der Veranstaltungsdauer und dem Arbeitsmodus während der Online-Phasen ab. Bei der Aufbereitung der Inhalte muss die Orientierung innerhalb des Lernprogramms für den Lernenden gewährleistet sein, so dass viel Wert auf Übersichtsgrafiken, überschaubare Informationseinheiten, verständliche Sprache und eine klare Struktur gelegt wird. Auf der inhaltlichen Ebene müssen die Präsenzveranstaltungen und die CD-ROM in einem doppelten Verhältnis zueinander stehen. Kerres (2002) verwendet in diesem Zusammenhang den Begriff „Überdeterminiertheit“ und meint damit, dass verschiedene Elemente das gleiche Lehrziel anstreben. Es muss also zu einer inhaltlichen Überlappung kommen, indem sowohl die CD-ROM als auch der Präsenzunterricht dieselben Inhalte zum selben Themenblock bereit stellen.
Auswirkungen von Blended-Learning-Modellen Die Entwicklung von multimedialen Lernmodulen verursacht zweifelsohne Kosten, die teils auf Seiten der Technik entstehen und teils auf Seiten der Didaktik. Technologisches Know-how, der Programmieraufwand und die notwendigen Testphasen scheinen vordergründig die größeren Kostenfaktoren zu sein. Bei näherer Auseinandersetzung mit der gegenwärtigen Literatur, aber auch auf Grundlage meiner Erfahrung bei der Erstellung von E-Learning-Programmen, muss ich an dieser Stelle jedoch festhalten, dass die technische Gestaltung und Umsetzung immer erst in einem zweiten Schritt erfolgen kann. Zuvor muss ein didaktisches Grundkonzept ausgearbeitet werden, das sämtliche erwachsenenpädagogischen Merkmale berücksichtigt. Solche Merkmale sind „authentische Problemsituationen“, „Einbau des Lernmoduls in die betrieblichen Bildungsmaßnahmen“, „inhaltliche Anpassung an die Aufgabenbereiche der Lernen-
232
Kornprath
den“ etc. Lernmodelle wie Blended Learning können demzufolge immer nur auf Bestehendem aufbauen. Sowohl die technischen als auch die didaktischen Voraussetzungen müssen gegeben sein, um Lerninhalte für hybride Lernarrangements aufzubereiten. Ein so verstandenes Blended Learning kann sich erfolgreich auswirken. Neuerungen durch Blended Learning infolge von Flexibilität, hybriden Lernarrangements und integrativem Charakter können durchaus die didaktischen Defizite des E-Learning kompensieren und als eine pädagogische Antwort verstanden werden. Weitere Aspekte sind bei kombinierten Lernmodellen wie dem des Blended Learning zu beachten: Zum einen ist die Zeit und Dauer einer Weiterbildung entscheidend. Je länger eine Weiterbildung dauert, als um so wichtiger erweisen sich Präsenzveranstaltungen für die Motivation und das Durchhaltevermögen der Teilnehmer. Zum anderen erweisen sich bei online-unerfahrenen Teilnehmergruppen Präsenzveranstaltungen als besonders bedeutsam, insbesondere um sich über die bislang ungewohnte Lernform auszutauschen. Hilfreich ist dabei auch eine gemeinsame Einführung in die Lernumgebung. Die Bedeutung der methodischen Gestaltung wurde bereits erwähnt. Sie ist in Relation zu den Lernzielen zu setzen. Wenn intensive Gruppenarbeiten durchgeführt werden sollen, dann ist es vielfach sinnvoll, diese durch ein Kennenlernen der Gruppe und eine reale Arbeitsplanung zu erleichtern. So können mögliche virtuelle Gruppenprobleme besser bearbeitet werden. Basiert die E-Learning-Weiterbildung weniger auf kommunikativen und kollaborativen Elementen, so haben Präsenzveranstaltungen eine geringere Bedeutung. Dennoch stellt sich die Frage, welche Lernform für das jeweilige Lehr-Lernziel und die jeweiligen Inhalte passend ist. Hier gilt es, die Stärken des E-Learning, also die Visualisierung, das individuelle Lernen, die zeitliche und räumliche Flexibilität und den erweiterten Zugriff auf Informationen gegenüber den Stärken des Präsenzlernens, also dem direkten Kontakt, der Gruppenbildung sowie der räumlichen und zeitlichen Synchronizität abzuwägen und die Stärken der jeweiligen Lernform zu nutzen.
Auswirkungen des E-Learning Die Weiterbildungslandschaft hat sich verändert. Die daraus folgenden Auswirkungen sind in der betrieblichen Weiterbildung genauso erkennbar wie auch in speziellen Berufsbildern und in der Lernkultur. Von den konventionellen Unterrichtsformen in den Klassenzimmern oder Seminarhotels verlagert sich der Wissenstransfer in virtuelle Räume. Reine E-Learning-Konzepte sind bislang jedoch nicht sehr erfolgreich, da viele Kom-
Blended Learning und E-Learning
233
ponenten, wie der soziale Austausch zwischen Lehrenden und Lernenden oder den Lernenden untereinander ebenso wie die Selbstlernkompetenz und die Medienkompetenz, oftmals fehlen. Teilvirtuelle Lernarrangements, die mit Teilen des herkömmlichen Unterrichtsstils kombiniert werden, sind hingegen vielversprechender. Vor dem Hintergrund eines ganzheitlichen didaktischen Konzeptes könnte sich Blended Learning durchaus als erfolgversprechende Lernform sowohl in Weiterbildungsinstitutionen als auch in der betrieblichen Aus- und Weiterbildung etablieren. Damit wären Veränderungen im Bildungsprofil der Unternehmen verbunden. Sowohl das Bildungsangebot als auch die Methodik der Lernmodelle müssten adaptiert werden, so dass eine Neugestaltung des Unternehmensleitbildes hinsichtlich der Bildungsaktivitäten für die Mitarbeiter die Folge wäre. Aufgrund all dieser Erneuerungen entstünden neue Berufsbilder, wie E-Trainer oder Tele-Tutor, deren Ausbildung entsprechend den Anforderungen der neuen Lernmodelle angepasst werden müsste. In vergleichbarer Weise ist die Lernkultur insgesamt diesem allgemeinen Veränderungsprozess unterworfen. Insoweit sich die Bedingungen für die Lernenden und die Ausbildung für die Lehrenden neu gestalten, kann von einer umfassenden Neu-Konzeption der Lernkultur gesprochen werden. E-Learning oder andere so genannte neue Lernformen, wie selbstorganisiertes oder virtuelles Lernen, werden in der Erwachsenenbildung als besonders lernwirksam und effizient beschrieben. Allerdings stellt sich bei genauerer Betrachtung die Frage, was neue Lernformen von traditionellen unterscheidet, und ob sich Lernergebnisse überhaupt eindeutig auf eine Lernform zurückverfolgen lassen. Die als neu oder innovativ bezeichneten Methoden sind aber nicht alle neu. Der Ursprung dieser Unterrichtsmethoden wurde in der Vergangenheit erprobt und in Gesamtunterrichtskonzepten mehr oder weniger erfolgreich eingesetzt. Unter dem Begriff „neue Lernformen“ werden in der gegenwärtigen Internetrecherche nahezu ausschließlich Formen des multimedialen und telekommunikativen Lernens angezeigt, die meist unter dem Begriff des E-Learning subsumiert werden. Die meisten Angebote des E-Learning, welche als „neue Lernformen“ angepriesen werden, basieren auf einer traditionellen Didaktik und haben, bis auf technische Neuerungen, wenig Innovatives zu bieten. Somit wird deutlich, dass das Medium allein noch nicht die Form des Lernens verändert. Es handelt sich bei den neuen Medien zunächst um Informationssysteme und noch nicht um Lernoder Lehrsysteme. Gruber (1998) stellt fest, dass Bildung und Lernen sich in modernisierten Gesellschaften verändern müssen. Es wird deutlich, dass es die Weiterbildung nicht gibt – zu vielfältig und bunt ist das Angebot, zu unterschiedlich sind die Perspektiven der anderen Disziplinen und Nach-
234
Kornprath
barwissenschaften. Hinzu kommt, so Gruber, „dass das Geflecht an individuellen, institutionellen und gesellschaftlichen Interessen und Bedürfnissen, in dem sich Bildungsarbeit mit Erwachsenen abspielt, immer komplexer wird. Und dennoch hat sich Weiterbildung in den letzten Jahren als eigenständiger Bereich etabliert, der sowohl einen bestimmten Wert als auch eine gewisse Legitimation besitzt“ (Gruber 1998, S. 242). Insgesamt fällt auf, dass die Erwachsenenbildung sowohl in ihrer Wissenschaftlichkeit als auch in der Entwicklung ihrer Theorien einen spürbaren Aufschwung erlebt. Weil die Erwachsenenbildung in ihrer Gestaltung interdisziplinär geprägt ist, sind auch die Perspektiven von angrenzenden Wissenschaften wie Soziologie, Pädagogik und Erziehungswissenschaften maßgeblich an dieser Entwicklung beteiligt. Offensichtlich erweist es sich als besonders schwierig, die Theorie der Erwachsenenbildung zu entwickeln. Dagegen bezieht man möglichst viele andere Disziplinen und Nachbarwissenschaften mit ein und orientiert sich vor allem an aktuellen wissenschaftlichen Strömungen. Hinzu kommt, dass ein Alltagsleben ohne technische Hilfsmittel und jenseits technischer Infrastruktur heute kaum noch möglich ist. Die leicht zugängliche Verwendung von Technik und digitalen Kommunikationsmitteln wirkt sich auf die Freizeitverwendung, auf Erziehungsziele, Lehrpläne und vor allem auf den Berufsalltag aus. Seit dem alltäglichen Gebrauch des Internets und der digitalen Kommunikationsmedien wird von einer „digitalen Umwelt“ gesprochen. In nahezu allen Berufsbranchen werden Großteile der Kommunikation auf dieser Ebene abgewickelt. Die rasante Entwicklung lässt das effiziente Einsetzen dieser Kommunikationsmedien für jeden Menschen zu einer permanenten Anpassungsaufgabe werden.
Diskussion Die unterschiedlichen Ansätze der Lernmodelle wurden im Kontext eines übergeordneten didaktischen Modells beleuchtet. Alles spricht dafür, dass nicht die technische Machbarkeit langfristig entscheidend für den Erfolg von Präsenzlernen, Blended Learning oder E-Learning sein wird. Es geht vielmehr um die Nutzung des Machbaren mit intelligenten Konzepten und Methoden. Fragen der Kontrolle von Qualität und Wirkung neuer Lehr- und Lernformen werden erst seit Kurzem wissenschaftlich untersucht und gewinnen sowohl in der unternehmensinternen als auch in der bildungswissenschaftlichen Diskussion zunehmend an Bedeutung. E-Learning wird vielleicht erfolgreich sein können, wenn, abgesehen von den Voraussetzungen einer didaktischen Einbindung in ein ganz-
Blended Learning und E-Learning
235
heitliches Bildungskonzept, standardisierte Angebote geliefert und zertifizierte Webkurse attraktiv gestaltet werden. Sie könnten, inklusive automatisierter Leistungskontrolle, zeit- und ortsflexibel im Selbststudium absolviert werden und große Gruppen von Lernenden im Sinne des „Learning on demand“ bedienen. Virtuelles Lernen sollte keinesfalls nur als eine weitere Distributions- und Präsentationsform betrachtet werden; es birgt, wenn es sinnvoll eingesetzt wird, mehr Potential in sich. Weitere Voraussetzungen sind sicherlich Lehr- und Lernmethoden, die forschendes, offenes, projektorientiertes, auf authentische Probleme zugeschnittenes und persönlich begleitetes Lernen ermöglichen. Nur wenn Maßnahmen ergriffen werden, die E-Learning mit qualitativ hochwertigen Lernmodulen erweitern, können sich pädagogische und andragogische Vorstellungen gegenüber ökonomischen durchsetzen. Sinnvolle E-Learning-Programme, die didaktisch innovativ und aufwändig gestaltet sind, sollten auch Präsenzphasen in ihr Konzept einbauen. Die Einstiegskosten für didaktisch anspruchsvolle Programme sind hoch, der Aufwand für die Entwicklung und Programmierung solcher E-Learning-Programme erheblich. Um solche Investitionen zu rechtfertigen, müssen eindeutige Kosten-Nutzen-Analysen erstellt und detaillierte Bedarfsanalysen formuliert werden. Nur so lassen sich Bildungsziele und deren Kosten transparent machen. Blended Learning begründet sich als eine mögliche Variante einer Implementierung von E-Learning als Unterrichtskomponente in traditionelle Schulungs- und Weiterbildungsmaßnahmen. Didaktische Konzeptionen werden dabei ebenso thematisiert wie die Variantenvielfalt der multimedialen Lernformen. Die Zielsetzung der hybriden Lernmodelle ist, interaktive Lernprogramme mit dem konventionellen Unterricht zu verbinden. Die konkrete Ausgestaltung von hybriden Lernarrangements hängt von vielen Faktoren, wie Inhalt, Lehrziel und Zielgruppe ab. E-Learning in Kombination mit dem Präsenzunterricht führt zu neuen didaktischen Herausforderungen. Diese neuen Lernformen sollen keineswegs nur als Substitut für bestehende Lernangebote, sondern vielmehr als sinnvolle Ergänzung erkannt werden. Hinzu kommt, dass durch den Einsatz neuer Bildungsmedien auch die Rolle der Lehrenden verändert wird. Sie nehmen viel mehr die Funktionen eines Beraters oder Coachs ein, um den Lernprozess des Teilnehmers zu begleiten und zu unterstützen. Aus der Perspektive der Lehrenden dienen die Lernprogramme zur medialen Unterstützung und Vorbereitung ihrer Lehrtätigkeit. In der Diskussion um die Thematik des neuen Rollenverständnisses sind Lehrkräfte ein wesentlicher Teil des Lehrprozesses und können keinesfalls durch neue Lehrtechnologien ersetzt werden. Lehrtechnologien können einen Lernprozess immer nur in mehr oder weniger großen Teilen unterstützen und
236
Kornprath
ergänzen; somit haben interaktive Lernsysteme ihre Berechtigung. Weil die Aufgaben am Arbeitsplatz immer komplexer und differenzierter werden, müssten auch die Anforderungen an die Lernprogramme adäquat adaptiert werden, um in ein ganzheitliches Unterrichts- oder unternehmensinternes Weiterbildungskonzept integriert werden zu können. Der besondere Wert von hybriden Lernarrangements liegt in der Integration zahlreicher Formen der Lernbegleitung durch E-Trainer oder Tutoren. Sie stützen den Lernenden während des Lernprozesses in den Online-Komponenten und in den Präsenzphasen. Die Gesamtkonzeption des Blended Learning umfasst die beiden Elemente „Selbstlernphase“, also tutoriell begleitetes Selbststudium, und „Präsenzphase“, also Einzelaufgaben, Lerngruppen, Workshops und Coaching. Diese Blended Learning-Systeme verknüpfen Präsenzveranstaltungen in Form von praxisorientieren Lernarrangements mit Phasen des selbstgesteuerten Lernens. Die Integration von fachlichen und handlungsorientierten Lernzielen ermöglicht eine sehr hohe Lerneffizienz. Es zeichnet sich ab, dass die bisher meist getrennten Lernsysteme für individuelles Lernen und für Lernen in Organisationen zusammenwachsen. Systematisches Lernen und situatives Lernen in Projekten oder am Arbeitsplatz verschmelzen, Lernangebote werden immer mehr zu Lösungsmodellen von Praxisproblemen genutzt. Viele als ‚neu’ charakterisierte Lernformen zeichnen sich dadurch aus, dass sie bekannte und bewährte methodisch-didaktische Vermittlungsarten in neuen Formen miteinander verbinden. Sie entdecken alte verschüttete Techniken wieder und ergänzen kognitive, auf rationaler Erkenntnis und Verarbeitung basierende Lernformen um suggestive, sinnliche, kreative, spielerische und neue technologische Dimensionen. In der Verknüpfung dieser Elemente aus einem reichen Methoden-Pool zu eigenen Konzepten liegt oftmals das Neue (vgl. Brinkmann 2000). Meines Erachtens kann dieses Gesamtarrangement von neuen und alten Methoden nur auf Grundlage einer ganzheitlichen Konzeption erfolgreich sein. Wissensvermittlung findet sozusagen mit neuen Methoden und Medien statt, und Wissensaneignung erhält durch Komponenten wie Selbstlerntechnik, Multimedia und projektbegleitendes Lernen einen neuen Rahmen. Aus dieser Sicht stimme ich Brinkmann zu, dass das Neue in Lernszenarien wohl darin zu finden ist, dass Wissensvermittlung und -aneignung auf unterschiedliche Weise methodisch und medial miteinander verknüpft werden. Die Bemühungen um neue Verknüpfungsmöglichkeiten basieren auf der lernpsychologischen Erkenntnis, dass unser Gehirn jeden Tag Billionen Informationen verarbeiten muss, aber nur wenige davon gespeichert werden können. Je mehr Verknüpfungen zu bereits bekannten Inhalten angesprochen werden, desto mehr Inhalte und Zusammenhänge können behalten werden. Daraus ziehe ich den Schluss,
Blended Learning und E-Learning
237
dass Lehrmethoden entwickelt werden müssen, die für den Lerner aktiv und erlebnisorientiert sind, wie es auch in der konstruktivistischen Lerntheorie gefordert wird. Mit hybriden Lernarrangements erhalten die Lernenden die Möglichkeit, Probleme aus verschiedenen Perspektiven zu betrachten, so dass sie die Inhalte unter verschiedenen Aspekten bzw. von verschiedenen Standpunkten aus sehen und bearbeiten können. Ziel ist die flexible Anwendung des Wissens. Ebenso bekommen sie die Gelegenheit, sinnvoll und selbstbestimmt zu arbeiten, und haben dennoch genügend Spielraum, um Vorwissen und Erfahrung mit dem neu hinzugefügten Wissen zu verknüpfen. Für die Lernenden muss der Wissensaufbau deshalb so gestaltet werden, dass der Prozess nicht nur als interessant empfunden wird, sondern auch in weiterer Folge aktiv durch Selbstinitiativen angestrebt wird. „Die Lernenden sollen das Lernen als einen Prozess erfahren, der es gestattet, persönlich als schwierig empfundene Aufgaben und Probleme zu lösen“ (Hasebrook und Otte 2002, S. 119). Lehrende müssen die Lernenden dort abholen, wo sie sich kognitiv und emotional befinden. Das Sprichwort „der Mensch wächst durch die an ihn gestellten Herausforderungen“ kann hier durchaus platziert werden. Denn auch im Bildungsszenario müssen Anstrengungen erfolgen, um Wissensaufbau zu ermöglichen. Dies wiederum lässt die kognitive und emotionale Entwicklung zu. Diese Anstrengungen sind durch Konflikte gekennzeichnet, die den Lernprozess auslösen. Meines Erachtens sollten die Lehrenden dabei darauf verzichten, fertige Lösungen zu geben; dies würde der Aussage von Hasebrook und Otte entsprechen. Die Lehrenden sorgen vielmehr dafür, dass Fehler und Widersprüche diskutiert und Wahrheiten in Frage gestellt werden. Blended Learning setzt die konstruktivistischen Lerntheorien um, indem Eigenaktivität, aktive Auseinandersetzung mit Problemen, Förderung der Problemlösefähigkeit, praxisorientierte Konfliktbegegnung und auch Eigenverantwortlichkeit eingefordert werden. Die Lernenden werden vor authentische Aufgaben gestellt, die realitätsnah zu lösen sind. Dabei sollen viele Interaktionsmöglichkeiten sowohl zwischen Lernenden untereinander als auch zwischen Lernenden und Lehrenden ermöglicht werden. Abschließend stelle ich fest, dass hybride Lernarrangements sich dadurch auszeichnenen, dass sie authentische Situationen beinhalten, Wissen in verschiedenen Zusammenhängen präsentieren und eine flexible Übertragung auf neue Problemlösesituationen ermöglichen. Der Lernende wird motiviert, eine Problemstellung mehrperspektivisch auszuleuchten. Interaktion und kooperatives Lernen sollen angestrebt werden, wobei die Lernenden weitestgehende Gestaltungs- und Handlungsfreiheiten haben. Online-Lernformen wie Blended Learning oder Web Based Training
238
Kornprath
zeichnen sich dadurch aus, dass sie flexible und lernerzentrierte Inhalte zulassen. Durch den Einsatz von Informations- und Kommunikationstechnologien, insbesondere durch die breite Verfügbarkeit des Internets, können verschiedene Lernformen miteinander kombiniert in Anspruch genommen werden. Diese hybriden Lernarrangements ermöglichen berufsbegleitendes, bedarfsorientiertes Lernen. Eine didaktisch gut durchdachte Vorbereitung, die die Basis in dem gesamten Bildungsarrangement bildet, macht bereits einen Mehrwert eines Bildungsangebots aus. Betonen möchte ich dennoch, dass eine professionelle Technik und ein professionelles Design für den Komfort des virtuellen Lernens von großer Bedeutung sind. Mängel in diesem Bereich können sich sehr ungünstig auf den Lernprozess auswirken. Unbedacht ausgewählte, schlecht strukturierte und lernunfreundlich formulierte Inhalte lassen sich auch mit High-Tech auf der Hard- und Softwareebene nicht wieder gutmachen. Fakt ist, dass die Lerneffizienz durch die Kombination von konventionellen und virtuellen Lernmethoden erhöht wird und somit Blended Learning eine ernstzunehmende pädagogische Antwort auf die didaktischen Defizite des E-Learning bietet.
Literatur Brinkmann, Dieter (2000): Moderne Lernformen und Lerntechniken in der Erwachsenenbildung. Formen selbstgesteuerten Lernens. Bielefeld: IFKA-Schriftenreihe (Band 17). Gruber, Elke (1998): „Paradoxe Moderne“. In: Werner Lenz, Hg.: Lernen ist nicht genug! Innsbruck: Studienverlag, S. 241-243. Hasebrook, Joachim und Mathias Otte (2002): E-Learning im Zeitalter des ECommerce. Bern: Verlag Hans Huber. Kerres, Michael, Claudia de Witt und Jörg Stratmann (2002): „E-Learning: Didaktische Konzepte für erfolgreiches Lernen“. In: Karlheinz Schwuchow und Joachim Guttmann, Hg.: Jahrbuch Personalentwicklung und Weiterbildung 2003. Neuwied: Luchterhand, S. 131-139. Kraft, Susanne (2003): „Blended Learning – ein Weg zur Integration von E-Learning und Präsenzlernen“. Report. Zeitschrift für Weiterbildungsforschung (Band zu „Erfahrungen mit neuen Medien“) 26/2: 43-52. Sacher, Werner (2006): Didaktik der Lernökologie. Lernen und Lehren in unterrichtlichen und medienbasierten Lernarrangements. Bad Heilbrunn: Verlag Julius Klinkhardt.
IT-Frust statt Lust? Zur Studienwahl von Jugendlichen aus Sicht von SchülerInnen, Eltern, Lehrenden und Praktikern Peter Antonitsch, Larissa Krainer, Ruth Lerchster und Martina Ukowitz*1
Die Universität Klagenfurt, die Fachhochschule Technikum Kärnten und der Lakeside Science & Technology Park treten seit November 2004 unter der Dachmarke IT-Campus gemeinsam auf, um Schülerinnen und Schülern bestehende Angebote im Bereich von informationstechnologischen Lehrgängen und Studien in Kärnten zu vermitteln; der Lakesidepark positioniert sich dabei als Forschungs- und Praxispartner.2 Zur Koordination der Aufgaben wurde eine gemeinsame Arbeitsgruppe (ARGE IT-Bildungsstandort Kärnten) eingerichtet. Im März 2006 wurde das Institut für Interventionsforschung und kulturelle Nachhaltigkeit von dieser ARGE kontaktiert, um ein Forschungsprojekt unter dem Titel „Kriterien der Studienwahl von Schülerinnen und Schülern unter spezieller Berücksichtigung von IT-Studiengängen an Fachhochschule und Universität“ durchzuführen. Finanziert wurde das Projekt vom Kärntner Wirtschaftsförderungs Fonds (KWF).3 Der Projektstart erfolgte im Juni 2006. Das Interventionsforschungskonzept umfasst folgende Dimensionen: –
–
*
1
2 3
Quellen- und Literaturrecherchen (vergleichbare Studien, Inskriptionsstatistiken, gesetzliche Rahmenbedingungen, themenspezifische Artikel und Aufsätze etc.); Durchführung eines Startworkshops mit der ARGE IT-Bildungsstandort Kärnten (Erhebung von Vorvermutungen und Erwartungen in Bezug auf das Forschungsprojekt sowie von Erwartungen, die an Studierende im IT-Bereich gestellt werden); HTL und Institut für Interventionsforschung und kulturelle Nachhaltigkeit, Universität Klagenfurt. Bei diesem Beitrag handelt es sich um eine Kurzfassung des Berichts zum Projekt „Kriterien der Studienwahl von Schülerinnen und Schülern unter besonderer Berücksichtigung von IT-Studiengängen“ (Antonitsch et al. 2007). Vgl. http://www.it-campus.at/de/facts.php. Vgl. http://www.kwf.at.
240 –
–
– –
–
Antonitsch, Krainer, Lerchster, Ukowitz Auswahl von zwei Gymnasien für die Pilotstudie: eine Allgemeinbildende Höhere Schule (AHS) in „Standardform“ (in welcher der Informatikunterricht als Pflicht- bzw. Wahlpflichtfach organisiert ist) sowie eine Schule mit naturwissenschaftlich-informatischem Schwerpunktunterricht; Durchführung von 25 qualitativen Interviews mit insgesamt 62 Personen (SchülerInnen einer sechsten und einer siebenten AHS-Klasse, IT-Lehrenden an Schulen und Hochschulen, Mitgliedern der ARGE IT-Bildungsstandort Kärnten und Lakeside-Park-Unternehmern); Durchführung eines Workshops mit den Eltern einer Klasse; Durchführung von Rückkoppelungsveranstaltungen für die interviewten Personen (je eine davon in den Schulen für SchülerInnen und LehrerInnen, zwei für die erweiterte ARGE IT-Bildungsstandort Kärnten, Lehrende an Schulen und Hochschulen sowie Unternehmer); Verfassen eines schriftlichen Abschlussberichtes.4
Zum einen hat sich gezeigt, dass SchülerInnen nur schwer Kriterien ihrer Studienwahl präzisieren können, zum anderen wurden verschiedene Faktoren sichtbar, die die Wahl beeinflussen können. Dazu zählen neben Wünschen, die junge Menschen in Hinblick auf ihre Zukunft hegen, auch konkrete Erfahrungen, die sie auf ihrem Weg durch die Schule mit bestimmten Fächern gemacht haben, sowie Vorstellungen, Bilder und Klischees, die sie von bzw. über Branchen und Studienrichtungen haben. Studienwahl ist eine multikriterielle, aber auch eine ‚institutionenübergreifende’ Frage. Insofern rücken auch Kooperationen im Bildungssektor, aber auch mit PraxispartnerInnen in den Blick der Forschung. Gerade dort, wo systemübergreifende Problemstellungen sichtbar werden, halten wir das Angebot der Interventionsforschung für ein Potenzial, das gemeinsamen Nutzen für ForschungspartnerInnen stiften kann.
I.
Informatikunterricht an Allgemeinbildenden Höheren Schulen5
Die Interviews mit Schülerinnen und Schülern wurden in zwei Klassen an Allgemeinbildenden Höheren Schulen mit unterschiedlicher informatischer Ausrichtung durchgeführt. Die eine ist eine AHS-„Standardform“. Hier ist in der Oberstufe der Informatikunterricht als einjähriges Pflicht4
5
Für nähere Ausführungen zum Forschungsprojekt vgl. Krainer und Ukowitz (2007), S. 143-161. Vgl. Antonitsch (2007), S. 49-85.
IT-Frust statt Lust?
241
fach in der 5. Klasse vorgesehen, interessierte Schülerinnen und Schüler können sich daran anschließend für ein dreijähriges Wahlpflichtfach entscheiden. Die interviewten Lehrerinnen und Lehrer dieser Schule geben an, im Rahmen des Pflichtgegenstandes „eine gute Basis“ bieten zu wollen, worunter sie insbesondere das Vermitteln von Basiskompetenzen im Umgang mit Anwendungssoftware sowie der „bleibenden Teile der Informatik“ verstehen.6 Durch das Anschneiden „moderner Themen“ (zum Beispiel Multimedia-Anwendungen) sollen Schülerinnen und Schüler auch zur tiefer gehenden Auseinandersetzung mit der Informatik, das heißt zum Besuch des Wahlpflichtfaches motiviert werden, in dem die unterschiedlichen Schwerpunkte nach Aussage der Lehrer weitgehend „individuell gesetzt“7 werden. In der zweiten Schule ist im Rahmen der Schulautonomie ein naturwissenschaftlich-informatischer Ausbildungsschwerpunkt definiert, so dass für alle Schülerinnen und Schüler dieses „IT-Zweiges“ in der 3. und 4. Klasse Unterstufe und in der Oberstufe Unterricht mit informatischer Ausrichtung verpflichtend ist. Der Informatikunterricht der Oberstufe ist modulartig aufgebaut, wobei sich jedes Modul spezifisch je einem Bereich der Kerninformatik oder einem Anwendungsbereich der Informatik widmet. Zusätzlich können die Schülerinnen und Schüler in der 7. und 8. Klasse ein Wahlpflichtfach aus Informatik bzw. ab der 5. Klasse einen Freigegenstand zu „Netzwerktechnik“ wählen. Die in den „informatischen Fächern“ erworbenen Kenntnisse sollen auch in den naturwissenschaftlichen Labors angewendet werden.8
Einschätzung des ITIT-Unterrichts durch SchülerInnen Ich hab mir das am Computer auch ziemlich selber beigebracht […] der Informatikunterricht war meiner Meinung nach ziemlich umsonst.9 […] ich habe überhaupt kein Problem mit Informatik, mir taugt es total.10
Die interviewten Schülerinnen und Schüler werden daher im Rahmen des Schulunterrichts verschieden intensiv mit Informatik konfrontiert. Daraus und aufgrund der unterschiedlichen Curricula für den Informatik6 7 8 9 10
Interview 13, S. 9. Vgl. Interview 13, S. 13. Vgl. Interview 7, S. 18 und 23. Interview 1, S. 13. Interview 3, S. 10.
242
Antonitsch, Krainer, Lerchster, Ukowitz
Unterricht an den Schulen resultieren unterschiedliche Wahrnehmungen von Informatik. Schülerinnen und Schüler, die nur das zweistündige Pflichtfach besucht und Informatik nicht als Wahlpflichtfach gewählt haben, geben mehrheitlich an, sich stärker für andere Bereiche zu interessieren. Als Gründe dafür werden sowohl Unterforderung als auch Überforderung im Pflichtfach angegeben. Von Unterforderung ist etwa die Rede, wenn SchülerInnen sagen, Computerkenntnisse „ganz sicher nicht in der Schule“11 erworben, sondern sich „irgendwie selber beigebracht“12 zu haben. „Überforderung“ kommt demgegenüber etwa zum Ausdruck, wenn SchülerInnen meinen, dass für sie im Pflichtgegenstand „alles irgendwie zu schnell gegangen“ sei, bzw. wenn häufig der Bereich des Programmierens als zu komplex bewertet wird.13 Darüber hinaus bewegen Einschätzungen zur individuellen Begabung Schülerinnen und Schüler dazu, lieber ein anderes Wahlpflichtfach zu wählen. So behauptet etwa ein Schüler von sich, „kein Händchen für Computer zu haben“14, eine Schülerin bezeichnet den Computer gar als „Feind“15, ein Dritter möchte sich „lieber mit Worten als mit Zahlen“16 ausdrücken. Es ist auch davon die Rede, dass Informatik „nicht kreativ“17 sei. Die Schülerinnen und Schüler der AHS ‚Standardform’, die sich für das Wahlpflichtfach Informatik entschieden haben, konsumieren in der Oberstufe insgesamt acht Stunden Informatik. Von diesen gibt ein Teil an, sich aufgrund des Unterrichts im Pflichtfach etwas anderes von dem Wahlpflichtfach Informatik erwartet zu haben, und äußert sich dementsprechend „enttäuscht“.18 Das zeigt sich etwa, wenn SchülerInnen sagen, dass in der 5. Klasse „viel coolere Sachen“19 gemacht worden seien (als Beispiele werden dafür insbesondere Video- und Musikschnitte oder das Designen von Homepages genannt)20. Kritisiert wird auch, dass der Unterricht im Wahlpflichtfach „einfach nur reines Programmieren“21 sei. Offen ist hier die Frage, inwiefern gerade das Bemühen der LehrerInnen, den Informatikunterricht im Pflichtfach abwechslungsreich und motivierend zu gestalten, ein „verzerrtes“ Bild der Informatik bei Schülerinnen 11 12 13 14 15 16 17 18 19 20 21
Interview 1, S. 12. Vgl. Interview 1, S. 12 und 13. Interview 1, S. 13. Interview 5, S. 31. Interview 1, S. 22 und 23. Interview 5, S. 35. Vgl. Interview 3, S. 10; Interview 10, S. 14. Vgl. Interview 10, S. 14. Interview 3, S. 10. Vgl. Interview 3, S. 13 und 16; Interview 10, S. 13 und 14. Vgl. Interview 3, S. 9 f, 14 und 26; Interview 10, S. 14.
IT-Frust statt Lust?
243
und Schülern hervorruft. Eine zweite Gruppe findet hingegen Gefallen am Unterricht. Eine Schülerin gibt an, „überhaupt kein Problem mit Informatik“ zu haben und sagt, dass ihr das Fach „total taugt“ und dass sie es interessant finde, überhaupt zu wissen, „was da abgeht im Computer“.22 Diese unterschiedlichen Erfahrungen mit „Informatik“ im Wahlpflichtfach spiegeln sich nicht in der Außenwahrnehmung der anderen Schülerinnen und Schüler wider. Dort werden eher die ‚kritischen Stimmen’ über das Wahlpflichtfach gehört. Ein Schüler, der das Wahlpflichtfach nicht besucht, sagt zum Beispiel, dass er keinen aus seiner Klasse kenne, der in das Informatik-Wahlpflichtfach „mit Begeisterung geht“ 23. Zum anderen würden die vom Wahlpflichtfach Informatik enttäuschten Schülerinnen und Schüler weder das Wahlpflichtfach noch einmal wählen noch ein IT-Studium bzw. einen späteren Beruf im IT-Bereich in Erwägung ziehen. Beide Effekte könnten zu einer einseitigen Imagebildung von „Informatik“ beitragen. Diejenigen Schülerinnen und Schüler, die den „IT-Zweig“ besuchen, werden in der Schule am intensivsten mit Informatik konfrontiert. Die Interviews mit dieser Gruppe zeigen allerdings, dass aus einem vermehrten Angebot informatischer Inhalte sowie dem engagierten Bemühen der Lehrkräfte um einen abwechslungsreichen Unterricht nicht notwendig eine uneingeschränkt positive Sicht der Lernenden auf Informatik resultieren muss. Vielmehr ist Unterricht als multikriterielles Geschehen aufzufassen, dessen Erfolg stark von organisatorischen Rahmenbedingungen abhängt: –
–
22 23
So meinen die Schülerinnen und Schüler ziemlich einhellig, dass die Entscheidung für oder gegen den informatisch-naturwissenschaftlichen Zweig in der 2. Klasse viel zu früh sei. Etliche Schülerinnen und Schüler geben auch an, den Zweig entweder zur Vermeidung eines sprachlichen Schwerpunktes oder in Erwartung naturwissenschaftlicher Schwerpunktsetzung, nicht jedoch wegen Informatik gewählt zu haben. Hinsichtlich der Inhalte unterscheiden die Schüler deutlich zwischen dem Unterricht in der Unterstufe (mit Schwerpunkt Anwendungssoftware), dem „normalen“ Informatikunterricht und den kombiInterview 3, S. 10. Interview 5, S. 43; SchülerInnen und LehrerInnen der AHS-Standardform merken an, dass es überdies auch wichtig wäre, für die Auswahl des Wahlpflichtfaches vermehrt Beratung anzubieten; vgl. Interview 3, S. 10 f; Interview 5, S. 38; Interview 22, S. 13.
244
–
Antonitsch, Krainer, Lerchster, Ukowitz nierten Anwendungsfächern. So wird der Unterstufenunterricht häufig als „sinnlos und langweilig“24 empfunden, wobei die SchülerInnen auch anführen, „alles schon gekannt“25 zu haben. Auch der Unterricht im Anwendungskontext wird kritisch beurteilt, wobei dabei häufig organisatorische Schwierigkeiten im Vordergrund stehen, beispielsweise dass verwendete Programme nicht in gewünschter Weise funktionieren. Im Unterschied dazu wird der „normale“ Informatikunterricht am besten beschrieben, wenn etwa ein Schüler sagt, dass am Anfang das „mit den Codes programmieren“ zwar langweilig, durch das Durchführen praxisbezogener Arbeiten aber zunehmend „praktisch“ (im Sinne von „interessant“) geworden sei.
Schülerinnen und Schüler dieser Gruppe empfinden die Inhalte im Informatikunterricht dann als sinnvoll, wenn sie „hinter die Kulissen“26 schauen können und die Inhalte (persönlich) anwendbar sind27. Demgegenüber werden Inhalte eher als nutzlos oder langweilig empfunden, wenn sie bereits bekannt sind, das Anschlusswissen fehlt oder der Unterricht aus Sicht der SchülerInnen unattraktiv gestaltet wird.28 Auch der modular aufgebaute Unterricht wird von SchülerInnen unterschiedlich bewertet, wobei dabei der Eindruck, es werde alles „nur so angerissen“29 und „nichts gescheit gemacht“30, der Meinung gegenübersteht, dass man dadurch einen guten Überblick erhalten könne31. Insgesamt schildern auch die Schülerinnen und Schüler im „ITZweig“ ein Bild von Informatik, das stark von ihren schulischen Erlebnissen geprägt ist, wobei sich die Kritik der Jugendlichen tendenziell an jenen Fächern festmachen lässt, die als Anwendungsfächer wahrgenommen werden. Diese Kritik wird dabei teilweise so massiv geäußert, dass mit ihr auch eine Ablehnung der gesamten Informatik gegenüber begründet wird, oder auch die Entscheidung, keinesfalls ein IT-Studium wählen zu wollen.32
24 25 26 27 28
29 30 31 32
Vgl. Interview 4, S. 20; Interview 6, S. 27. Vgl. Interview 4, S. 19 f. Vgl. Interview 4, S. 14; Interview 8, S. 23; Interview 11, S. 17. Vgl. Interview 4, S.18; Interview 6, S. 35; Interview 13, S. 18. Vgl. Interview 2, S. 3; Interview 6, S. 22, 26 und 29; Interview 8, S. 20; Interview 9, S. 28. Vgl. Interview 4, S. 16. Interview 11, S. 17. Vgl. ebd. Vgl. Interview 12, S. 50.
IT-Frust statt Lust?
245
Einschätzung der Gestaltung des ITIT-Unterrichts durch SchülerInnen Das müsste man natürlich so aufbauen, dass es Schüler interessiert.33
Ein wesentlicher Aspekt, der von allen Schülerinnen und Schülern angesprochen wird, ist die zentrale Rolle der Lehrperson im Informatikunterricht. Das wichtigste Kriterium dafür, dass eine Informatiklehrerin bzw. ein Informatiklehrer geschätzt wird, scheint ihre bzw. seine Fachkompetenz zu sein und die Fähigkeit, Wissen auch weitergeben zu können, das heißt spannenden und abwechslungsreichen Unterricht zu gestalten. Dies lässt sich ablesen, wenn SchülerInnen sagen, der Lehrer mache „super Unterricht“, weil er „das so gut erklärt“34 oder auch weil er „den Unterricht dynamisch gestaltet“35. Umgekehrt äußern sich Schülerinnen und Schüler am kritischsten über Lehrkräfte, von denen sie den Eindruck gewonnen haben, dass sie „das selber nicht richtig verstehen“.36 Schülerinnen und Schüler erwarten von ihren Lehrerinnen und Lehrern (vor allem auch im Informatikunterricht) „professionelle Arbeit“ und unterscheiden in den Interviews deutlich zwischen Lehrkräften, die über facheinschlägige Informatikausbildung (zum Beispiel ein Studium) verfügen, und solchen, bei denen für sie der Eindruck entsteht, dass sie „nur ein Seminar“ oder „einen Kurs“ besucht hätten, was für den dauerhaften Unterricht als unzureichend empfunden wird.37 Allerdings bedingen im Selbststudium erworbene Kenntnisse aus Sicht der Schülerinnen und Schüler nicht automatisch einen schlechteren Informatikunterricht als solche, die im Rahmen eines Studiums erworben wurden. Äußerungen in den Schülerinnen- und Schülerinterviews zeigen vor allem, dass gerade das persönliche Engagement und der von der Lehrperson individuell gefundene Zugang zur Informatik einen spannenden Unterricht ermöglichen. Insgesamt lässt sich die Hypothese formulieren, dass der Informatikunterricht in der Schule stets mit vorgefassten Meinungen und Klischees (vermittelt zum Beispiel durch Peers oder über die Medien) der Jugendlichen über Informatik in Konkurrenz treten muss und hier offenbar nur dann ein positives Bild der „Wissenschaft Informatik“ entwerfen kann, wenn die organisatorische Ebene, die Inhaltsebene und die Beziehungsebene des Unterrichts gut aufeinander abgestimmt sind. Die gut ausge33 34 35 36 37
Interview 11, S. 18. Interview 3, S. 11 und 21; Interview 11, S. 14. Interview 2, S. 3. Interview 6, S. 28. Vgl. Interview 13, S. 37.
246
Antonitsch, Krainer, Lerchster, Ukowitz
bildete Informatiklehrkraft, die zwischen den Gegensatzpolen „Knowhow“ und „Know-why“ (entsprechend „Anwenderschulung“ im Gegensatz zu „grundlegenden Konzepten“) vermittelt, nimmt dabei eine Schlüsselposition ein.
Anmerkungen zur AusAus- und Weiterbildung von LehrerInnen Es gibt Lehrer, die haben Fachwissen, die sind gut, und dann gibt es Lehrer, die glauben, sie haben Fachwissen.38 Der Frau Professor haben wir echt etwas gelernt.39
Das Unterrichtsfach Informatik wird in Österreich seit dem Jahr 1985 an AHS unterrichtet, das Lehramtsstudium Informatik jedoch erst seit dem Studienjahr 2000/2001 an den österreichischen Universitäten angeboten. Der überwiegende Teil der an den Allgemeinbildenden Höheren Schulen tätigen Informatiklehrkräfte hat sich dementsprechend die für das Unterrichten notwendigen Kenntnisse weitestgehend im Selbststudium angeeignet. Diese Gruppe sieht das Beherrschen informatischer Werkzeuge als wesentliche Grundlage zur Gestaltung des Informatikunterrichts an und fordert diesbezügliche Schulung auch in Seminaren der Lehrerfortbildung ein.40 Umgekehrt beklagen Informatik-FachvertreterInnen von Universität und Fachhochschulen gerade diese Konzentration auf Produktschulung, während didaktische Konzepte oder die Umsetzung „fundamentaler Ideen“ nicht im Blickfeld lägen.41 Diesen Gegensatz drückt indirekt auch einer der interviewten Lehrer aus, wenn er meint, Fortbildungsveranstaltungen seien teilweise „im didaktischen Bereich durchaus nicht schlecht, aber im fachlich fundierten Bereich eher oberflächlich“42. Demgegenüber betont einer der interviewten Lehrer mit abgeschlossenem Lehramtsstudium Informatik die Notwendigkeit grundlegender Konzepte, wenn er sagt: „[...] Einschulen des Programms ist Käse. Konzept lernen […] und dann kann ich mit irgendeinem Programm dieses Konzept ausprobieren.“43 Generell bewerten diese interviewten Lehrer das im Studium erworbene Wissen für den Schulunterricht durchaus als ausreichend,44
38 39 40 41 42 43 44
Interview 4, S. 24. Interview 8, S. 10. Vgl. Interview 22, S. 8 f. Vgl. Interview 15, S. 11 f. Interview 13, S. 7. Interview 24, S. 44. Vgl. Interview 13, S. 34.
IT-Frust statt Lust?
247
fordern von der universitären Informatiklehrerausbildung aber stärkeren Praxisbezug durch Einbeziehen schulrelevanter Software ein45. Neben derart unterschiedlichen Erwartungen an die Informatiklehrerbildung kommen in den Interviews zwei weitere Aspekte zur Sprache: zum einen eine altersbedingte Weiterbildungsresistenz, weil „man im fortgeschrittenen Lehrerstadium auch nicht mehr auf die Uni geht und schaut, was es dort geben könnte“46, wie ein Lehrer es formuliert; zum anderen, dass Stundenkontingente von Lehrkräften, die nicht ausreichend „Stunden haben“, mit Informatikstunden aufgefüllt würden, und zwar weitgehend unabhängig von deren facheinschlägiger Qualifikation und vorhandenen Interessen.47 Dies alles weist darauf hin, dass die wünschenswerte Homogenisierung des Ausbildungsstandes aller Informatiklehrerinnen und -lehrer (zum Beispiel durch ein qualifizierendes Universitätsstudium) nicht zuletzt aufgrund dienstrechtlicher Regelungen wohl ein längerfristiger Prozess ist.
II. Studienwahl von Schülerinnen und Schülern: Entscheidungsprozess und Motive48 Hinsichtlich der Motive für die Wahl einer Studienrichtung ist das wichtigste Ergebnis, dass die Entscheidung der Jugendlichen als eine „hochgradig multikriterielle“49 zu sehen ist, dass sich einzelne Faktoren überlagern, jeweils unterschiedlich stark wirken und auch zu unterschiedlichen Zeitpunkten „greifen“. Es lassen sich Bündel von Faktoren herausfiltern, die ausschlaggebend sein können: Interessen sen Begabungen und Interes Das eigene Interesse, persönliche Neigungen und Talente stehen an erster Stelle: „Aber es ist halt cool, dass man die Sachen lernen muss, die einem taugen, [...] in der Schule [...] hast Sachen, die dich gar nicht interessieren“50, erzählt beispielsweise ein Jugendlicher. Auffallend ist an den Überlegungen der SchülerInnen, dass die Schlussfolgerung manchmal sehr direkt und eingeschränkt erfolgt: Ich schreibe gerne, also studiere ich Germanistik; ich organisiere gerne, also studiere ich „Management“; ich 45 46 47 48 49 50
Vgl. Interview 24, S. 20. Interview 13, S. 6. Vgl. Interview 13, S. 5; Interview 22, S. 4 und 7. Vgl. Ukowitz (2007), S. 7-47. Interview 15, S. 21 f. Interview 6, S. 16.
248
Antonitsch, Krainer, Lerchster, Ukowitz
helfe gerne, also studiere ich Psychologie.51 Auch aus den Interviews mit den Erwachsenen lässt sich entnehmen, dass persönliche Neigungen für die Studien- und Berufswahl ausschlaggebend sein sollten. Erlebnisse/Erfahrungen, spontan Emotionales Hat man etwa selber eine Zahnspange getragen und eine entsprechende Behandlungszeit beim Kieferorthopäden durchlebt, so kann dies beispielsweise ein Grund sein, auch selber einmal diesen Beruf zu ergreifen52; Unzufriedenheit mit der Politik, die Einschätzung „ich find, dass das bei uns voll schlafft“, veranlasst dazu, „Politik“ zu studieren 53. Dass auch ganz spontane emotionale Reaktionen bedeutend sein können und Begriffe mitunter eine große Strahlkraft haben, zeigt die Aussage eines anderen Schülers: „Das hört sich irgendwie interessant an für mich: Doktoratsstudium der technischen Wissenschaften. Ich weiß zwar nicht, was es ist, aber es horcht sich gut an.“54 Vorbilder, Erfahrungen in der Schule Die Interviews zeigen, dass Vorbilder wichtig sind (dazu gehören die Eltern – hier wird etwa die Formulierung gewählt, dass man in die Fußstapfen des Vaters tritt55 – Geschwister, Bekannte oder LehrerInnen), zugleich aber problematisch sein können, wenn die Jugendlichen den Eindruck haben, es würden ihnen die Wünsche und Lebensweisen der Vorbilder (zumeist der Eltern) aufgedrängt56. Der Einfluss der schulischen Ausbildung auf die weitere berufliche Orientierung besteht unseren Ergebnissen nach durchaus; so kann man im Vergleich zwischen den beiden Schulklassen, in welchen die Interviews geführt wurden, feststellen, dass sich in jener Klasse mit einem naturwissenschaftlich-informationstechnologischen Schwerpunkt die SchülerInnen tendenziell eher ein technisches Studium vorstellen können als in der Klasse mit neusprachlicher Ausrichtung und Informatik als Wahlpflichtfach. Von Lehrenden werden die Auswirkungen der schulischen Sozialisation ambivalent gesehen. Vorerfahrungen könnten sich positiv verstärkend, aber auch abschreckend auswirken. Sie berichten, dass HTL-MaturantInnen oftmals bewusst der
51 52 53 54 55 56
Vgl. Interview 6, S. 6; Interview 8, S. 13; Interview 10, S. 8. Vgl. Interview 3, S. 4. Interview 6, S. 10. Interview 6, S. 38. Vgl. zum Beispiel Interview 5, S. 4. Vgl. zum Beispiel Interview 5, S. 7.
IT-Frust statt Lust?
249
Technik den Rücken kehren, weil sie nach fünf Jahren technischer Ausbildung endlich etwas anderes machen wollen.57 Verdienst /Jobchancen Die SchülerInnen machen sich durchaus auch darüber Gedanken, wie viel sie in welchem Bereich verdienen können und wie die Chancen stehen, überhaupt einen Arbeitsplatz zu bekommen. So werden etwa Psychologie, Geschichte und Philosophie als „Traumfächer“ bezeichnet, zugleich aber bemerkt: „[…] nur irgendwie lässt sich da vermutlich relativ wenig Kapital draus schlagen, was ich mir bis jetzt überlegt habe.“58 In diesem Punkt lassen sich Widersprüche feststellen: Einige der Lehrenden vermuten, Jugendliche würden sich heutzutage kaum um Jobaussichten kümmern und lediglich auf ihre Interessen und Neigungen achten.59 Verfügbarkeit von Studienplätzen Besonders im Zusammenhang mit Medizin, aber auch mit Psychologie sprechen die Schülerinnen und Schüler davon, dass sie überlaufene Studienrichtungen lieber meiden wollen. Ursprüngliche Studienwünsche verändern sich dadurch. Eltern wünschen sich für die berufliche Zukunft ihrer Kinder vor allem einen erfüllenden Beruf, der den Interessen und Begabungen entspricht, zugleich aber erhoffen sie gute Jobchancen im gewählten oder einem verwandten Berufsfeld.60 Interessanterweise sprechen die Jugendlichen von einem Beruf, den sie anstreben, es kommt nirgends der Gedanke vor, die universitäre Ausbildung nur als eine erste Stufe zu sehen, auf der dann Entwicklung in verschiedene Richtungen möglich ist. Im Zusammenhang mit dem IT-Bereich kommt das Thema Generalisierung vs. Spezialisierung in Bezug auf die Ausbildung in einem Interview mit einem Unternehmer vor, der meint, es wäre unter Umständen sinnvoller, ein Basisstudium anzubieten und darauf aufbauend erst die Möglichkeit einer Spezialisierung.61 Besonders wichtig im Zusammenhang mit der Studienwahl ist es, scheinbare ‚Nebenschauplätze’ wie etwa die Frage, wie FreundInnen entscheiden, nicht aus den Augen zu verlieren. Den SchülerInnen scheint 57 58 59 60 61
Vgl. zum Beispiel Interview 18, S. 11. Interview 4, S. 2. Vgl. zum Beispiel Interview 18, S. 12. Vgl. Einzelauswertung der Arbeitsblätter, S. 1 f; Elternbefragung am 28.11.2006. Vgl. Interview 21, S. 31.
250
Antonitsch, Krainer, Lerchster, Ukowitz
der Einfluss nicht immer bewusst zu sein; vor allem die Erwachsenen, im Besonderen die Eltern und die LehrerInnen sprechen allerdings häufig davon. Ein weiterer ganz wesentlicher ‚Nebenschauplatz’ ist die Wahl des Studienortes (und in diesem Punkt sprechen die Jugendlichen auch davon, dass es wichtig sei, welchen Ort FreundInnen wählen), es lässt sich sogar die Hypothese aufstellen, dass nicht selten der Ort vor dem Fach gewählt wird. Ein Schüler meint: „Ich will, wenn ich mit der Schule fertig bin, einmal raus hier. [Lacht] Es hört sich ein bisschen komisch an, aber wer denkt nicht so?“62 Der Großteil der interviewten Jugendlichen möchte nach der Matura einmal weg von zu Hause, nur für wenige überwiegen die Vorteile, die ein Studium am Heimatort (oder in der Nähe) bietet.63 Auf die Gründe, warum die Jugendlichen weggehen wollen, wird in den Interviews kaum explizit eingegangen, implizit lässt sich herauslesen, dass das Weggehen von zu Hause einen wichtigen Schritt im Prozess des Erwachsen-Werdens darstellt, dabei eine größere Entfernung des Studienortes diesen Schritt auch deutlicher symbolisiert und die Notwendigkeit, sich in einer anderen Stadt zurechtzufinden, diesen Schritt für die Jugendlichen auch deutlicher erlebbar werden lässt. Aus der Sicht der Eltern kommt die Frage der Wahl des Studienortes weniger prominent vor, sie können den Wunsch der Kinder, von zu Hause wegzugehen, aber allgemein gut nachvollziehen. Mit einem Blick quer über die Interviews lässt sich feststellen, dass zwar gewisse Kriterien und Faktoren öfter genannt werden, letztlich die Entscheidungsprozesse individuell aber sehr unterschiedlich verlaufen, auch hinsichtlich des Zeitpunktes der Entscheidung und der Dauer des Entscheidungsprozesses.64 Die Unterschiedlichkeit der Entscheidungsverläufe hat nicht unwesentliche Auswirkungen auf ein in allen Interviews sehr prominent vorkommendes Thema, nämlich dem der Information, Beratung und Begleitung der Jugendlichen – allgemeiner könnte man von der Vermittlung zwischen Jugendlichen und den Ausbildungswegen und Berufsbildern sprechen. Den Jugendlichen macht die große Bandbreite an Auswahlmöglichkeiten Schwierigkeiten. Aufgrund der fortschreitenden Ausdifferenzierung sind die Angebote in vielen Bereichen kaum überblickbar. Von vielen neuen Berufen hat man auch keine Vorstellung, wie Tätigkeitsprofile aussehen könnten.65 Ein Schüler formuliert dies, wie wir meinen, sehr eindringlich: „Ich kenne mich überhaupt noch nicht aus. Ich weiß auch 62 63 64 65
Interview 5, S. 26. Vgl. Interview 10, S. 23 f; Interview 8, S. 13; Interview 5, S. 26. Vgl. Interview 6, S. 6; Interview 4, S. 2; Interview 5, S. 6 und 24; Interview 3, S. 3 f. Vgl. zum Beispiel Interview 2, S. 12.
IT-Frust statt Lust?
251
nicht, wie das später werden wird, ob mir das irgendwann einer [...] beibringen wird [...] mir das erklären wird oder ob ich mir das selbst erarbeiten muss, dass ich das rausfinde. Keine Ahnung, weil ich kenne mich in den ganzen Richtungen überhaupt nicht aus.“66 Die Eltern sehen dies ähnlich und bedauern, dass sie ihren Kindern kaum mehr beratend zur Seite stehen können, weil sie selbst das Angebot nicht kennen und auch nicht immer verstehen.67 Die Lehrenden und Verantwortlichen an Universität und Fachhochschule wiederum sprechen davon, wie schwierig es sei, die Jugendlichen mit Informationen zu erreichen und ihnen die Charakteristik und die Möglichkeiten eines IT-Studiums zu vermitteln, beispielsweise, dass man sich mit der Technik „da eigentlich selbst […] auch sehr schön verwirklichen“68 könne. Die Jugendlichen halten Informationen für sehr wichtig und beklagen, dass sie zu wenige Informationen bekommen. Umgekehrt berichten sie aber auch, dass es eine wahre Informationsflut gebe und sie mit den Informationen oft nichts anfangen könnten bzw. das Gefühl haben, immer die falschen (im Sinne von „die für sie gerade nicht relevanten“) Informationen zu bekommen. Broschüren werden dann beispielsweise zu Papierfliegern verarbeitet, noch bevor sie gelesen werden, Informationsveranstaltungen werden mitunter als nicht zielführend gesehen. Eine Hypothese dazu lautet, dass im Zusammenhang mit dem Thema Information die Transferproblematik im Mittelpunkt steht und das Zur-VerfügungStellen von mehr Informationen nicht unbedingt eine adäquate Antwort auf das Informationsdefizit darstellt. Abgesehen von Überlegungen, welche Informationen zur Verfügung gestellt werden, müsste verstärkt über das „Wie“ nachgedacht werden, mit besonderem Augenmerk darauf, wie die Jugendlichen das Angebot auf ihre individuelle Situation ‚herunterbrechen’ können. Lehrende sehen diese Transfer-Problematik und meinen, dass beispielsweise das Vorlesungsverzeichnis oder ein Studienplan hier keine Orientierung bieten könnten: „Aber was da jetzt in einem Vorlesungsverzeichnis drinnen steht oder so, das kann man eh nicht lesen“,69 meint ein Universitätsprofessor. Adäquate Vermittlung halten die Lehrenden aber für ganz wesentlich: „[…] den Schritt muss man machen und das muss man trommeln und trommeln und trommeln, glaube ich“.70 Persönlichem Kontakt mit VertreterInnen von Fachrichtungen (Lehrende oder Berufstätige) und individueller Beratung, so viel lässt sich 66 67
68 69 70
Interview 9, S. 46. Vgl. Rückmeldungen aus den Murmelgruppen, S. 2.; Einzelauswertung der Arbeitsblätter, S. 1 f; Elternbefragung am 28.11.06. Interview 16, S. 15. Interview 15, S. 34. Interview 18, S. 20.
252
Antonitsch, Krainer, Lerchster, Ukowitz
aus den Interviews herauslesen, kommt dabei eine wesentliche Bedeutung zu.71 Auch aus der Sicht der Eltern sind Informationen sehr wichtig, zugleich müsse man aber dabei das rechte Maß halten und auf die Art der Vermittlung der Informationen achten (Qualität und Quantität der Informationen in eine rechte Balance bringen). Ein Zuviel an Broschüren schade jedenfalls, „weil sehr viele Broschüren natürlich vorliegen und das untergeht, komplett“72. Die Eltern wünschen sich deshalb Kontakte zu Studierenden, Schnuppertage und Berufsorientierungsphasen, die es ermöglichen, konkrete Vorstellungen vom Berufsalltag in verschiedenen Bereichen zu gewinnen. Für die Entscheidungsfindung und die Begleitung des Entscheidungsprozesses halten unsere GesprächspartnerInnen persönliche Kontakte für das Mittel der Wahl: Gespräche in der Familie, im Freundesund Bekanntenkreis73 oder Zweier-Gespräche, beispielsweise zwischen LehrerInnen und SchülerInnen, brächten weit mehr als Informationsveranstaltungen.74 Die Rolle der LehrerInnen scheint in dieser Hinsicht aber nicht geklärt zu sein, das Bild, das die Aussagen der Lehrenden ergeben, deckt sich weitgehend mit dem, das SchülerInnen zeichnen: LehrerInnen fühlen sich nicht wirklich dafür zuständig, SchülerInnen auf ihrem Entscheidungsweg zu begleiten, sehen aber doch, dass sie eine gewisse Rolle spielen.75 Klar und deutlich formuliert ein Lehrender der Universität die Rolle der Lehrerinnen und Lehrer an den Schulen, denn das Interesse der MaturantInnen an technisch-naturwissenschaftlichen Fächern habe sehr viel damit zu tun, „dass die in irgendeiner Form in der Mittelschule interessant präsentiert werden“76, und es sei „auch Aufgabe der Mittelschullehrer […], das vorzubereiten“77. Ambivalent schätzen die Jugendlichen die „Unterstützung“ durch die Eltern, andere Familienmitglieder oder Bekannte ein. Im Allgemeinen sehen sich die Jugendlichen gut durch ihre Eltern darin unterstützt, einen eigenen Weg für sich zu finden. Manches Mal sehen sie sich aber mit sehr unterschiedlichen Meinungen und Wünschen konfrontiert und fühlen sich dadurch mitunter verunsichert. „Bei mir denkt die Oma so stark nach […]. So: ‚Komm, geh’ in die Wirtschaft, da verdienst so viel’ […] und das sind alles Berufe, die ich nicht machen würde oder nicht 71
72 73 74 75 76 77
Vgl. verschiedene Interviews mit SchülerInnen; vgl. Diskussion mit SchülerInnen im Rahmen der Elternbefragung am 28.11.2006. Interview 18, S. 18. Vgl. zum Beispiel Interview 17, S. 23; Interview 15, S. 22. Vgl. Interview 19, S. 13. Vgl. Interview 16, S. 12; Interview 17, S. 18. Interview 18, S. 40. Interview 18, S. 20.
IT-Frust statt Lust?
253
machen will“, erzählt beispielsweise eine Schülerin.78 Wieder scheint es darum zu gehen, die Überlegungen und Ratschläge anderer mit den Vorstellungen der SchülerInnen in Verbindung zu setzen. Die Eltern sagen wiederum, dass die Wünsche ihrer Kinder ausschlaggebend seien und sie lediglich Unterstützung anbieten würden, soweit sie das könnten. Für den IT-Bereich lassen sich aus den Interviews noch einige Besonderheiten herauslesen: Bei den Aussagen der Schülerinnen und Schüler zu IT-Studiengängen fällt auf, dass wesentlich heftiger und wortreicher gegen IT-Studiengänge als dafür argumentiert wird („Schön, dass es [die Informatik] irgendjemand macht [...] solange es wir nicht sein müssen“,79 meint dazu ein Schüler). Jene, die sich ein solches Studium vorstellen können, sagen ganz einfach, dass ihnen die Richtung gefällt, die ‚GegnerInnen’ sind absolut nicht interessiert, können nichts damit anfangen, empfinden die Arbeit mit Computern als lästig oder verweisen auf abschreckende Erfahrungen in der Schule.80 Unsere GesprächspartnerInnen von Fachhochschule und Universität halten die Lage der IT-Studienrichtungen hinsichtlich der Studierendenzahlen für prekär. Die Stimmung der Interviewten ist unterschiedlich: Aufbruchstimmung, Hoffnung, Ermahnung zu Geduld, Unverständnis, Resignation – so könnte man die Eindrücke beschreiben, die wir als ForscherInnen gewonnen haben. Die Interviewten nennen folgende problematische Faktoren und Themenkreise:81 –
–
78 79 80 81
82 83 84 85
Tendenziell interessieren sich Jugendliche mehr für Soziales als für Technik, Technik hat ein schlechteres Image.82 Auffallend ist der krasse Unterschied im Image des IT-Bereichs zwischen Europa, Amerika und dem asiatischen Raum.83 Ein Technik-Studium erfordert viel Einsatz und ist schwierig.84 Die Interviewpartner vermuten bei den Studierenden zum Teil zu wenig Einsatz und Bereitschaft, sich auch durch ein schwieriges Studium zu kämpfen. In dieser Hinsicht ergibt sich eine Diskrepanz zu Aussagen der SchülerInnen, wonach der Schwierigkeitsgrad eines Studiums letztlich nicht ausschlaggebend sei.85 Interview 12, S. 4. Interview 3, S. 31. Vgl. zum Beispiel Interview 3, S. 31; Interview 6, S. 21 und 31 f; Interview 12, S. 50. Die negativen bzw. problematisierenden Aussagen überwiegen, es kommen aber in den Interviews auch Potenziale und Chancen des IT-Bereichs zur Sprache. Vgl. Interview 14, S. 27; Interview 16, S. 13; Interview 18, S. 12. Vgl. Interview 16, S. 34; Interview 18, S. 12-31. Vgl. Interview 19, S. 22; Interview 18, S. 12 f und 27; Interview 21, S. 14. Vgl. Interview 5, S. 19.
254 –
–
–
–
Antonitsch, Krainer, Lerchster, Ukowitz Differenzen gibt es auch in Bezug auf die Voraussetzungen, die angehende Studierende mitbringen sollten. Während einerseits primär unter den HTL-AbsolventInnen die potenziellen IT-Studierenden zu finden seien,86 sehen andere Interviewpartner einschlägige technische Vorbildung nicht unbedingt als Zugangsvoraussetzung. Im Gegenteil meinen sie, dass mitunter AHS-AbgängerInnen durch die höhere Allgemeinbildung besser im Denken und Problemlösen geschult seien als HTL-AbsolventInnen.87 Die Vermittlung der Charakteristik eines technischen Studiums ist schwierig – es braucht altersgerechte, praxisorientierte Formen der Vermittlung und viel persönlichen Einsatz von Seiten der Verantwortlichen.88 Das Fach Informatik und die Beziehung zu seinen Anwendungen ist diffus. Es bestehen bei den Jugendlichen Unsicherheiten bezüglich des Begriffs „Informatik“; damit zusammenhängend rückt die Frage in den Blick, ob Informatik überhaupt ein Fach ist.89 Es gibt schwierige „Rahmenbedingungen“ für den naturwissenschaftlich-technischen Bereich, zum Beispiel die Stundenreduktion in der Oberstufe der AHS.
III. Bilder und Klischees zu IT-Menschen und der IT-Branche90 Das ist einfach so ein Hinterfrager, aber kein philosophischer, sondern ein technischer Hinterfrager, [...] der wissen will, was dahinter steckt.91 Das sind dann so die richtig asozialen Typen. Die immer daheim hocken vorm Rechner, die sich nie mehr aus dem Haus raus bewegen, mit denen kannst du auch kein Wort wechseln.92
Schülerinnen und Schüler haben wenige bis gar keine konkreten Vorstellungen davon, welche Berufsbilder und Tätigkeitsprofile es im IT-Bereich 86 87 88 89
90 91 92
Vgl. Interview 18, S. 10. Vgl. Interview 16, S. 21 f. Zum Beispiel Interview 18, S. 20. Vgl. Interview 3, S. 22; Interview 4, S. 27; Interview 6, S. 38; Interview 15, S. 8 f und 23; Interview 23, S. 2 und 19 f; Interview 24, S. 34 f. Vgl. Krainer (2007), S. 87-119. Interview 3, S. 31. Interview 4, S. 37.
IT-Frust statt Lust?
255
gibt. Nur diejenigen, die Menschen in der IT-Branche persönlich kennen, können sich darunter etwas vorstellen und auch konkrete Tätigkeitsbereiche benennen. Demgegenüber ist bemerkenswert, dass dennoch sehr viele Bilder vorhanden sind, die sich eher in Klischees äußern als in konkreten Vorstellungen. Zumal sich diese Klischees von Interview zu Interview verdichtet haben, haben wir ihnen zunehmend Aufmerksamkeit gewidmet. Wir alle sind auf Bilder und Klischees angewiesen; sie bieten uns Orientierungshilfe. Wo Menschen keine konkreten Vorstellungen zur Verfügung haben, haben sie eine weitere Quelle, auf die sie zurückgreifen können: ihre eigene Phantasie. Diese ist allerdings tendenziell negativ und kann Klischees zu Vorurteilen verdichten, die sich selbst dann hartnäckig halten können, wenn die Vernunft bereits anderes gebietet. So haben auch viele SchülerInnen solche Klischees formuliert und diese zugleich als Klischees bezeichnet – ohne sie deshalb aber aufzugeben. Woher solche Bilder und Klischees stammen, bleibt weitgehend diffus, genannt werden der private Bereich93, Medien94, zum anderen persönliche Bekanntschaften95 (vor allem aus der Schule). Generell lassen sich zwei grundsätzliche Ausrichtungen der Klischees unterscheiden, von denen die eine Richtung tendenziell positiv ist, die andere weitgehend negativ. Wenn die SchülerInnen zu Menschen, die in der IT-Branche arbeiten, phantasieren, so formulieren sie in ihren Aussagen entweder eine Überhöhung oder Abwertung der Branche, ihrer Arbeitsplätze und der dort arbeitenden Menschen selbst. Beide Formen tragen allerdings dazu bei, dass die befragten Jugendlichen sich nicht der Technik zuwenden wollen. Interessant ist ferner, dass Lehrende an Schulen und Fachhochschulen manche dieser Bilder als in der Realität zutreffend beschreiben. Überhöhung tritt sowohl in Form von Bewunderung auf als auch in verschiedenen Ausdrücken der Verwunderung. IT-Menschen seien hochbegabt, heißt es zum einen, „vif beim Denken“96 und „technische Hinterfrager“97; eine Schülerin sagt, solche Leute „täte ich bewundern“98. Zugleich können IT-Menschen aber auch eher Freaks sein, die eine Fremdsprache sprechen. Das zeige sich beispielsweise daran, dass sie immer die neuesten Programme auf dem PC hätten, tendenziell eher auf LAN-Partys anzutreffen seien als in der Disco und für nicht Eingeweihte 93 94 95 96 97 98
Vgl. Interview 3, S. 20. Vgl. Interview 2, S. 25. Interview 5, S. 34. Interview 11, S. 39. Interview 3, S. 31. Interview 11, S. 38.
256
Antonitsch, Krainer, Lerchster, Ukowitz
eine Fremdsprache sprächen, die sich zwischen „0“ und „1“ bewege, so dass „Normalbürger“ sich nicht mehr für anschlussfähig halten.99 Lehrende bestätigen dieses Image in Teilen, wenn sie etwa davon ausgehen, dass TechnikerInnen besondere Begabungen (insbesondere mathematische)100 mitbringen müssten oder viel Fleiß bräuchten, um sich durch schwere Studien101 wie IT-Studien „durchbeißen“102 zu können. Und auch die „Freaks“ sind ihnen nicht unbekannt, vielfach halten sie diese gar für die TechnikerInnen von morgen103 und lassen sich auch gelegentlich auf Spiele mit ihnen ein, wenn es etwa darum geht, Sicherheitsvorkehrungen in Schulsystemen zu hacken oder diese gegen Angriffe sicher zu machen104. Die Varianten der Abwertung sind differenzierter – sie beziehen sich sowohl auf Vorstellungen über Arbeitsplätze als auch auf verschiedene Tätigkeiten in der Branche und schließlich auf die vermutete Persönlichkeitsstruktur von IT-Menschen. Unsere Fragen nach Berufsbildern innerhalb der IT-Branche haben eher Rätselraten ausgelöst. Dominant sind allerdings die Vorstellungen, dass vor allem programmiert wird, was tendenziell als langweilig empfunden wird, und dass es sich bei den Tätigkeiten entweder um eine sehr monotone Arbeit handelt oder aber um eine, die so innovativ ist, dass man sich ununterbrochen weiterbilden muss.105 Zudem meinen SchülerInnen, dass IT-Jobs hierarchisch tendenziell in der Position von Untergebenen angesiedelt sind: „Als Informatiker bist du wem unterstellt. Oder du bist selbständig und da wird nie was Großes draus. Ich glaube, wenn du einer bist, der sich gut auskennt, dann musst du immer wen finden, der dich braucht.“106 Alternative Vorstellungen bestehen ausschließlich bei jenen Jugendlichen, die über konkrete Bekanntschaften verfügen, was nur bei zwei der befragten SchülerInnen der Fall ist; einer erzählt etwa von seinem Cousin, der sehr viel bei den Kunden sei und nur wenig Zeit am PC verbringe.107 IT-Fachleute teilen die Einschätzung, dass das Bild der Informatik weitgehend diffus
99
100
101 102 103 104 105
106 107
Vgl. Interview 2, S. 25; Interview 3, S. 19 und 21; Interview 5, S. 34 und 48; Interview 12, S. 33 f. Vgl. Interview 15, S. 24 und 39; Interview 17, S. 15; Interview 18, S. 14; Interview 22, S. 24; Interview 24, S. 19 und 29. Vgl. Interview 18, S, 8 und 13; Interview 15, S. 24. Interview 24, S. 28. Vgl. Interview 13, S. 13 f und 18 ff; Interview 22, S. 22. Vgl. Interview 13, S. 18 f. Vgl. Interview 2, S. 37; Interview 4, S. 30 ff und 35; Interview 6, S. 36; Interview 10, S. 10, 20 und 26; Interview 12, S. 34. Interview 4, S. 33. Vgl. Interview 6, S. 34.
IT-Frust statt Lust?
257
und unklar sei, und wünschen sich, dass an einer diesbezüglichen Änderung gemeinsam gearbeitet wird.108 Die negativsten Klischees betreffen allerdings Menschen, die in der IT-Branche tätig sind, sowie die Ausstattung ihrer Arbeitsplätze. Über die Interviews quergelesen, verdichtet sich das folgende Bild: IT-Menschen sitzen in dunklen Räumen und werden krank; ihre Arbeitsplätze werden vor allem mit Kabeln, Festplatten, Neonröhren und Elektrosmog assoziiert.109 Die Tätigkeit in der Branche wird tendenziell so eingeschätzt, dass IT-Menschen Tag und Nacht arbeiten, die Arbeit ungesund ist und sich IT-Menschen ohne PC/Laptop als unvollständige Wesen fühlen. Der klischeehafte „IT-Mensch“ ist (zumeist ein männlicher) Jugendlicher, der eine Brille trägt, ungepflegte Haare hat, ein kariertes Hemd und eine eigentümliche Hose trägt (was derzeit offenbar gar nicht den Modestandards der 16- und 17-Jährigen entspricht). Er hat eine eher zierliche, kränkliche Statur und schwarze Augenringe (vom nächtelangen Computerspielen), ist motorisch wenig begabt, wohnt bei seiner Mutter, ist einsam, hat Kontaktschwierigkeiten und mitunter auch Komplexe. 110 Den IT-Fachleuten sind solche Klischees nicht unbekannt.111 Ein Lehrer berichtet davon, dass er solche Jugendliche tatsächlich kennt; sie kämen in etwa alle zwei bis drei Jahre vor, und man müsse ihnen regelrecht empfehlen, einmal spazieren zu gehen, anstatt immer nur am PC zu arbeiten.112 Wir haben diese Zusammenschau bewusst erstellt und sie auch in den Rückkoppelungen vorgetragen. Die zugrunde liegende Hypothese lautet: Wer solche Vorstellungen formuliert, hat wenig Anlass, sich für ein IT-Studium zu interessieren, wenn sowohl die phantasierten Arbeitsplätze als auch die dort anzutreffenden Kolleginnen und Kollegen wenig einladend oder interessant wirken. Das Image von IT-Menschen erinnert dabei stark an das Schicksal des Froschkönigs aus dem gleichnamigen Märchen der Gebrüder Grimm.113 Dieser wurde entzaubert, weil ihn die Königstochter aus Wut an die Wand schmettert – bleibt zu fragen, wie eine entsprechende ‚Dekonstruktion’ für IT-Klischees gelingen kann. Anzumerken ist hier allerdings auch, dass die formulierten Klischees teilweise von den Jugendlichen selbst hinterfragt werden; dann heißt es 108 109 110
111 112 113
Vgl. Interview 15, S. 11 und 34; Interview 16, S. 13; Interview 18, S. 13 f und 42. Vgl. Interview 3, S. 19; Interview 6, S. 32 ff; Interview 9, S. 40; Interview 11, S. 7. Vgl. Interview 2, S. 5 und 25 f; Interview 3, S. 19 f, 29 und 32; Interview 4, S. 37 und 41; Interview 5, S. 21 und 31 f; Interview 6, S. 34; Interview 9, S. 39; Interview 11, S. 39. Interview 25, S. 23. Vgl. Interview 13, S. 14. Vgl. Grimm (2003), S. 7-11.
258
Antonitsch, Krainer, Lerchster, Ukowitz
etwa: „Ich glaube, das sind ganz normale Menschen, wie alle anderen auch.“114 Das sind allerdings Einzelstimmen und Ausnahmen. Abschließend haben wir nach dem Stellenwert von IT in unserer Gesellschaft gefragt und Schilderungen erhalten, die das bisher Gesagte durchaus kontrastieren. Die Schülerinnen und Schüler schreiben den Informationstechnologien einen sehr hohen Stellenwert zu; unsere Gesellschaft sei nicht nur von ihnen durchdrungen, sie verdanke ihnen auch Fortschritt, Luxus und Freiheit. Weitgehende Einigkeit besteht auch darin, dass die Jugendlichen finden, man brauche das Anwenderwissen (MS-Office), allerdings schon weniger zum Beispiel das für eine selbständige Behebung von Problemen notwendige Wissen115 – da ruft eine Schülerin lieber den „Kerl mit Brille“116. Das Studium komplexerer Technologien sei hingegen überhaupt nur für Hochbegabte etwas, und eine Schülerin bringt diesen Befund auf den Punkt, wenn sie sagt: „IT ist die Zukunft schlechthin, aber nicht meine.“117 Das führt zu einer weiteren Hypothese, die wir als „WerkzeugReparatur-Hypothese“ bezeichnet haben: In den jugendlichen Vorstellungen zur IT-Branche steht der PC im Zentrum, daher auch ein sehr anwendungsorientierter Umgang mit ihm (geprägt von MS-Office-Anwendungen etc.); der PC wird vor allem als Werkzeug betrachtet, das möglichst störungsfrei funktionieren soll, ähnlich wie dies etwa von einem Auto erwartet wird, das man zur Reparatur bringt, wenn es nicht funktioniert. Die Dienstleistung des Reparierens wird zwar anerkannt, der Beruf von MechanikerInnen ist aber hingegen für angehende AkademikerInnen offenkundig wenig erstrebenswert. Von Maschinen wird ferner erwartet, dass sie dem Menschen dienen sollen und nicht umgekehrt, Menschen Maschinen bedienen müssen, was sich aber im Erleben vieler Menschen umzukehren beginnt, wobei Computern biomorphe (menschliche) Eigenschaften zuerkannt werden, wenn es etwa heißt, man müsse sie mit Daten „füttern“ oder dass diese von „einem Virus befallen“ werden. Eine weitere Hypothese geht davon aus, dass sich im Zusammenspiel von technisch interessierten Menschen ein „Freaksystem“ etabliert, das zudem eine enorme Innovationsspirale vorantreibt, bei der viele nicht mitkönnen oder -wollen. Dies wird auch daran sichtbar, dass einige LehrerInnen Überforderungen beschreiben, wenn sie immer am Ball bleiben wollen, nicht zuletzt um mit dem Wissen und Können der SchülerInnen 114 115
116 117
Interview 11, S. 8. Vgl. Interview 2, S. 15 und 29; Interview 3, S. 14; Interview 5, S. 41; Interview 6, S. 35; Interview 10, S. 14 und 20; Interview 11, S. 19, 29 und 35. Interview 5, S. 36. Interview 5, S. 32.
IT-Frust statt Lust?
259
Schritt halten zu können.118 Dies hängt vielfach auch mit der starken Anwendungsorientierung der Schulfächer zusammen, wogegen sich HochschullehrerInnen insgesamt aussprechen.119 Was sich diesbezüglich aber auch andeutet, ist die Suche nach möglichen Mittelwegen, die neben der Anwendungsorientierung auch auf langfristig gleich bleibende (theoretische) Konzepte der Informatik Rücksicht nehmen sollen. Dabei wird auch die Notwendigkeit betont, der häufigen Gleichsetzung von Informatik mit Programmieren andere Sichtweisen entgegenzustellen.120 Resümierend lässt sich folgender Eindruck verdichten: Wo SchülerInnen über zu wenig Wissen verfügen, phantasieren sie und geraten dabei häufig in negative Klischeebildungen (wie dies im Falle der IT-Branche vorgeführt wurde). Wenn wir unterstellen, dass Klischees und Vorurteile nicht nur aus Bösartigkeit entstehen, sondern ihnen auch relevante gesellschaftliche Hintergründe zugrunde liegen, so gilt es, diese weiter auszuleuchten, sie besser zu verstehen, an ihnen gemeinsam zu arbeiten und ihnen gegebenenfalls andere Sichtweisen zur Seite zu stellen.
IV. Kooperationen im Bildungssektor – zur Notwendigkeit, einen gemeinsamen Weg zu beschreiten121 […] es kann ja nicht sein, dass der eine wartet bis der andere die Initiative ergreift, das kann nur gemeinsam gehen.122
Der Wunsch nach abgestimmter und ausgerichteter gemeinsamer Operation entsteht meist dort, wo unterschiedliche Systeme auf ähnliche Problemstellungen treffen, deren Lösung nur im Zusammenwirken mehrerer Kräfte sinnvoll und aussichtsreich erscheint. In den meisten Fällen braucht es dazu so etwas wie eine gemeinsame Not, welche die Repräsentanten der jeweiligen Systeme an einen Tisch führt – aus der Not wird die Notwendigkeit zur Kooperation geboren. Die gemeinsame Not, die unter anderem auch zur Beauftragung des hier vorliegenden Forschungsprojektes führte, heißt: „tendenziell rückläufige Studierendenzahlen“123 im Bereich der IT-Studien, sowohl an der Universität Klagenfurt als auch an den Fachhochschulstandorten Klagenfurt und Villach. Diese Entwicklung beschränkt sich zudem nicht auf regionale Beobachtungen, sondern 118 119 120 121 122 123
Vgl. Interview 22, S. 7 und 11; Interview 13 passim; Interview 23, S. 12. Vgl. Interview 15, 16 und 17 passim. Vgl. dazu auch: Denning (2004), S. 15. Vgl. Lerchster (2007), S. 121-142. Interview 17, S. 28. Vgl. Interview 14, S. 7.
260
Antonitsch, Krainer, Lerchster, Ukowitz
zeichnet sich weltweit ab.124 Daraus lässt sich die Frage ableiten, welchen Einfluss diese Entwicklung auf die zunehmend technische Ausrichtung der Universität Klagenfurt sowie den Ausbau des Wirtschaftsstandortes Kärnten in Richtung Technologiezentrum125 hat. Auf Basis dieser gemeinsamen Herausforderung entstand die Kooperative ARGE IT-Bildungsstandort Kärnten, ein Zusammenschluss von Universität, Fachhochschule und Lakeside Park, deren primäres Ziel die Steigerung der Studierendenzahlen im Bereich der IT-Studiengänge ist. Regionalpolitisch steht das Interesse im Vordergrund, den Wirtschaftsstandort Kärnten auszubauen und zu sichern, dementsprechend dessen Bekanntheitsgrad zu steigern sowie potenzielle Investoren ins Land zu holen. Als Attraktor für Wirtschaftstreibende wird unter anderem die „räumliche Nähe zur Uni“ und die Möglichkeit der Kooperation mit den Ausbildungseinrichtungen genannt, sogar als „wesentliches Verkaufsargument“126 gesehen. Der Fördergeber, welcher maßgeblich daran beteiligt war, dass diese Arbeitsgemeinschaft zustande kam,127 zeigt seinerseits großes Interesse an einer parallelen Entwicklung von Bildung und Wirtschaft. So steht die ARGE IT-Bildungsstandort Kärnten für das „Gemeinsame“128 unter Berücksichtigung des Individuellen. Wissend um diesen zu balancierenden Widerspruch zweier naturgemäß konkurrierender Hochschuleinrichtungen (nämlich Universität und Fachhochschule)129 werden differenzierte Wünsche an diese Kooperation herangetragen. Im Sinne einer praxisvernetzten Ausbildung sollen die „Unterschiede der beiden Ausbildungseinrichtungen klar gemacht werden“130; Voraussetzung dafür ist ein intensiver Austausch auf inhaltlicher Ebene in Bezug auf Studienangebote, Studentenkreise und Themenbesetzungen, wofür es wiederum „Vertrauen und Handschlagqualität“131 braucht. Kennzeichnete in der Vergangenheit der vorherrschende Leidensdruck die Kooperationsbemühungen,132 will man dies gegenwärtig in eine kontinuierliche Kooperation umwandeln. Ziel dieser Gemeinschaftsarbeit ist es, die Institutionen als gleichgewichtige Partner auftreten zu lassen und – visionär in die Zukunft gedacht – letztlich mit einem einheitlichen Anmeldesystem zu 124 125 126 127 128 129 130 131 132
Vgl. Interview 18, S. 12. Vgl. http://www.kwf.at; Interview 18, S. 5. Interview 14, S. 3 f. Vgl. Interview 14, S. 6 f. Interview 17, S. 29 f. Vgl. Interview 18, S. 11. Interview 17, S. 30. Interview 17, S. 28. Vgl. Interview 18, S. 38; Interview 17, S. 28.
IT-Frust statt Lust?
261
operieren sowie an gemeinsamen Forschungsschwerpunkten zu arbeiten.133 Grundlage für den gegenwärtigen Austausch sind gute persönliche Kontakte, die dadurch entstehen, dass zum einen Lehrende der Universität auch an den Fachhochschulstandorten unterrichten134 und zum anderen AbsolventInnen der Fachhochschulen bei UniversitätsprofessorInnen dissertieren135 bzw. dorthin verwiesen werden. Zusätzlich finden regelmäßige Treffen statt, welche die Funktion haben, sich sowohl inhaltlich als auch strategisch anzunähern, über gemeinsame Marketingmaßnahmen nachzudenken sowie den „gemeinsamen Auftritt des ITCampus“ zu intensivieren, um den Bekanntheitsgrad zu erhöhen.136 Eine weitere wichtige Kooperationsschiene, die über die Hochschulen hinausreicht, stellt die Zusammenarbeit mit Wirtschaftsunternehmen in Kärnten dar. Unsere GesprächspartnerInnen erachten diesen Austausch für wesentlich im Bereich der Konzeption bedarfsorientierter Studieninhalte. UnternehmensvertreterInnen werden hier unter anderem in die Ausarbeitung neuer Studiengänge einbezogen137 und haben zusätzlich die Möglichkeit, konkrete Wünsche an die Hochschulen heranzutragen138. Gleichzeitig wird darüber nachgedacht, künftig Veranstaltungen mit Wirtschaftstreibenden zu organisieren, wo über erkennbare „Trends“139 und Bedürfnisse in der IT-Branche diskutiert wird, um diese in der Planung neuer Studiengänge berücksichtigen zu können. Die direkte Einflussnahme der Firmen auf die Gestaltung der Curricula birgt gleichzeitig die Gefahr in sich, zur „hauseigenen Hochschule“ der Unternehmen zu werden. Um dies zu verhindern, wird fortlaufend daran gearbeitet, die Bandbreite der Kooperationspartner aus der Praxis zu erweitern, das heißt „möglichst viele Partner von unterschiedlichen Firmen einzubinden“140, um das Studium auf eine breitere Basis stellen zu können. Zusätzlich eröffnet die enge Zusammenarbeit mit der Wirtschaft für die Studierenden interessante Aspekte und Chancen. So besteht für sie die Möglichkeit, ihre Praktika in diesen Unternehmen zu absolvieren, ihr Wissen in der Praxis zu erproben und zu erweitern. Dieser Wissenstransfer wird als wichtig und „wertvoll“ für die „Studienkalibrierung“141 gese133 134 135 136 137 138 139 140 141
Vgl. Interview 14, S. 14; Interview 18, S. 39. Vgl. Interview 17, S. 29; Interview 15, S. 27; Interview 18, S. 39. Vgl. Interview 15, S. 27 f; Interview 18, S. 39. Interview 17, S. 29. Vgl. Interview 17, S. 6 f; Interview 15, S. 28; Interview 18, S. 5. Vgl. Interview 17, S. 9; Interview 16, S. 7. Interview 15, S. 29. Interview 16, S. 7. Interview 15, S. 29.
262
Antonitsch, Krainer, Lerchster, Ukowitz
hen. Zusätzlich führt die Kontaktaufnahme zwischen Studierenden und Wirtschaftstreibenden im Zuge der Praktika in vielen Fällen zu einer späteren Übernahme der AbsolventInnen, ein weiterer „Benefit“, der aus diesen Kooperationen generiert wird und die starke Einflussnahme der Unternehmen rechtfertige.142 Mit den angeführten Maßnahmen soll letztlich erreicht werden, die Möglichkeiten technischer Studiengänge an den Hochschulen einer breiteren Masse bekannt und zugänglich zu machen. Die Befragung in den Schulen hat ergeben, dass das Wissen rund um diese Studienzweige begrenzt ist; SchülerInnen haben kaum eine Vorstellung davon, welche Berufsfelder sich am Ende eines solchen Studiums eröffnen, noch wissen sie genau, welche Voraussetzungen sie für ein Informatikstudium mitbringen müssten bzw. was sich hinter den einzelnen Studienzweigen verbirgt. LehrerInnen, die an dieser Stelle beratend tätig sein könnten, haben ebenfalls nur begrenzte Informationen über Universität und Fachhochschulen.143 Lehrende an den Hochschulen wissen um diese Situation und versuchen hier, an Schnittstellen zu arbeiten und Kooperationen mit den Schulen entstehen zu lassen. Diese Bemühungen entsprechen einerseits dem Wunsch der SchülerInnen. Sie halten jedoch wenig von Großveranstaltungen, vielmehr wünschen sie sich, dass „ein Universitätsprofessor mit ein paar Leuten redet, die ähnliche Interessengebiete haben“144. Auch die Verteilung von Informationsmaterial in Form von Prospekten wird als eine Möglichkeit der Wissenserweiterung gesehen.145 LehrerInnen reagieren auf die Frage nach möglichen Kooperationsmöglichkeiten unterschiedlich und ambivalent. Einerseits würde ein verstärkter Austausch begrüßt werden, andererseits herrscht Unsicherheit, ob die Hochschulen sich gerne „in die Karten schauen lassen wollen“146. An den Schulen herrscht ein einheitliches Bewusstsein dafür, dass die informatischen Inhalte ihres Lehrplanes wenig mit den Anforderungen an Universität oder Fachhochschule gemein haben.147 Dennoch besteht bei einigen LehrerInnen der Wunsch, mehr über das Anforderungsprofil an Studierende in Erfahrung zu bringen, um ihre Lehrinhalte überprüfen zu können.148 Andere wiederum äußern ihre Zweifel in Bezug auf die Sinnhaftigkeit eines solchen Austausches. Eine Lehrerin fasst ihre Bedenken in einem Vergleich zusammen und meint, es hätte wenig Sinn, einen Autor 142 143 144 145 146 147 148
Vgl. Interview 17, S. 10. Vgl. Interview 13, S. 36. Interview 2, S. 11. Vgl. Interview 6, S. 43; Interview 2, S. 8. Interview 13, S. 31 f. Vgl. Interview 13, S. 8; Interview 23, S. 16. Vgl. Interview 13, S. 26 f.
IT-Frust statt Lust?
263
einzuladen, wenn die SchülerInnen noch nicht mal Lesen und Schreiben können.149 Die Antworten auf diese Wünsche und Bedenken seitens der Hochschulen sind unterschiedlich ausgeprägt. Den Lehrenden ist bewusst, dass die NeuinskribentInnen einen „sehr harten Start“150 haben und die Umstellung schwierig ist. Um diesen Einstieg zu erleichtern und die Dropout-Rate zu minimieren, bedürfe es einer anderen Form der Vorinformation. Broschüren seien hier wenig hilfreich, hier müsse man „einfach Knochenarbeit machen, persönlich hinfahren und irgendwie überzeugend auftreten und sagen, das machen wir bei uns“.151 Diese Form des direkten Austausches wird auch an den Jobmessen und ähnlichen Veranstaltungen der Hochschulen praktiziert. Ein weiteres Feld der Zusammenarbeit betrifft die Ausbildung der Lehrerinnen und Lehrer. Nur wenige der Befragten haben eine fundierte Informatik-Ausbildung; die meisten eignen sich ihr Wissen autodidaktisch an und bemerken, dass die Fortbildungsangebote unzureichend oder sogar unzugänglich sind.152 Um dieses Manko zu beheben, werden berufsbegleitende Fortbildungsmaßnahmen an der Universität angeboten. Ziel ist es, möglichst viele gut ausgebildete LehrerInnen im Informatikunterricht der Schulen anzusiedeln.153 Aus den Befragungen geht hervor, dass jene Personen, die entweder das Lehramt Informatik absolvierten bzw. Fortbildungsangebote der Universität in Anspruch nehmen, gute Kontakte zu Lehrenden aufbauen und sich vorstellen können, diese Kontakte wiederum für weitere Kooperationen zu nutzen. Punktuell werden ambitionierte Projekte mit der Fachhochschule durchgeführt; im Zuge des Forschungsprojektes war es möglich, diese Aktivitäten mit den SchülerInnen zu reflektieren und einen Diskurs mit LehrerInnen und Hochschullehrenden zu organisieren. Solche und andere Bemühungen stehen aktuell im Vordergrund der Kooperationsaktivitäten, wenngleich sie von schwierigen Rahmenbedingungen begleitet werden. Der Stellenwert der Informatik an den Schulen ist nicht mehr derselbe wie noch vor ein paar Jahren. Auf politischer Ebene werden Stundenkürzungen verordnet und immer neue und andere Schwerpunkte gesetzt – Maßnahmen, welche die Informatik besonders hart getroffen haben und eine kontinuierliche Aufbauarbeit154 in Folge erschweren würden. 149 150 151 152 153 154
Vgl. Interview 23, S. 25. Interview 13, S. 8 und 26 f. Interview 18, S. 16. Vgl. Interview 22, S. 8. Vgl. Interview 15, S. 16 f. Vgl. Interview 15, S. 3; Interview 22, S. 16.
264
Antonitsch, Krainer, Lerchster, Ukowitz
Zusammenfassend kann gesagt werden, dass die Zusammenarbeit zwischen den Hochschulen, die Kooperation mit Wirtschaft und politischen Gremien sowie zwischen tertiärem und sekundärem Bildungssektor im Aufbau begriffen ist. Einige Ebenen sind bereits gut abgedeckt, andere wiederum stecken noch in den Kinderschuhen und sind dementsprechend ausbaufähig. Der Wunsch nach Kooperation ist an der Universität Klagenfurt nicht neu. So findet man in einer Ausgabe der Hauszeitschrift der Universität aus dem Jahre 1995 die Forderung nach „mehr Partnerschaft zwischen Schule und Hochschule!“.155 Mit Blick auf die Vergangenheit, Gegenwart und Zukunft wird das Themenfeld Kooperation und Partnerschaft weiterhin ein Feld bleiben, welches viele Möglichkeiten und Herausforderungen in sich birgt.
Literatur Antonitsch, Peter (2007): „Erfahrungen aus dem Schulalltag und deren Einfluss auf die Studienwahl“. In: Antonitsch et al. (2007), S. 49-85. Antonitsch, Peter, Larissa Krainer, Ruth Lerchster und Martina Ukowitz (2007): Kriterien der Studienwahl von Schülerinnen und Schülern unter besonderer Berücksichtigung von IT-Studiengängen. Endbericht zu einem Interventionsforschungsprojekt. Klagenfurt: Universität Klagenfurt. Denning, Peter J. (2004): „The Field of Programmers Myth“. Communications of the ACM 47/7: 14-17. Krainer, Larissa (2007): „Bilder, Klischees und Realitätsbeschreibungen über IT-Menschen, IT-Studien und die IT-Branche“. In: Antonitsch et al. (2007), S. 87-119. Krainer, Larissa und Martina Ukowitz (2007): „Interventionsforschung“. In: Antonitsch et al. (2007), S. 143-161. Lerchster, Ruth (2007): „Kooperationen im Bildungssektor“. In: Antonitsch et al. (2007), S. 121-142. Ukowitz, Martina (2007): „Studienwahl von Schülerinnen und Schülern: Entscheidungsprozess und Motive“. In: Antonitsch et al. (2007), S. 7-47. Grimm, Jacob und Wilhelm (2003): „Der Froschkönig“. In: Grimms Märchen. Augsburg: Weltbild, S. 7-11. Wintersteiner, Werner (1995): „Partnerschaft zwischen Schule und Universität“. Unisono intern, Juli 1995: 6.
155
Wintersteiner (1995), S. 6.