Netzwelt - Wege, Werte, Wandel
Dieter Klumpp • Herbert Kubicek Alexander Roßnagel • Wolfgang Schulz (Herausgeber)
Netzwelt Wege,Werte,Wandel
1C
Herausgeber Dr. Dieter Klumpp Alcatel-Lucent Stiftung für Kommunikationsforschung Lorenzstraße 10 70435 Stuttgart Deutschland
[email protected] Professor Dr. Herbert Kubicek Universität Bremen Bibliotheksstraße 1 28359 Bremen Deutschland
[email protected]
Professor Dr. Alexander Roßnagel Universität Kassel Nora-Platiel-Straße 5 34109 Kassel Deutschland
[email protected] Dr. Wolfgang Schulz Hans-Bredow-Institut für Rundfunk und Fernsehen Heimhuder Straße 21 20148 Hamburg Deutschland
[email protected]
ISBN 978-3-642-05053-4 e-ISBN 978-3-642-05054-1 DOI 10.1007/978-3-642-05054-1 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 2010 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort
Die weitere Entwicklung und Ausgestaltung der Informationsgesellschaft zeigen bereits durchaus unterschiedliche Wege hin zu einer Netzwelt. Weil diese nun beileibe keine „virtuelle“ Welt ist, gilt es, die gesellschaftlichen, politischen und kulturellen Werte zum Maßstab im Wandel der von Innovationen und Konvergenzen geprägten Techniken, Märkte und Kommunikationsformen zu machen. Die oft noch so unüberschaubare und für viele Menschen so verwirrende Netzwelt hat heute jedoch hinreichend Konturen bekommen, um weitere Konturierungen in vielerlei Hinsicht als notwendig anzusehen. Diese Netzwelt ist schließlich kein Naturereignis, das „auf uns zu kommt“, sondern ein Ergebnis gesellschaftlichen, wirtschaftlichen und politischen Willens, des Suchens und Irrens, nicht zuletzt des menschlichen Strebens nach der „besseren Welt“. Gewiss, das Ringen um Erkenntnis, um gemeinsame Strategien und um ein verträgliches globales Miteinander wird durch die anhaltende Unübersichtlichkeit der Neuheitsexplosion nicht gefördert, sondern erweist sich als eine permanente Aufgabe, deren Zwischenergebnisse regelmäßig in einem „Review“ dargestellt, analysiert und für den Diskurs zur Verfügung gestellt werden müssen. Dieser Jahresreader will dies als Forum für solche Zwischenbilanzen durch Beiträge herausragender Akteure, Gestalter und Vordenker leisten. Auch wenn es in Anbetracht der – tatsächlichen oder nur phänotypisch erscheinenden – Konvergenzen schwerfällt, das komplexe und komplizierte Phänomen einer Netzwelt nicht einfach mit einer Klammer über alles hinweg zu versehen (was sich wohl als zeitsparendes „e-Alles“ in den Köpfen festsetzen würde), wurden die drei Teile des Buches doch systematisiert in die Themenbereiche „Netz und Qualität“, „Personalisierung und Verantwortung“ sowie „Öffentlichkeit und Kultur“. Mit den Konturen und Beschreibungen werden aus den unterschiedlichen Blickwinkeln der Autoren, die dennoch das Ganze nicht aus den Augen verlieren, überall Handlungserfordernisse deutlich, ohne dass diese wiederum bei der Umsetzung anderes als ein „best effort“ (ein oft fälschlich
VI
Vorwort
als Euphemismus verstandenes Eingeständnis) anstreben können. Die jeglicher Gesellschaftsentwicklung inhärent unmögliche Vision von Endergebnissen muss für die Akteure nicht resignativen Charakter haben, die Ansammlung von Letztgültigkeiten würde am Ende Stillstand bedeuten, den nur Wenige wollen. Es darf aber ein angestrebtes „Zwischenergebnis“ in der Akteursarena auch keine Entschuldigung dafür sein, diese notwendigen Konturierungen haltlos modisch, handwerklich flüchtig oder gar fahrlässig werteflexibel vorzunehmen. In der Diskussion um die Netzwelt, um die Informations- oder Wissensgesellschaft lauern diese Gefahren immer mehr. Man kann sich die Welt bekanntlich nach Belieben zurechtgoogeln, selbstbetwittern und sogar breitbandig das Wissen der Welt ausdünnen, anstatt dieses Wissen kollektiv zu erweitern und umzusetzen. Sicher ist, dass es eine – wenngleich nicht durch Wahlmaschinen legitimierte – gesamtgesellschaftliche Aufgabe ist, um die besten Wege, die längerfristig gültigen Werte und den verträglichen Wandel leidenschaftlich nach bestem Wissen zu streiten. Gerade der deutsche Standort hat in Europa und in der Welt seine besondere Rolle noch unter Beweis zu stellen. Die Besonderheiten seiner (nunmehr schon 60 Jahre modern bleibenden) Verfassungsordnung bringen auf dem Gebiet der Netzwelt geradezu die Verpflichtung mit sich, die Rahmenbedingungen exportfähig zu machen, sei es nun in der marktwirtschaftlich erforderlichen Regulierung, bei den Qualitätsstandards für Datenschutz und Datensicherheit, in der Medienpolitik, beim Schutz des Einzelnen vor Schaden, bei der Architektur verträglicher und nachhaltiger Infrastrukturen und nicht zuletzt beim Kampf um den Erhalt einer räsonierenden Öffentlichkeit. August 2009
Dieter Klumpp Herbert Kubicek Alexander Roßnagel Wolfgang Schulz
Inhaltsverzeichnis
TEIL I: NETZ UND QUALITÄT Die Debatte um Netzneutralität und Quality of Service.............. 5 Ingo Vogelsang Regulatorische Herausforderungen durch die Umstellung auf ein IP-basiertes Telekommunikationsnetz .......................... 15 Matthias Kurth Paradoxe Intervention. Grundsätzliche Grenzen und Möglichkeiten der Regulierung von Online-Anbietern............. 25 Viktor Mayer-Schönberger Industriepolitik und Telekommunikationsmärkte im Übergang zum Wettbewerb – ein Ländervergleich................... 33 Brigitte Preissl Universaldienste und Next Generation Networks..................... 49 Patrick Xavier, Dimitri Ypsilanti Wie geht es weiter nach DSL? Entwicklungsperspektiven der Versorgung mit Breitband-Internet...................................... 63 Franz Büllingen Breitband für den Ländlichen Raum – Dorfcarrier als Modell? ......................................................................................... 79 Kai Seim Bessere Daten für eine bessere Breitbandversorgung und -nutzung........................................................................................ 93 Herbert Kubicek
VIII
Inhaltsverzeichnis
Die Qualitätskette im TV-System und in den verschiedenen Ausspielformen................................................ 117 Dietrich Sauter, Harald Orlamünder Zukunft der Mobilkommunikation – Wohin gehen wir? ......... 133 Thomas Haustein The Internet Architecture – Is a Redesign Needed?............... 147 Anja Feldmann
TEIL II: PERSONALISIERUNG UND VERANTWORTUNG Das Grundrecht auf Schutz der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme.. 165 Wolfgang Hoffmann-Riem Das Problem der legitimen Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten im Internet ............... 179 Per Christiansen Daten- und Persönlichkeitsschutz im Web 2.0 ....................... 195 Alexander Dix Elektronische Identitäten im Internet und die Einführung des elektronischen Personalausweises .................................. 211 Martin Schallbruch Bürgerportale für eine sichere Kommunikation im Internet .. 221 Alexander Roßnagel Vom Bürgerportal zur De-Mail – Usability und Kundenorientierung für komplexe Web-Angebote................. 233 Carsten Busch, Friedrich L. Holl Identitätsmanagement in Netzwelten....................................... 245 Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
Inhaltsverzeichnis
IX
TEIL III: ÖFFENTLICHKEIT UND KULTUR Die Richtlinie über Audiovisuelle Mediendienste als Kern europäischer Medienpolitik ...................................................... 269 Wolfgang Schulz Bleibt Rundfunk Rundfunk? Der Wert des öffentlichrechtlichen Rundfunks in der Netzwelt.................................... 279 Fritz Raff Vom Wert des Rundfunks in der Netzwelt............................... 289 Jürgen Doetz Wandel der Medienqualität: Reduktion und/oder Substitution?.............................................................................. 301 Dieter Klumpp Perspektiven für die Bürgergesellschaft – Politische Kommunikation im Web 2.0 ...................................................... 317 Dietrich Boelter, Hans Hütt Individualisierung in der Netzwelt............................................ 329 Klaus Kamps Sicherung der Vielfalt kultureller Ausdrucksformen.............. 345 Verena Metze-Mangold Telekom-Monopoly und Human Flesh Search – Europäische Ideen zu Chinas Informationsgesellschaft ....... 365 Thomas Hart
Teil I: Netz und Qualität
Teil I: Netz und Qualität
3
Die Frage nach der Qualität hinsichtlich der Verbreitungswege, der Netztechnik, der Dienste sowie der regulatorischen und ökonomischen Rahmenbedingungen steht im Mittelpunkt des ersten Teils. Ingo Vogelsang, Professor für Volkswirtschaft an der Boston University, wendet sich der Debatte um Netzneutralität und Quality of Service bei Netzdiensten zu. Diese Diskussion entstand im Zuge der Konvergenz von Telefon-, Fernseh- und Breitbandnetz zu einem neuen Netztyp. Vogelsang analysiert die ökonomischen Folgen für Content-Anbieter und Fragen der Wettbewerbspolitik und Regulierung. Der Präsident der Bundesnetzagentur, Matthias Kurth, befasst sich mit den regulatorischen Herausforderungen durch die möglicherweise anstehende Umstellung des öffentlichen Telefonnetzes auf ein IP-basiertes Telekommunikationsnetz. Diese Umstellung würde ein ganzes Bündel an Maßnahmen betreffen, um Telekommunikationsnetze auszubauen, zu optimieren und das Angebot innovativer Dienste zu ermöglichen. Victor Mayer-Schönberger, lange Zeit Professor an der Kennedy School of Government der Harvard University und derzeit an der National University of Singapore, beschreibt und hinterfragt eine paradoxe Intervention im Spannungsfeld zwischen Medienrecht und Wettbewerbsrecht, zwischen Inhalteregulierung und Wettbewerbsregulierung am Beispiel von Lindan Lab – dem Unternehmen, das Second Life betreibt. Im Kern beschäftigt er sich mit den Problemen unterschiedlicher Rechtsordnungen in der Telekommunikation, die ein Unternehmen wie Lindan Lab dazu anregte, Konkurrenten ein zentrales Element des eigenen Geschäftsmodells – einen Quellcode – offen zu legen. Die Hamburger Volkswirtin und Vizepräsidentin der International Telecommunications Society, Brigitte Preissl, stellt die Ergebnisse einer vergleichenden quantitativen wie qualitativen Studie zur Industriepolitik und zu Telekommunikationsmärkten im Übergang zum Wettbewerb vor. Ihr Vergleich industriepolitischer Maßnahmen in Deutschland, Frankreich, Italien, Spanien und Großbritannien zeigt unterschiedliche Regulierungsansätze und Zielsetzungen auf. Patrick Xavier, Professor für Kommunikationsökonomie an der University of Technology in Perth, diskutiert gemeinsam mit Dimitri Ypsilanti, dem Leiter der Abteilung Telekommunikations- und Informationspolitik der OECD, ob eine Verpflichtung zu Universaldiensten – etwa allgemeiner Zugang, Qualitätsstandards –, wie sie den „klassischen“ Netzen zum Teil auferlegt wurden, noch den Next Generation Networks und dem Wandel von Verbreitungswegen und Angeboten gerecht wird.
4
Teil I: Netz und Qualität
Franz Büllingen, Abteilungsleiter am Wissenschaftlichen Institut für Infrastruktur und Kommunikationsdienste, setzt sich mit Entwicklungsperspektiven der Versorgung mit Breitband auseinander. In vielen Ländern wird gegenwärtig dem Breitband-Internet-Zugang ein hoher Einfluss auf das Wirtschaftswachstum und die Standortqualität zugemessen. Für Büllingen ist absehbar, dass selbst nach der Schließung von Versorgungslücken das Problem der Unterversorgung der ländlichen Räume, aber auch mancher städtischer Regionen, künftig fortbestehen wird. Auch Kai Seim beschäftigt sich mit der Frage der Breitbandversorgung, konkret der Unterversorgung im ländlichen Raum. Er analysiert in seinem Beitrag ein Glasfaservollausbau-Szenario und diskutiert einen Widerspruch zwischen politischen Forderungen und Systemeingriffen auf der einen und marktwirtschaftlichen Anforderungen und Strukturen auf der anderen Seite. Herbert Kubicek, Professor für Angewandte Informatik an der Universität Bremen, diskutiert die methodische Qualität der Messung der Versorgung und Nutzung von Breitband in Deutschland – eine für die Debatte um so genannte Weiße Flecken grundlegende Auseinandersetzung. Ein Vergleich mit US-amerikanischen Verfahren eröffnet zudem ergänzende Erfahrungen und Perspektiven. Dietrich Sauter und Harald Orlamünder systematisieren in ihrem Beitrag im Detail die Qualitätskette im Fernsehen unter Berücksichtigung der inzwischen möglichen Ausspielformen. Die Digitalisierung in der Übertragungstechnik und die Diversifizierung der Verbreitungswege (z. B. IPTV) haben neben einigen unbestreitbaren Vorteilen eben auch zu nichtintendierten Wiedergabequalitäten geführt. Thomas Haustein, Abteilungsleiter am Fraunhofer Institut für Nachrichtentechnik in Berlin, erläutert angesichts eines wachsenden Bedarfs mobiler Kommunikation die Vielfalt der damit verbundenen technischen Facetten und neue Herausforderungen, etwa in der Funkfeldabdeckung. Anja Feldmann, Professorin an der TU Berlin und tätig in einem AnInstitut der Universität, den T-Labs der Deutschen Telekom, setzt sich mit grundlegenden Fragen im Kontext des Internet auseinander, im Kern: ob nicht angesichts vielfältiger Probleme und Herausforderungen des Netzes ein völlig neuartiges Internet angedacht und implementiert werden müsste. Sie erörtert und differenziert dabei u. a. auch den in den USA vieldiskutierten „Clean Slate“-Ansatz.
Die Debatte um Netzneutralität und Quality of Service
Ingo Vogelsang
Warum die Debatte gerade heute relevant ist Unter Netzneutralität können Netzanbieter und Netznutzer durchaus Verschiedenes verstehen und dann aneinander vorbeireden. Dazu zwei Beispiele: Während der ersten Ölkrise in den 70er Jahren hieß es, die Franzosen als Freunde der Araber würden von ihnen niedrigere Preise erwarten als von weniger befreundeten Ländern – und waren doch überrascht, als die Araber von eben ihren Freunden ganz im Gegenteil erwarteten, sie würden mehr zahlen. Zweites Beispiel: 2006 warf der damalige AT&T Chef Whittacre Google vor, es erhalte den Zugang zu den Internet-Kunden umsonst und bereichere sich zu Lasten der Netzbetreiber. Darauf fragte der Mathematiker Odlyzko: Warum eigentlich denkt Whittacre, Google soll an AT&T zahlen und nicht AT&T an Google? Content und Netz sind komplementär: Während sie gegenseitig vom Wohlbefinden der anderen Seite profitieren, schließen sich Komplementarität und Konflikt nicht aus. Bei der Debatte um Netzneutralität geht es um genau solche Konflikte. Das ursprünglich radikale Konzept der Netzneutralität bestand in der Forderung nach Gleichbehandlung von Bits im ganzen Netz – unabhängig von Inhalt, Plattform, Herkunft, Ziel oder Art des Dienstes. Während das „BestEffort“-Internet als Leitbild einer so verstandenen Netzneutralität Pate stand, stellt sich im Zuge der Konvergenz unterschiedlicher Netztypen die Frage: Warum sollte sich dabei die herkömmliche Internet-Philosophie durchsetzen, zumal sie streng genommen sogar im Internet nicht mehr gilt? Es gibt gute volkswirtschaftliche Gründe für Preis- und Qualitätsdifferenzierung der Netzdienste. Deshalb scheint sich eine moderatere Definition der Netzneutralität durchzusetzen, die netzseitige Chancengleichheit des Wettbewerbs zwischen Inhalte- und Diensteanbietern im weiten Sinne fordert. Priorisierung und Preisdiskriminierung sind danach erlaubt, sofern
6
Ingo Vogelsang
sie auf sachlichen Kriterien beruhen und keine effizienten Wettbewerber behindern. Insbesondere ist Differenzierung auf der Endkundenseite zulässig. Wesentliche Fälle der Verletzung der Netzneutralität wären dann die ungerechtfertigte Blockierung bzw. Behinderung oder die Bevorzugung bestimmter Diensteanbieter oder Anwendungen. Eine Verletzung der Netzneutralität bezieht sich sowohl auf preisliche als auch auf qualitative Diskriminierungen. Die Situation in den USA Die Debatte über Netzneutralität ging von den USA aus und ist erst in jüngster Zeit auf Europa übergeschwappt, bislang ohne hier ähnliche Wogen zu erzeugen. Die Situation ist in den USA zwar anders als in Europa, aber doch nicht völlig verschieden. Anders ist die noch immer verbreitete Forderung nach „Best-Effort“-Internet als einzig gültigem Maßstab für Netzneutralität. Gemäßigtere Befürworter der Netzneutralität erheben Forderungen nach dem Ausschluss von ungerechtfertigter Zugangsblockierung oder Diskriminierung gegen einzelne Content-Anbieter oder gegen Klassen von Anbietern, die nicht auf objektiven Kriterien beruhen. Aktuell wäre die Blockierung von BitTorrent (P2P) durch Comcast und Cox zu nennen, die von der FCC verboten wurde. Diese Praxis war fast ausschließlich auf die USA beschränkt (und dabei auf das Kabelmodem). Für den – im Vergleich zu Europa – größeren Stellenwert von Netzneutralität in den USA sind zwei Gründe zu nennen. Zum einen wurde vor einigen Jahren in den USA die Regulierung von „Open Access“ und „Unbundling“ im Breitbandbereich abgeschafft. Das geschah im Zuge einer Bevorzugung von infrastrukturbasiertem gegenüber dienstebasiertem Wettbewerb sowie aufgrund des größeren Marktanteils der Kabelnetzbetreiber gegenüber DSL-Anbietern beim Breitbandanschluss. Zum anderen kam es in der letzten Dekade zur Fusion großer Netzbetreiber: AT&T, Verizon, Comcast und Time Warner sind als größte Breitbandanbieter das Resultat einer Reihe von Mega-Fusionen. Diesen Entwicklungen folgte, dass heute in den USA ein größeres Marktmachtproblem im Netzbereich besteht als in Europa. Man kann annehmen, dass (a) nur marktmächtige Breitbandanbieter in der Lage sind, die Netzneutralität zu verletzen, und (b) solche Unternehmen auch genügend Anreize dazu verspüren. Europa verfügt darüber hinaus über ein eingriffintensiveres wirtschaftspolitisches Instrumentarium im Telekommunikationsbereich, womit Verletzungen der Netzneutralität besser verhindert oder korrigiert werden könnten, als das heute in den USA möglich ist.
Die Debatte um Netzneutralität und Quality of Service
7
Die Debatte um Netzneutralität und Quality of Service (QoS) Die Debatte um Netzneutralität und QoS ist Teil der Geburtswehen des neuen Zusammenspiels von Inhalten und Netzen. Aus den drei NetzDienstekombinationen Telefonnetz-Telefondienst, Fernsehnetz-Fernsehen und Breitband/Backbonennetz-Internet entsteht im Zuge der Konvergenz ein heterogener Netztyp, für den neue Qualitäts- und Finanzierungsmodelle und Standards entwickelt werden müssen. Neue Vermittler zwischen den Marktteilnehmern im Netz, z. B. Google und Yahoo, haben inzwischen Marktmacht aufgebaut, die mit der der Anschlussnetzbetreiber konkurriert. Das Problem der Finanzierung der Netzumwandlung und des Netzausbaus in Next Generation Networks (NGN) und Next Generation Access (NGA) wächst angesichts der Konvergenz und des damit verbundenen Wettbewerbs der Netze. Die Identifizierung von Diensten mit Netzen erleichterte bislang die Finanzierung und Qualitätsdifferenzierung der Netze. Die von Konvergenz ausgehende Trennung von Diensten und Netzen erschwert demgegenüber die Finanzierung solcher Investitionen durch Endnutzer, zumal Konkurrenz unter Netzen den Konsumenten die Wahl gibt. Denn (Tele-)Kommunikationsnetze sind versunkene Fixkostenmaschinen, weshalb ihre Finanzierung aus Nutzungsgebühren nur bedingt möglich und effizient ist. Außerdem sind (Tele-)Kommunikationsmärkte zweiseitig: Sie verfügen über mehrere Nutzertypen, die von der gegenseitigen Nutzung profitieren. Für solche Märkte ist bekanntlich eine Beschränkung der Finanzierung auf Endnutzer im Allgemeinen nur wenig effizient. Darüber hinaus fühlen sich die Netzbetreiber im Recht, Beiträge von den Content-Anbietern zu verlangen, da sie ihnen Breitbandzugang zu den Endnutzern gewähren. Zudem erfordern die nun im konvergierten Netz zu erbringenden Dienste differenzierte Qualitäten, so dass eine Qualitätsdifferenzierung letztlich auch effizient sein dürfte. Bislang besteht selbst im Zuge der nach Jahrzehnten der Vorankündigungen nunmehr sich real abzeichnenden Konvergenz immer noch eine Qualitätsdifferenzierung zwischen physischen Netztypen. Bei fortgeschrittener Konvergenz geht es insbesondere (aber nicht ausschließlich) um QoS-Differenzierung im selben Netz, möglicherweise um so etwas wie virtuelle Netzdifferenzierung.1 Bleibende Differenzierungen gehen insbesondere von Mobilfunknetzen aus – wegen der von anderen Netzen nicht nachbildbaren Mobilität – sowie von Festnetzen durch die NGN-Umwandlungen. Ob sich die Investitionen für letztere auszahlen werden, ist dabei durchaus fraglich. Werden die Kunden für höhere QoS im Vergleich zum „Best-Effort“-Internet auch mehr zahlen wollen? 1
Priorisierung kann als Zwitter zwischen Preis- und QoS-Differenzierung gelten.
8
Ingo Vogelsang
Komplementarität von Content und Netzen Zwischen Content und Netzen besteht eine vertikale Komplementaritätsbeziehung. Insbesondere steigt die Nachfrage nach Netzdiensten mit zunehmendem Angebot von Inhalten; gleichzeitig steigt die Nachfrage nach Content mit zunehmendem Angebot von Netzen: Beide profitieren von Netzeffekten. Folglich ist es grundsätzlich die Zusammenarbeit zwischen Netz und Content, die Gewinn maximiert, und – im Gegensatz zur Kollision zwischen Konkurrenten – sie ist auch volkswirtschaftlich erwünscht. Es besteht also eine generelle Interessenkongruenz von Content und Netzen. Versunkene Kosten und steigende Skalenerträge finden sich sowohl bei Netzbetreibern als auch bei Content-Anbietern – wenngleich in unterschiedlichem Maße. Daraus folgt zudem, dass vertikale Integration zur Abwendung von doppelter Marginalisierung und zur Internalisierung von Netzeffekten effizienzerhöhend wäre. Dem stehen aber Kompatibilitätsprobleme einer Integration von Content und Netzen entgegen. Das zeigen enttäuschende Fusionen wie die zwischen AOL und Time Warner, die nicht die gewünschten Synergieeffekte brachten. Eine Verletzung der Netzneutralität kann nun als Versuch gedeutet werden, Vorteile aus vertikaler Integration zu erzielen, ohne die Kompatibilitätsprobleme bewältigen zu müssen. Beispiele hierfür wären Exklusivverträge zwischen Content-Anbietern und Netzbetreibern, die Netzneutralität verletzen und Integrationsvorteile bringen, ohne dass z. B. die jeweiligen Unternehmenskulturen aufgegeben werden müssten. Die überkommene Einheit von Diensten und Netzen lässt sich auch als Substitut für vertikale Integration deuten, die gegenseitige Spezialisierung von Netz und Content erlaubt. Es kann aber auch vorkommen, dass Netzneutralität Integrationsvorteile wahrnehmen hilft, z. B. indem sie doppelte Marginalisierung dadurch vermeidet, dass der Inhalt nicht für Übertragung zahlt.2 Woher rühren Konflikte zwischen Content und Netzen? Der erste ist der, dass zwar grundsätzlich die Komplementarität zwischen Content und Netzen besteht, sich aber im Einzelfall als Komplementarität zu den jeweiligen Konkurrenten äußert. Beispielsweise ist Sprachtelefonie komplementär zu PSTN, und VoIP ist komplementär zum Breitbandnetz. VoIP ist gleichzeitig ein Substitut für und damit Konkurrent von Sprachtelefonie. Daraus folgt ein Interessenkonflikt zwischen VoIP und PSTN.
2
Economides, N. / J. Tåg (2007): Net Neutrality on the Internet: A Two-Sided Market Analysis, in: NET Institute Working Paper 07-45.
Die Debatte um Netzneutralität und Quality of Service
9
Der zweite Konflikt besteht in der Rentenabschöpfung, also dem Konflikt zwischen Anbietern und Kunden, nur dass es hier um so genannte zweiseitige Märkte mit Endnutzern und Content-Anbietern als Kunden geht. Warum sollte Content zahlen, wenn schon die Endnutzer dazu herangezogen werden? Hinzu kommt, dass im Zuge der Netzkonvergenz die Dienste, insbesondere Sprachtelefonie, nicht mehr so sehr zur Zahlung herangezogen werden können wie in der Vergangenheit. Grundsätzlich besteht, wenn beide Kundenseiten bezahlen, eine bessere Steuerungsmöglichkeit der Kapazitätsauslastung bei knapper Netzkapazität. Dem steht entgegen, dass von einigen Content-Anbietern stärkere Netzeffekte als von einer großen Zahl Endnutzer ausgehen. Die Präsenz solcher InhalteAnbieter erhöht also die Nachfrage der Endnutzer nach Netzdiensten. Daraus folgt, dass die Netze solche Content-Anbieter an sich binden wollen und ihnen Gewinnmöglichkeiten bieten und gleichzeitig Renten abschöpfen. Daraus wiederum folgt eine Differenzierung der Anschlussbedingungen von Content nach Netzeffekten, und das kann durchaus effizient sein.
Ökonomische Folgen von QoS- und Preis-Differenzierung für Content-Anbieter Ausgehend vom „Best-Effort“-Internet schafft QoS-Differenzierung Gewinner und Verlierer unter den Inhalte-Anbietern. Im Zuge der Konvergenz kann aber QoS-Differenzierung auch nichts anderes sein als eine Fortsetzung der alten Einheit von Diensten und Netzen. Im Vergleich zum Einheitsbrei des „Best-Effort“-Internet ist solch eine QoS Differenzierung entsprechend den Anforderungen bestimmter (nicht konkurrierender) Dienste meist wohlfahrtserhöhend. Bei Netzwettbewerb profitiert dann von QoS Differenzierung begünstigter Content mehr als der benachteiligte verliert. Eine QoS-Differenzierung zur Differenzierung der Wettbewerber konkurrierender Anwendungen ist demgegenüber in der Bewertung weniger eindeutig. QoS-Differenzierung könnte sich z. B. wettbewerbsfördernd im Content auswirken, wenn es dadurch zur Förderung von Nischenanbietern kommt. Demgegenüber könnte sich QoS-Differenzierung als wettbewerbsmindernd im Content-Bereich erweisen, wenn es zu einer Verstärkung von Skaleneffekten führt. Diese Zusammenhänge sind also recht undurchsichtig. Abbildung 1 zeigt die kurzfristigen Folgen von Netzwettbewerb für Content-Anbieter im europäischen Kontext mit Zugangsregulierung. In diesem Fall generiert das Zusammenspiel von Zugangsregulierung und der
10
Ingo Vogelsang
technischen Marktentwicklung genügend Wettbewerb, so dass Netzneutralität (im moderaten Sinne) von den Netzbetreibern freiwillig eingehalten wird. Von einer etwaigen Verletzung der Netzneutralität benachteiligte Content-Anbieter haben unter Wettbewerb normalerweise genügend Möglichkeiten, über nicht-diskriminierende Netzbetreiber Endkunden zu erreichen. Gemeinsam mit der Komplementarität von Content und Netzen genügt das meist, die Netzbetreiber von Diskriminierungen abzuhalten. Als Folge steigen die schon durch den Netzwettbewerb begünstigten Konsumenten- aber auch Content-Renten durch Netzneutralität noch weiter an. Das Interesse der Content-Anbieter an Einhaltung der Netzneutralität ist daher vollauf verständlich. Hinsichtlich dynamischer Effizienz ist das Hauptargument der Befürworter von Netzneutralität, durch sie würden die Innovationen in Inhalte, Anwendungen, Dienste und Endgeräte optimiert. Zum Beleg wird die phänomenale Entwicklung des Internet mit all seinen Anwendungen angeführt: eine Entwicklung, die angeblich ohne Netzneutralität nicht möglich gewesen wäre. In der Tat erfordert eine auf dem End-to-End-Prinzip beruhende „Dummheit“ der IP-basierten Netze Intelligenz an der Peripherie. Dadurch werden bestimmte Innovationen im Content- und Anwendungsbereich sowie in Endgeräten gefördert. Andererseits geht damit Netzneutralität einseitig zu Lasten von Innovationen in Netzintelligenz und Netzdifferenzierung sowie zu Lasten QoS-abhängiger Dienste. Die Problematik besteht also in einer Abwägung der Innovationen in den komplementären Bereichen Netz und Dienste/Content. Technische und Marktentwicklung
Zugangsregulierung
Netzwettbewerb
Netzneutralität
Content-Renten steigen durch Netzneutralität
Abb. 1. Kurzfristige Folgen von Netzwettbewerb für Content-Anbieter
Die Debatte um Netzneutralität und Quality of Service
Netzneutralität
11
Netzwettbewerb
Mangel an Netzinvestitionen
Weniger Nachfrage nach Content
Mehr ContentInnovationen
Weniger ContentInnovationen
Abb. 2. Langfristige Folgen von Netzwettbewerb und Netzneutralität für ContentAnbieter
Selbst wenn man den Befürwortern der Netzneutralität hinsichtlich der Innovationsanreize folgt, bleibt – wie Abbildung 2 zeigt – eine Ambivalenz bestehen. Das Schaubild stellt die langfristigen Folgen des Zusammenspiels von Netzneutralität und Netzwettbewerb für Content-Anbieter dar. Nach Auffassung ihrer Befürworter gehen von Netzneutralität direkt positive Einflüsse auf die Innovationsneigung im Content-Bereich aus, da der offene Zugang zu Netzen die Innovationen vieler potentieller ContentAnbieter anregt. Langfristig erhöht Netzneutralität durch die damit verbundene Verringerung der Netzdifferenzierung den Netzwettbewerb, während gleichzeitig dieser Wettbewerb die Neigung zu Netzneutralität erhöht. Die durch Netzneutralität bedingte Homogenisierung der Netze und der verstärkte Netzwettbewerb verringern wegen der geringeren Gewinnerwartungen die Investitionsneigung der Netze. Das könnte geschehen, obwohl es gleichzeitig durch den Wettbewerbsdruck zu einer Erhöhung der nachgefragten Netzleistungen kommt. Dieser Mangel an Investitionen führt zu einer Verringerung der Qualität der Netzleistung durch Kapazitätsengpässe, was wiederum die Nachfrage nach Content negativ beeinflusst. Das hat seinerseits einen negativen Einfluss auf die Innovationsneigung im Content-Bereich, obwohl es auch hier zu Innovationen kommen könnte, die Inhalte mit geringeren Netzqualitätsansprüchen fördern. Langfristig gibt es
12
Ingo Vogelsang
Verletzung der Netzneutralität
Weniger Netzwettbewerb
Mehr Netzinvestitionen
Mehr Nachfrage nach Content
Weniger ContentInnovationen
Mehr ContentInnovationen
Abb. 3. Langfristige Folgen von Verletzung der Netzneutralität für Content-Anbieter
also durchaus gegensätzliche Einflüsse von Netzneutralität auf die Innovationsneigungen im Content-Bereich. Abbildung 3 wiederum zeigt analog die durchaus umgekehrten langfristigen Folgen einer Verletzung der Netzneutralität auf Innovationen im Content-Bereich. Eine durch Verletzung der Netzneutralität mögliche Differenzierung der Netze könnte also auf dem Weg über verringerten Netzwettbewerb mehr Netzinnovationen und Netzinvestitionen erzeugen sowie z. B. höhere Breitbandpenetration, die ihrerseits Gewinn- und Innovationsanreize für Content-Anbieter hervorruft. Die relative Marktposition von Content-Anbietern gegenüber Netzbetreibern hängt insbesondere von der Marktmacht im Anschlussbereich der Netze ab. Außerhalb des Anschlussbereichs, also im Kernnetz, ist Marktmacht selten so ausgeprägt, dass Netzbetreiber Content-Anbieter ausnutzen könnten. Die Marktmacht der Netzbetreiber im Anschlussbereich resultiert aus Nichtduplizierbarkeit der physischen Anschlüsse in festen Netzen. Im Gegensatz zu der Marktmacht gegenüber Endnutzern und gegenüber den Betreibern von Kernnetzen rührt aber die Marktmacht gegenüber ContentAnbietern nicht allein vom Mangel an Duplizierbarkeit her, sondern auch von der Gesamtzahl der Anschlüsse eines Netzbetreibers, da Zugang zu einer großen Zahl von Endnutzern relevant für die Content-Anbieter ist.
Die Debatte um Netzneutralität und Quality of Service
13
Durch Anschlussregulierung kann die Marktmacht der Netzbetreiber eingedämmt und Chancengleichheit für Content-Anbieter hergestellt werden. Die Chancengleichheit zwischen Content-Anbietern wird auch von QoS-Differenzierungen beeinflusst, die Verletzungen der Netzneutralität sein können – aber nicht müssen. Gewinner einer solchen Differenzierung sind in erster Linie Content-Anwendungen mit hohen QoS-Anforderungen oder auch Content-Anbieter als Inhaber von Exklusivverträgen mit Netzbetreibern. Verlierer sind in erster Linie Anwendungen mit niedrigen QoSAnforderungen oder durch Exklusivverträge ausgeschlossene Anbieter. Grundsätzlich ist zumindest bei der QoS-Differenzierung ein Ausgleich für diese Effekte durch preisliche Bedingungen möglich. Das heißt, ein durch hohe QoS begünstigter Inhalt kann seinen Vorteil durch einen hohen QoSPreis wieder verlieren, und ein von niedriger QoS benachteiligter Content kann durch preisliche Einsparung den Nachteil ausgleichen.
Gegensteuerung durch Wettbewerbspolitik und Regulierung? QoS-Differenzierungen und Abweichungen von strikter Netzneutralität sind meines Erachtens unweigerlich Bestandteil der anstehenden Veränderungen im Netz- und Contentbereich. Wie der letzte Abschnitt gezeigt hat, sind die Auswirkungen der Netzneutralität und ihrer Verletzung kompliziert, sehr differenziert und von den jeweiligen Umständen abhängig. Sie können wohlfahrtsfördernd sein, müssen es aber nicht. Das heißt insbesondere, dass eine Verletzung der Netzneutralität nicht immer wohlfahrtsmindernd wirkt. Ein Netzneutralitätsgebot setzt in seiner Pauschalität aber voraus, dass eine Verletzung in aller Regel volkswirtschaftlich schädlich sein muss. Da das nicht der Fall ist, sollte stattdessen jeder wirtschaftspolitische Eingriff zur Netzneutralität Abwägungsentscheidungen zulassen. Weder ein pauschales Neutralitätsgebot noch die unbeschränkte Freiheit einer Neutralitätsverletzung sind daher angebracht. Im europäischen Kontext bedeutet das, dass keine neuen ex ante Eingriffe vonnöten sind, auch bei Vorliegen der Regulierungsvoraussetzungen (3-Kriterien-Test und Marktbeherrschung). Vielmehr sollten die Regulierer das Verhalten der Marktteilnehmer beobachten und gegebenenfalls punktuell eingreifen, wie es durch die FCC im Fall Comcast/BitTorrent geschehen ist. Insgesamt scheinen aber Verletzungen der Netzneutralität nach den bisherigen Erfahrungen selten vorzukommen und nachträglicher Korrektur zugänglich zu sein, so dass sie eher in die Kompetenz der Wettbewerbspolitik als in die
14
Ingo Vogelsang
der sektorspezifischen Regulierung gehören. Das EU-Wettbewerbsrecht und der europäische Rechtsrahmen für den Telekommunikationssektor reichen meines Erachtens aus, um potenziell schädliche Verletzungen der Netzneutralität zu verhindern. Produkt- und Qualitätsdifferenzierung in der Netzleistung sollte selbst marktbeherrschenden Netzbetreibern möglich sein, solange sie (a) nicht gegen einzelne Content- bzw. Anwendungsanbieter diskriminiert und (b) nicht auf regulierten Normen beruhende Netzzusammenschaltungsprinzipien verletzt.
Über den Autor Prof. Dr. Ingo Vogelsang, geb. 1943, ist seit 1981 Professor für Volkswirtschaftslehre an der Boston University, USA. 1967 Diplomvolkswirt, 1969 Promotion zum Dr. rer. pol. in Heidelberg. 1975-1980 Wissenschaftlicher Assistent in Bonn, 1978-1979 und 1988 Gastwissenschaftler am M. I. T., seit 1987 Gastwissenschaftler bei der RAND Corporation. 1980 Habilitation in Bonn. Er ist Spezialist auf dem Gebiet der Regulierung und des Wettbewerbs in Netzwerkindustrien, insbesondere Telekommunikation und Elektrizitätswirtschaft. Seine Arbeiten haben besonders die Monopolpreisregulierung und Zusammenschaltbestimmungen in vielen Ländern beeinflusst. Er veröffentlichte 16 Bücher sowie zahlreiche Artikel und Zeitschriftenaufsätze; er ist Mitherausgeber des „Handbook of Telecommunications Economics“ und Associate Editor von „Information Economics and Policy“ sowie im wissenschaftlichen Beirat vierer weiterer Zeitschriften.
Regulatorische Herausforderungen durch die Umstellung auf ein IP-basiertes Telekommunikationsnetz
Matthias Kurth
Ausgangssituation Die Telekommunikationsbranche befindet sich weltweit in einem tief greifenden Umrüstungsprozess. Dabei wird zunehmend IP-Technologie eingesetzt, um nach und nach traditionelle leitungsvermittelte Technologien zu ersetzen. Die Telekommunikationsnetze der Zukunft werden auf dem Prinzip der Paketvermittlung und überwiegend auf dem Internet-Protokoll basieren. Die Entwicklung zu IP-basierten Netzen hat ausgehend vom Kernnetzbereich längst eingesetzt und weitet sich mittlerweile auf die Zugangsund Anschlussnetze aus. Dieser Weg ist noch nicht zu Ende. Große Telekommunikationsnetze werden voraussichtlich noch jahrelang schrittweise von leitungs- auf paketvermittelte Technologie umgestellt. Was unter den Stichwörtern Next Generation Networks (NGN), Next Generation Access (NGA) oder auch allgemein „Umstellung auf IP“ behandelt wird, ist bei genauerer Betrachtung ein ganzes Bündel unterschiedlicher Maßnahmen, um Telekommunikationsnetze auszubauen, zu optimieren und das Angebot innovativer Dienste zu ermöglichen. Einerseits wird leitungsvermittelte Technologie durch paketvermittelte ersetzt, um Kosten zu sparen. Auf der anderen Seite erfordert insbesondere der Anschlussbereich Auf- bzw. Umrüstungen des Netzes, um mehr Bandbreite zu ermöglichen, die wiederum als Voraussetzung für hochwertige breitbandige Dienste anzusehen ist, die dem Endkunden angeboten werden sollen. Hierzu gibt es unterschiedliche Strategien, die hauptsächlich davon abhängen, wie nah Glasfaser an die Endkundenanschlüsse herangeführt wird. Vereinfacht lässt sich sagen, dass die Bandbreite immer höher wird, je näher die Glasfaser am Endkundenanschluss liegt – ein entscheidender
16
Matthias Kurth
Faktor, weil der Endkundenanschluss in heutigen Netzen häufig als kritischer Engpass angesehen wird. Als eines der wesentlichen Merkmale von NGN gilt, dass zukünftig unterschiedliche Netzfunktionen wie Transport, Dienst und die Kontrollfunktion (z. B. Signalisierung) auf unterschiedlichen (logischen) Netzebenen realisiert werden und infolgedessen auch von unterschiedlichen Anbietern erbracht werden können. NGN begünstigt somit die schnelle Verbreitung innovativer Dienste durch unabhängige Diensteanbieter. Vor dem Hintergrund der Investitionen in NGN und NGA ist die Erarbeitung eines Regulierungsansatzes notwendig, um den Netzumbauprozess auch regulatorisch zu begleiten. Dabei sollen die bereits erreichten wettbewerblichen Bedingungen, die auf dem Modell der „ladder of investment“ und der Förderung effizienter Investitionen in Breitbandinfrastruktur sowohl im Zugangsnetz als auch im Kernnetz beruhen, aufrecht erhalten werden. Während die Entwicklung zu NGN/NGA einerseits zu steigenden Skalen- und Dichtevorteilen führt, wird der spezielle Mix an eingesetzten Technologien zunehmend von regionalen Charakteristika (wie etwa Besiedlungsdichte) abhängen und sich daher auch innerhalb von Deutschland unterscheiden. Das kann gegebenenfalls einen differenzierten Regulierungsansatz erfordern, wobei darauf zu achten ist, dass die Regulierung von NGA-Netzen effiziente Investitionen des Incumbent sowie der Wettbewerber fördern sollte. Im Kernnetz ist die Zahl der Zusammenschaltungspunkte in paketvermittelnden Netzen von erheblicher Bedeutung für das Entstehen und die Weiterentwicklung von Wettbewerb, insbesondere auch unter dem Gesichtspunkt der Kosteneffizienz des Netzes. Hierbei sind die unterschiedlichen Interessen aller Beteiligten zu berücksichtigen. Strukturelle Veränderungen der Telekommunikationsnetze erzeugen somit vielfältige Auswirkungen. Während der Endkunde im Idealfall – abgesehen von der Nutzung neuer Dienste – möglichst wenig von der Umstellung merkt, sind Auswirkungen auf die auf den Netzstrukturen basierenden Vorleistungsprodukte eine logische Konsequenz der strukturellen Veränderungen. Nachfolgend werden daher ein Überblick über die Regulierungsaktivitäten und ein Ausblick auf die vor uns stehenden regulatorischen Herausforderungen gegeben.
Regulatorische Bestandsaufnahme Das wesentliche Ziel der Regulierung ist es, die Rahmenbedingungen der Telekommunikation so zu gestalten, dass funktionsfähiger Wettbewerb
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
17
entstehen kann. Dabei ist Regulierung technologieneutral: Unabhängig davon, auf welcher technischen Grundlage ein Telekommunikationsnetz oder -dienst betrieben oder angeboten wird, ist das Telekommunikationsgesetz anwendbar. Dennoch wirken sich die dargestellten Veränderungen der technologischen Grundlagen auf die Regulierung aus. Die Regulierungspraxis muss daher den neuen bzw. sich ändernden Voraussetzungen angepasst und hinterfragt werden. Die Bundesnetzagentur begleitet die häufig unter dem Stichwort NGN diskutierte Umstellung auf IP-basierte Telekommunikationsnetze bereits seit mehreren Jahren durch Workshops, Expertengruppen, Veröffentlichungen, die Mitarbeit in internationalen Gremien und natürlich auch durch ihre Entscheidungen. Wenn sich die Netze ändern, muss sich auch die Regulierung den neuen Gegebenheiten anpassen. Durch seinen Grundsatz der Technologieneutralität ist der geltende Rechtsrahmen hierfür prinzipiell geeignet. Veränderungen stehen dennoch an, weil die Europäische Kommission gerade den gemeinsamen Rechtsrahmen für elektronische Kommunikationsnetze und -dienste überarbeitet. Dabei spielen auch die hier dargestellten Veränderungen eine wesentliche Rolle, denn der zukünftige Rechtsrahmen sollte stabil genug sein, um die Veränderungen abzubilden, und er sollte technologieneutrale Lösungen bereitstellen, damit sich der Wettbewerb auf den Telekommunikationsmärkten weiter entfalten kann. Dabei kommt es auch darauf an, den Übergangszeitraum dafür zu nutzen, gleichwertige Alternativen für heute bestehende Vorleistungen zu etablieren, die in einer NGAUmgebung nicht mehr angeboten werden können. Zudem sollte das in NGN liegende Potential freigesetzt und nicht durch Einschränkungen der Netzbetreiber behindert werden. Die bei NGN möglichen Multi-ServiceNetze erfordern Freiräume für neue Dienste und unabhängige Diensteanbieter. Insofern kommt hier auch möglichen Transparenzverpflichtungen, die dem entgegenwirken können, eine größere Rolle zu.
Europäische Zusammenhänge stärker beachten Beim Übergang zu NGN und NGA wird auch die Gruppe der europäischen Regulierungsbehörden (European Regulators Group, ERG) an Bedeutung gewinnen. Als Reaktion auf die Forderung der EU-Kommission nach einer Europäischen Regulierungsbehörde ist die ERG gerade dabei, sich auf ein stärkeres Fundament zu stellen, sowohl in rechtlicher, organisatorischer und personeller Hinsicht. Damit ist gewährleistet, dass gerade in dieser
18
Matthias Kurth
Phase des Umbruchs – tatsächlicher wie rechtlicher Art – eine handlungsfähige Einheit geschaffen wird, die schnell und kompetent auf die aufkommenden Fragestellungen reagieren und den Harmonisierungsprozess vorantreiben kann, aber gleichzeitig nationale Besonderheiten besser berücksichtigt, als es bei einer Europäischen Regulierungsbehörde der Fall wäre. Im Jahr 2009 werde ich als „Chair“ der ERG hierauf einen besonderen Schwerpunkt meiner Arbeit setzen. Die ERG kann dabei auf umfangreiche Vorarbeiten der letzen beiden Jahre zurückgreifen. Unter der Leitung der Bundesnetzagentur wurden Papiere zu NGA sowie zur IP-Zusammenschaltung erarbeitet, und beide Themen bilden auch 2009 einen Schwerpunkt des Arbeitsprogramms der ERG. So soll eine ökonomische Analyse der tatsächlichen NGAEntwicklungen erstellt werden, in der auch untersucht wird, mit welchen regulatorischen Maßnahmen der effiziente Netzausbau begünstigt werden könnte. Dabei kann nicht unberücksichtigt bleiben, welche Vorleistungsprodukte in einer NGA-Umgebung erforderlich und angemessen sind. Die Europäische Kommission hat diese Thematik in ihrer NGA-Empfehlung aufgegriffen, dabei auf die von der ERG im Vorfeld geäußerte Kritik jedoch nur bedingt Rücksicht genommen. Daher wird im Rahmen der Arbeiten zu NGA auch die Auseinandersetzung mit der Kommissionsempfehlung im Mittelpunkt stehen. Auch im Hinblick auf die Weiterentwicklung der Zusammenschaltungsleistungen wird die ERG ihre Arbeit 2009 fortsetzen und hat sich die Erarbeitung einer Common Position zu den zukünftigen Zusammenschaltungsund Abrechnungsmechanismen zum Ziel gesetzt. Dabei geht es insbesondere auch um Fragen zu Bill & Keep. Im 2008 veröffentlichten Common Statement hat die ERG Bill & Keep als Abrechnungssystem mit vorteilhaften Eigenschaften identifiziert, zugleich aber weiteren Untersuchungsbedarf festgestellt. Insbesondere die Auswirkungen auf unterschiedliche Geschäftsmodelle und Fragen der tatsächlichen Einführung und des Übergangs sollen 2009 weitergehend erörtert werden.
Situation in Deutschland Natürlich wird sich mit diesen Fragen nicht nur die ERG, sondern auf nationaler Ebene auch die Bundesnetzagentur befassen. Die Deutsche Telekom hat angekündigt, ihr Netz sukzessive auf IP-Technik umzustellen. Wenngleich der konkrete Zeitplan dieses langfristig zu sehenden Vorhabens noch unklar ist, ergeben sich daraus einige aktuelle Fragestellungen so-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
19
wohl auf Vorleistungs- als auch auf Endkundenebene. Aber auch andere Anbieter werden vermehrt Glasfaser verlegen, um Anschlüsse mit sehr hohen Bandbreiten anbieten zu können. Hier rücken Kooperationsfragen in den Fokus der regulatorischen Diskussion. Vorleistungsebene Next Generation Access wird den Zugang zur Teilnehmeranschlussleitung in seiner heutigen Ausprägung verändern, wenn sich Teilnehmeranschlussleitungen ändern, indem sie durch das Heranführen von Glasfaser an den Endkunden verkürzt werden. TAL-Nachfrager stehen in diesem Fall vor der Überlegung, ob sie dieser Entwicklung folgen und sich mit ihrer Netzinfrastruktur ebenfalls den Endkunden annähern. Gleichzeitig eröffnet die Verkürzung der Teilnehmeranschlussleitung neue Einsatzmöglichkeiten für Bitstromzugangsleistungen. So könnte insbesondere der heute noch gar nicht angebotene Bitstromzugang am Hauptverteiler in den Mittelpunkt des Interesses gelangen. Dabei ist einerseits sicherzustellen, dass aus der Sicht eines Netzbetreibers ausreichend Anreize bestehen, in einen Netzausbau zu investieren. Auf der anderen Seite muss durch geeignete Vorleistungsprodukte sichergestellt werden, dass sich langfristig funktionsfähiger Wettbewerb etablieren kann. Im Idealfall kommt es hier so früh wie möglich zu Kooperationen zwischen den am Markt tätigen Anbietern, weil eine Remonopolisierung bestimmter Märkte natürlich zu vermeiden ist. Andererseits bleibt auch abzuwarten, wie sich der Bedarf nach bestimmten Vorleistungsprodukten tatsächlich entwickeln wird. Die Bundesnetzagentur hat beispielsweise die Deutsche Telekom bereits Mitte 2007 verpflichtet, den Wettbewerbern Zugang zu Leerrohren und zum Kabelverzweiger zu gewähren. Jetzt müssen die Wettbewerber über die konkreten Bedingungen verhandeln. Die Behörde schreitet nur ein, wenn diese Verhandlungen scheitern. Bislang liegen jedoch keine Beschwerden hierüber vor. Im Gegenteil hat die Bundesnetzagentur hier selbst einen gewissen Druck ausgeübt, um die Gespräche in Gang zu setzen. Letztlich geht es auch darum, dass nicht nur die Deutsche Telekom in ein neues Glasfasernetz investiert, sondern auch die Wettbewerber. Natürlich gilt auch hier die seit Beginn der Liberalisierung bekannte These, dass eine Duplizierung der Anschlussinfrastruktur wirtschaftlich nicht überall sinnvoll ist. Es ist also nicht zu erwarten, dass mehrere Anbieter parallel Gebiete mit Glasfaser erschließen werden. Aus Sicht einer Regulierungsbehörde werden dadurch spannende Fragen aufgeworfen. Ei-
20
Matthias Kurth
nerseits basiert der derzeitige Wettbewerb fast ausschließlich auf Vorleistungsprodukten, die einen Netzzugang gewähren. Andererseits sollen durch die Aussicht auf regulatorisch angeordnete Zugangsprodukte auch keine Negativanreize gesetzt werden, die sich letztlich investitionshemmend auswirken könnten. Es kommt daher darauf an, Investitionsanreize so zu setzen, dass es sich sowohl für den Incumbent als auch für alternative Anbieter lohnt, in Telekommunikationsinfrastruktur zu investieren. Mehr als die Hälfte der seit 1998 getätigten Investitionen in Höhe von ca. 80 Milliarden Euro entfällt auf die Wettbewerber der Deutschen Telekom. Regulierung verhindert daher keinesfalls Investitionen, sondert ermöglicht sie auch. Letztlich ist dabei immer darauf zu achten, dass Investitionsanreize immer auf einen Gesamtmarkt wirken müssen. Dabei erweist sich auch der Maßstab der Kosten der effizienten Leistungsbereitstellung als hinreichend flexibel, um alle relevanten Risiken in der Kapitalverzinsung abzubilden. Dadurch ist sichergestellt, dass auch dem etablierten Betreiber ausreichende Mittel für den Aus- und Umbau seines Netzes zur Verfügung stehen. Wenn mit Blick auf größere Investitionen längerfristige Festlegungen zweckmäßig sind, wäre eine entsprechende Öffnung der gesetzlichen Vorgaben an dieser Stelle positiv zu beurteilen. Allerdings bedarf es hierzu zunächst einer Anpassung des europarechtlichen Rahmens. Gegenstand der Diskussion ist des Weiteren der mit der Umrüstung verbundene Abbau von Hauptverteilern. Sie werden künftig nicht mehr im heutigen Umfang erforderlich sein. Wettbewerber haben diese Hauptverteiler mit ihrer eigenen Infrastruktur erschlossen oder stehen vor der unternehmerischen Entscheidung, ob sie bestimmte Hauptverteiler erschließen sollen. Wenngleich die Deutsche Telekom hierzu immer wieder betont, dass kein Hauptverteiler über Nacht geschlossen wird, sind die Unsicherheit der Wettbewerber und die damit verbundenen Schwierigkeiten nachvollziehbar. Die Bundesnetzagentur wird hier einerseits zwischen den betroffenen Unternehmen moderieren, da einvernehmliche Lösungen zu bevorzugen sind. Darüber hinaus wird die Bundesnetzagentur gegebenenfalls in ihren Entscheidungen im Standardangebotsverfahren nach § 23 TKG Übergangsregelungen und Bedingungen der Standortschließungen festlegen, wie sie das ja auch in der Vergangenheit bereits getan hat. Auch die Zusammenschaltung ihrer Netze wird von den Anbietern derzeit von einer PSTN-basierten auf eine IP-basierte Übergabe umgestellt. Das zeigt, dass der Netzumbau alle Anbieter betrifft und Wechselwirkungen komplexer Art verursacht, die auch aus regulatorischer Sicht zu be-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
21
handeln sind. So ist 2009 damit zu rechnen, dass die Deutsche Telekom ein IP-basiertes Zusammenschaltungsprodukt für Sprachdienste anbieten wird. Damit könnten gegebenenfalls vielfältige Fragestellungen verbunden sein, die seitens der Bundesnetzagentur bereits in den 2008 veröffentlichten Eckpunkten der Zusammenschaltung IP-basierter Netze abstrakt behandelt wurden. So wird insbesondere abzuwarten sein, ob sich die Marktteilnehmer auf die maßgeblichen Konditionen der IP-Zusammenschaltung einigen können, denn die Produkte werden zunächst nicht reguliert sein. Der derzeitige Entwurf einer Marktdefinition und Marktanalyse der Zusammenschaltungsleistungen für Festnetztelefonie klammert Zusammenschaltungsleistungen mit IP-basierter Übergabe noch aus, weil die Frage der Austauschbarkeit mit PSTN-basierten Zusammenschaltungsleistungen derzeit noch nicht hinreichend verlässlich beantwortet werden kann, solange die Produkte noch nicht spezifiziert sind. Endkundenebene Auch wenn Endkunden von all diesen Änderungen wenig mitbekommen sollen, sind auch hier Anpassungen erforderlich, um bisherige Qualitätsstandards der Dienste aufrechtzuerhalten. Das gilt insbesondere für den Kundenschutz, der in den vergangenen Jahren stark an Bedeutung gewonnen hat. Hier gilt es, etablierte Rechte der Verbraucher auch auf zukünftigen Technologien zu gewährleisten und sicherzustellen, dass beispielsweise der Nutzer eines IP-basierten Telefondienstes nicht schlechter gestellt wird, als der Nutzer eines PSTN-basierten Sprachdienstes. Eine weitere Frage ist die mögliche Verpflichtung der Deutschen Telekom zur Ermöglichung von Preselection und Call-by-Call auf All-IPAnschlüssen. In der 2009 zu erlassenden Regulierungsverfügung wird die Bundesnetzagentur über eine entsprechende Verpflichtung zu entscheiden haben. Weitere Auswirkungen finden im Bereich der Öffentlichen Sicherheit statt, ebenfalls häufig unbemerkt vom Endkunden. Die Vorschriften zum Fernmeldegeheimnis, Datenschutz, Notruf und zur Überwachung müssen technologieunabhängig befolgt werden, auch wenn es natürlich vereinzelt aus technischen Gründen Übergangsregelungen geben kann. Aufgrund der aktuellen Ereignisse ist unser Augenmerk insbesondere auf den Datenschutz gerichtet. Hier sollten vor allem die Anbieter am Markt ein ausgeprägtes Interesse daran haben, Sicherheitslücken zu schließen bzw. gar nicht erst entstehen zu lassen.
22
Matthias Kurth
Ausblick Von den gesetzlichen Zielen der Regulierung ist in diesem Zusammenhang einerseits an das Ziel zu denken, effiziente Infrastrukturinvestitionen zu fördern und Innovationen zu unterstützen. Daneben steht jedoch gleichberechtigt das Ziel der Sicherstellung eines chancengleichen Wettbewerbs und der Förderung nachhaltig wettbewerbsorientierter Märkte der Telekommunikation, auch in der Fläche. Regulierung darf Netzinvestitionen und Innovationen nicht im Weg stehen, sondern trifft im Idealfall Entscheidungen, die dies begünstigen und den Wettbewerb fördern. Insofern kommt der Arbeit der Bundesnetzagentur hier derzeit eine besondere Rolle zu, weil mit dem Netzausbau eine bessere Versorgung der Bevölkerung mit breitbandigen innovativen Diensten verbunden ist. Zwar darf man in NGN, NGA und zukünftige All-IP-Netze keine übertriebenen Hoffnungen setzen, denn die leider immer noch vorhandenen weißen BreitbandFlecken können dadurch nur teilweise entfernt werden. Hier dürften die vielerorts zu beobachtenden kommunalen und regionalen Initiativen zielführender sein, und ich begrüße außerordentlich, dass die EU-Kommission die Maßnahmen zur Verbesserung der Breitbandversorgung in ländlichen Gebieten als Breitband-Beihilfe ausdrücklich genehmigt hat. Ich gehe nicht davon aus, dass der bisherige Regulierungsansatz Innovationen und Investitionen verhindert hat. Im Gegenteil: Obwohl reguliert wurde, hat die Deutsche Telekom in den letzen zehn Jahren ein hochwertiges Breitbandnetz etabliert und plant den weiteren Ausbau. Weil reguliert wird, investieren alternative Anbieter bedeutende Summen in den Ausbau eigener Infrastruktur und sorgen somit für Wettbewerb auf den Telekommunikationsmärkten. Regulierung hat hier Wettbewerb und Investitionen gerade erst ermöglicht. Staatliche Regulierung und privatwirtschaftliche Investitionen schließen sich also keinesfalls aus. Dennoch ist vorhandenes Deregulierungspotential auszuschöpfen, und Regulierung sollte so ausgestaltet werden, dass Investitionen und daraus folgender Wettbewerb gefördert werden, damit mittel- und langfristig weiteres Deregulierungspotential entsteht. Bei den aktuellen Diskussionen über mögliche Deregulierung wird häufig vergessen, dass Wettbewerb die Voraussetzung dafür ist, dass ein Markt aus der Regulierung entlassen werden kann. Die Bundesnetzagentur ist hier auf einem guten Weg und beschränkt die Regulierung sukzessive auf das notwendige Maß. So wurden die Endkundenmärkte zunächst aus der Ex-ante- in die Ex-post-Regulierung überführt. Mittlerweile wurden sie zum Teil bereits vollständig aus der Regulierung entlassen. Auch im Vor-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
23
leistungsbereich entwickelt sich mittlerweile ein gewisses Deregulierungspotential. Ob die Regionalisierung von Märkten hierfür ein geeignetes Mittel ist, wird gerade von der Bundesnetzagentur geprüft. Chancen und Risiken sind hier genau abzuwägen, bevor Entscheidungen getroffen werden, die für alle Beteiligten mit enormem Mehraufwand verbunden sind. Um Entscheidungen auf eine solide Grundlage zu stellen, wurde im vergangenen Jahr hierzu eine Anhörung durchgeführt, die derzeit ausgewertet wird und deren Ergebnisse unmittelbar in die Marktanalyse der Bitstromzugangsmärkte einfließen. Allerdings muss nachdrücklich auf die Gefahr einer übereilten Deregulierung im Vorleistungsbereich hingewiesen werden. Hierdurch würden die in den letzten zehn Jahren erzielten Erfolge insgesamt aufs Spiel gesetzt. Zudem würden die von Wettbewerbern geschaffenen neuen Arbeitsplätze in Frage gestellt. Davon abgesehen hat es die Deutsche Telekom auf den Vorleistungsmärkten insbesondere durch das freiwillige Angebot geeigneter Zugangsprodukte selbst in der Hand, ein mögliches Deregulierungspotential zu eröffnen. Hier sehe ich für die Zukunft einen großen Spielraum, der bislang bei weitem nicht ausgeschöpft wurde. In den letzten zehn Jahren ließ sich die Deutsche Telekom zumeist mit viel Widerstand dazu verpflichten, bestimmte Zugangsleistungen anzubieten. Dabei muss regelmäßig jedes Vertragsdetail und am Ende natürlich der Preis mühsam verhandelt und meist angeordnet werden. Freiwillige Angebote, die – so will es der Gesetzgeber – von einem großen Teil des Marktes angenommen werden, könnten hier helfen und Deregulierung ermöglichen. Hier ist vom Übergang zu einer Ex-Post-Entgeltregulierung bis zur vollständigen Entlassung aus der sektorspezifischen Regulierung alles möglich. Der technologische Übergang sollte also dazu genutzt werden, Chancen zur Deregulierung zu erkennen und wahrzunehmen. Dabei ist jedoch sorgsam darauf zu achten, dass es zu keiner Remonopolisierung einzelner Märkte kommt. Denn Wettbewerb erfordert Wettbewerber, und Regulierungsabbau darf keine Jojo-Effekte erzielen, sondern die Märkte müssen kontinuierlich und auf stabiler Basis in das allgemeine Wettbewerbsrecht überführt werden, damit sich der Wettbewerb auch unter diesen Voraussetzungen nachhaltig entwickeln kann. Bis es soweit ist bleiben die Ziele der Regulierung unabhängig von den verwendeten Technologien der Maßstab unseres Handelns. Neben den gesetzlichen Zielen steht für uns dabei das gesamtwirtschaftliche Ziel der Versorgung der Bevölkerung mit leistungsstarken Breitbandanschlüssen und der Verbesserung der Breitbandpenetration insgesamt im Blickpunkt.
24
Matthias Kurth
Über den Autor Matthias Kurth ist seit 2001 Präsident der Bundesnetzagentur (vormals Regulierungsbehörde für Telekommunikation und Post), der sektorspezifischen Wettbewerbsbehörde für die Telekommunikations-, Post-, Energieund Eisenbahnmärkte in Deutschland. Zu ihrem Aufgabenbereich gehören auch das Frequenzmanagement und die digitale Signatur. Er kam 2000 als Vizepräsident zur Bundesnetzagentur. Vorher war er seit 1999 im Management der Colt Telecom GmbH als Direktor für Geschäftsentwicklung, Recht und Regulierung tätig. Er war von 1978 bis 1994 Mitglied des Hessischen Landtags und arbeitete als Rechtsanwalt. Von 1994 bis 1999 war er dann Staatssekretär im Hessischen Ministerium für Wirtschaft, Verkehr, Technologie und Europaangelegenheiten.
Paradoxe Intervention. Grundsätzliche Grenzen und Möglichkeiten der Regulierung von Online-Anbietern
Viktor Mayer-Schönberger Philip Rosedale, der Gründer und CEO von Linden Lab, könnte zufrieden sein. Sein Unternehmen betreibt Second Life, eine virtuelle Welt mit Millionen von Teilnehmern. Mehr als eine halbe Million davon verbringen 15 Stunden und mehr jede Woche in dieser Welt. Bis zu 80 000 davon sind gleichzeitig online.1 Linden Lab ist profitabel, ganz ohne Börsengang. In fünf Jahren hat Rosedale erreicht, wofür Microsoft die dreifache Zeit benötigte: zum unangefochtenen Marktführer zu werden. Wer sich heute nach einem virtuellen Zweitwohnsitz sehnt, der findet ihn in Second Life. Netzwerkökonomen überrascht dieser Erfolg von Linden Lab nicht. Positive Netzwerkeffekte, die im Internet besonders stark ausgeprägt sind, bringen dem Marktführer weitere Kunden.2 Das Ergebnis sind einige wenige sehr erfolgreiche Unternehmen neben einer Vielzahl weitere Anbieter, die nur geringen wirtschaftlichen Erfolg haben. In dieser für Linden Lab scheinbar so sicheren Position sorgte Philip Rosedale für einige Überraschung, als er ankündigte, Second Life werde seine Technologie anderen zur Verfügung stellen. Diese Strategie hat zwei Komponenten. Die erste betrifft die Software, die Teilnehmer an Second Life auf ihren Computern installieren, um an Second Life teilnehmen zu können. Diese Software wurde von Linden Lab „open-sourced“, der Quellcode steht also jedem zum Herunterladen und Verändern zur Verfügung. Viel interessanter in unserem Zusammenhang ist aber Linden Labs Strategie für die Technologie, die auf Linden Labs Servern läuft. Denn damit werden Millionen an virtuellen Objekten verwaltet, ebenso wie die 1 2
Vgl. http://secondlife.com/whatis/economy_stats.php. Vgl. Shapiro, C. / H. Varian (1998): Information Rules. A Strategic Guide to the Network Economy, Boston.
26
Viktor Mayer-Schönberger
Teilnehmer an Second Life. Sie stellt gleichsam das Herzstück der virtuellen Welt dar. Auch Teile dieser Technologie will Linden Lab anderen Anbietern zur Verfügung stellen, damit sie ihre eigenen virtuellen Welten betreiben können. Das ist auf den ersten Blick wirtschaftlich nicht nachvollziehbar. Warum sollte der Marktführer die Werkzeuge zur Verfügung stellen, mit denen andere mit ihm in Wettbewerb treten können? Die Antwort dazu findet sich im Recht, oder besser gesagt: im Spannungsfeld zwischen Medienrecht und Wettbewerbsrecht. Und die Konsequenzen gehen weit über Second Life und virtuelle Welten hinaus und betreffen viele Anbieter auf digitalen Netzen. Das wird klar, wenn wir uns vergegenwärtigen vor welcher Situation Philip Rosedales stand. Als bei weitem größter Anbieter einer offenen, von den Teilnehmern selbst gestalteten virtuellen Welt, sah sich Linden Lab in den letzten beiden Jahren verstärkt mit Rechtsfragen an der Schnittstelle zwischen dem globalen Second Life und nationalen Rechtsordnungen konfrontiert. Verstößt Linden Lab gegen das Glücksspielverbot amerikanischer Einzelstaaten, wenn ein Teilnehmer, der in der Karibik domiziliert ist, in Second Life Glücksspiel anbietet? Muss Linden Lab aktiv werden, wenn volljährige Teilnehmer in Second Life ihre digitalen Avatare als Jugendliche verkleiden und Sex haben? Was genau unterscheidet Linden Lab von einem „Common Carrier“, der nicht wissen muss, welche Informationen er weiterleitet, weil er sie nicht wissen darf? Als Reaktion auf diese und ähnliche Rechtsprobleme verbot Linden Lab Aktivitäten wie das Glücksspiel und verschärfte die Nutzungsregeln – wurde aber damit die rechtlichen Probleme nicht los. Wie denn auch, sind sie doch in der Struktur eines kommunikativen Raumes verwurzelt, in dem potentiell überlappende, zum Teil widersprüchliche nationale Rechtsordnung Geltung haben. Was in einem Land verboten ist, mag in einem anderen sogar grundrechtliche garantiert sein. Ohne die geografischen Grenzen der realen Welt im virtuellen Second Life exakt nachzubilden, kann diese Grätsche langfristig nicht gelingen, auch wenn Linden Lab noch so pragmatisch versucht, nationalen Regulierungsansprüchen gerecht zu werden. In dieser schwierigen Situation also vermeinte sich Philip Rosedale mit dem Rücken zur Wand und war gezwungen, tief in die strategische Trickkiste zu greifen. Indem er die technische Plattform virtueller Welten anderen bereitstellte, hoffte er augenscheinlich, die Alleinstellung von Linden Lab zu verlieren und mit weiteren Anbietern kompatibler virtueller Welten in direkten Wettbewerb zu treten. Nationale Regulierer hätten dann, so das Kalkül, nicht mehr bloß einen Anbieter – Linden Lab – zur Akzeptanz der jeweiligen nationalen Spielregeln zu zwingen, sondern dutzende, vielleicht
Paradoxe Intervention
27
sogar hunderte weitere. Dann würde eine Vereinheitlichung anzuwendender Regeln über nationalstaatliche Grenzen hinweg unumgänglich sein.3 Das zentrale Problem für Linden Lab sind also nicht nur die vielen widersprüchlichen nationalstaatlichen Regeln, sondern die Tatsache, dass sie primär, weil führender Anbieter, in den Augen nationaler Rechtsordnungen und Regulierungsbehörden diese nationalen Normen in Second Life auch durchzusetzen haben. Würde hingegen dieser Normpluralität eine Anbietervielzahl gegenüber stehen, so wäre dem widersprüchlichen Regulierungs- und Durchsetzungsdruck, der Linden Lab so zu schaffen macht, etwas entgegen gesetzt, das die nationalen Regulierer langfristig zur Vereinheitlichung anhielte. So betrachtet ist es für Linden Lab sinnvoll, sich selbst Konkurrenz zu schaffen. Für die nationalen Regulierer von Inhalten und Aktivitäten in virtuellen Welten sieht die Situation hingegen genau anders aus. Sie profitieren von einer Welt mit wenigen oder einem einzigen, wesentlichen Anbieter und würden einen Teil ihrer Durchsetzungskraft verlieren, wenn sie sich vielen weltweit verteilten Anbietern gegenüber sähen. Was sich hier am Beispiel virtueller Welten zeigt, ist freilich verallgemeinerungsfähig – und genau das verleiht diesem Spannungsfeld zwischen Inhaltsregulierung und Wettbewerbsregulierung seine spezifische Sprengkraft. Es ist wesentlich einfacher für chinesische Zensoren, einen großen Suchanbieter (Google) zu zwingen, Ergebnisse von Onlinesuchen zu verfälschen, damit chinesische Google-Nutzer sich nicht über Tibet, Falun Gong oder die Demokratiebewegung 1989 informieren können, als gleiches mit dutzenden oder hunderten Anbietern zu verhandeln.4 Es ist einfacher für französische Gerichte, Online-Auktionen von Nazi-Material zu verbieten, wenn es dafür nur ein oder zwei große Online-Auktionshäuser gibt.5 Und es ist leichter für türkische Gerichte, den Internet-Providern des 3
4
5
Zur Schwierigkeit einer Vereinheitlichung Mayer-Schönberger, V. (2003): The Shape of Governance. Analyzing the World of Internet Regulation, in: Virginia Journal of International Law, 605. Vgl. BBC Online, 25 January 2006: Google Censors Itself for China, http:// news.bbc.co.uk/2/hi /technology/4645596.stm; das führt mitunter zu unerwartenden Konsequenzen in anderen Nationen, vgl. Bray, H. (2006): Google China Censorship Fuels Calls for US Boycott, in: Boston Globe, January 28, 2006. Reidenberg, J. (2001): The Yahoo! Case and the International Democratization of the Internet, in: Fordham Law and Economics Research Paper No. 11, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=267148.
28
Viktor Mayer-Schönberger
Landes aufzutragen, Videos online zu sperren, wenn das durch eine Sperrung des Zugangs zu einem einzelnen Anbieter (YouTube) faktisch zu erreichen ist.6 In all diesen Fällen von Inhalteregulierung im Internet gelang es einem Nationalstaat, sein Recht mit Hilfe eines internationalen Informationsanbieters im Internet durchzusetzen, weil die wenigen großen Anbieter einfach zu identifizieren waren. Das ist oft das Ergebnis, wenn ein großer Anbieter sich einer Normpluralität gegenüber sieht. Linden Labs Strategie ist also nichts anderes, als die Voraussetzungen dafür zu schaffen, dass Nationalstaaten mittelfristig nicht mit einem sondern mit vielen Anbietern virtueller Welten zu rechnen haben – und dann von allen diesen gleichzeitig, auch wenn sie außerhalb des Nationalstaats ihren Sitz haben, die Durchsetzung nationaler Normen erfolgreich zu verlangen hätten. Das bindet nicht nur nationalstaatliche Kräfte, sondern schafft auch Platz für Arbitrage. Nehmen wir das Beispiel Glücksspiel: Wenn es viele Anbieter virtueller Welten gibt und manche davon nicht in den USA domiziliert sind, dann haben es amerikanische Bundesstaaten ungleich schwerer, ihr Glücksspielverbot durchzusetzen, als mit Linden Lab, das in Kalifornien seinen Sitz hat. Denn Internet-Nutzer können zwischen mehreren Anbietern wählen – solchen mit Sitz in den USA (und damit dem Glücksspielverbot unterworfen) und solchen außerhalb der USA (und damit das Verbot faktisch umgehen). Nationalstaaten können diese Arbitrage nur mit einer von zwei Strategien unterbinden: Entweder sie verbieten ihren Bürgerinnen und Bürgern, ausländische Anbieter zu wählen (bzw. fördern und unterstützen nachhaltig heimische Anbieter), oder sie versuchen, sich mit anderen Nationalstaaten zu koordinieren und damit Arbitragemöglichkeiten einzudämmen. Die erste Strategie bedeutet nicht nur einen nachhaltigen Eingriff in die Wahlmöglichkeiten der Bürgerinnen und Bürger (mit damit verbundenen politischen Reaktionen) sondern unter Umständen auch dadurch ausgelöste problematische Grundrechtseingriffe. Die zweite Strategie findet ihre Grenzen im Umfang des möglichen Konsenses mehrerer Staaten, steht doch damit die Durchsetzung zentraler gesellschaftlicher Werte zur Diskussion.7 China hat sich besonders klar für die erste Strategie entschieden und geschickt die wenigen großen Anbieter gegeneinander ausgespielt. Microsoft 6
7
BBC Online, 7 March 2007: Turkish Court Bans YouTube Access, http://news. bbc.co.uk/2/hi/europe/6427355.stm. Zu den Strategien vgl. Viktor Mayer-Schönberger, V. / J. Crowley (2006): Napster’s Second Life? The Regulatory Challenges of Virtual Worlds, in: Northwestern Law Review, 1775.
Paradoxe Intervention
29
und Yahoo! gaben dem Druck der chinesischen Behörden nach, um sich neben relativ starken nationalen chinesischen Anbietern (z. B. Baidu) in China zu positionieren. Das erhöhte erfolgreich den Druck auf Google, ebenfalls nachzugeben und Suchanfragen aus China chinesischer Zensur zu unterwerfen. Eine ähnliche Dynamik zwischen einzelnen SuchmaschinenAnbietern ergab sich beim Versuch amerikanischer Bundesbehörden, im Zuge der Terrorbekämpfung Millionen von Suchanfragedaten zu erhalten. Die Analogie zu Linden Labs Strategie – übertragen auf Suchmaschinen – wäre, die Suchtechnologie anderen Anbietern zugänglich zu machen, um damit einen breiten Markt an weltweit verteilten Anbietern zu erreichen. Davor scheuen Microsoft, Yahoo! und Google zurück. Stattdessen verfolgen sie eine konventionellere Strategie. Im Oktober 2008 gaben sie die Gründung der Global Network Initiative (GNI) bekannt. Sie bindet die drei Unternehmen in ihren Verhandlungen mit Nationalstaaten an Grundsätze und soll verhindern, dass Nationalstaaten wie in der Vergangenheit Sondervereinbarungen mit den einzelnen Anbietern abschließen. Das Ziel ist klar: Die drei marktführenden Unternehmen verpflichten sich zu grundrechtlichen Mindeststandards, um damit ein Ausufern der spieltheoretisch gesteuerten Verhandlungsdynamik mit Nationalstaaten zu stoppen. Das ist im Kern nichts anderes als das, was auf der anderen Seite Nationalstaaten durch internationale Koordination und Kooperation zu erreichen versuchen. Es ist das Schließen der Reihen, ein gänzlich anderes Mittel als die Strategie von Linden Labs, also der Vervielfachung der Angriffspunkte, zur Erreichung des gleichen Ziels.8 Wie erwähnt, verfolgen Nationalstaaten ebenfalls diese Strategie und versuchen mittel Kooperation und Koordination, einen einheitlichen Regulierungsstandard festzulegen, der von allen Kooperationspartnern gemeinsam getragen und durchgesetzt wird. Sie haben dabei aber gegenüber Online-Anbietern den strukturellen Nachteil, dass sie nicht einheitliche Ziele (z. B. Profitmaximierung) verfolgen. Desto größer daher die Gruppe von sich koordinierenden Nationalstaaten ist, desto heterogener die zu schützenden Werte sind, desto kleiner ist die Chance auf einen breiten Konsens. Das lässt mehrere Auswege offen. Zum einen können sich viele Nationalstaaten auf einen sehr kleinen Konsens verständigen und diesen durchsetzen. Das ist etwa bei der Cybercrime-Konvention der Fall.9 Zum ande8
9
Weitere Informationen zu GNI finden sich unter http://www.globalnetworkinitiative.org/. Europarat, Cybercrime-Konvention, CETS No. 185, http://conventions.coe.int/ Treaty/en/Treaties/ Html/1 85.htm.
30
Viktor Mayer-Schönberger
ren aber können sich Nationalstaaten von einem breiten Konsens verabschieden und sich stattdessen um regionale Kooperation bemühen. Das hat den Vorteil, dass innerhalb einer Region oftmals geringere Wertunterschiede zwischen Nationalstaaten bestehen, als das bei einem weltweiten Koordinationsversuch der Fall ist. Der Nachteil regionaler Kooperation ist eine Minderung der Effektivität der Maßnahmen, da eben nicht weltweit die wesentlichen Nationalstaaten sondern nur jene einer regionalen Untergruppe eingebunden sind. Diese Strategie verfolgen (jedenfalls teilweise) die Mitgliedsstaaten der Europäischen Union durch Koordination und Kooperation etwa der Innen-, Justiz- und Verbraucherressorts. Dabei geht man in Brüssel und auch in den Mitgliedsstaaten der Union allerdings weniger dirigistisch vor als in der Vergangenheit. Statt ausschließlich direkter Regulierung (die gibt es auch) steht der Dialog mit den Anbietern im Vordergrund. Gemeinsam, so der Tenor, sollen Regulierungsmechanismen entwickelt und eingeführt werden, die die Europäischen Grundwerte online sicherstellen.10 Das klingt gut, ist aber mehr als bloß der Wunsch nach guter PR. Denn implizites Ziel dieses koordinierten Herangehens ist, durch Zusammenarbeit mit der Wirtschaft die Zahl der Online-Anbieter (und damit jener, die Regulierung auch durchsetzen) gering zu halten. Je weniger große Anbieter es gibt, desto einfacher hat es Europa, sie in seine Regulierungsstrategie einzubinden und zu verpflichten. Im Gegensatz dazu wäre Linden Labs Ansatz einer Anbietervervielfachung der regulative Alptraum. Dieser Ansatz mag verlockend klingen, verspricht er doch durchsetzbare Regulierung im Online-Bereich jedenfalls gegenüber den 500 Millionen Bürgerinnen und Bürgern Europas. Aber selbst wenn das technisch gelänge, unterschätzt er ein zentrales regulatives Spannungsfeld auf EU-Ebene zwischen inhaltlicher Regulierung einer kleinen Zahl dominierender Anbieter und dem Ziel robuster Märkte und echtem Wettbewerb. Die Konzentration des Marktes auf einen oder wenige Online-Anbieter mag im Interesse der inneren Sicherheit und der Verwirklichung nationaler Moralvorstellungen sein, aber sie steht potentiell mit einem Grundprinzip der Union – dem Wettbewerb – in Konflikt. Das sich daraus ergebende Spannungsfeld liegt nicht primär zwischen Regulierern und Anbietern, sondern 10
Vgl. Schulz, W. et al. (im Auftrag der Europäischen Kommission): Endbericht – Studie über Co-Regulierungsmaßnahmen im Medienbereich, http://ec.europa. eu/avpolicy/docs/library/studies/coregul/final_rep_de.pdf; siehe auch the European Internet Co-Regulation Network, http://www.foruminternet.org/specialistes/international/.
Paradoxe Intervention
31
zwischen zwei Regulierungsinstanzen. Und anders als ein unmittelbarer Zielkonflikt – z. B. innere Sicherheit versus Datenschutz – handelt es sich hier um einen Mittel-Ziel-Konflikt. Hinzu kommen die Besonderheiten in der Rechtsetzung der Europäischen Union, vor allem die Fähigkeit der Wettbewerbshüter der Kommission, notfalls auch ohne politische Zustimmung von Rat und Parlament tätig zu werden. Diese Möglichkeit steht für inhaltliche Regulierung (z. B. Datenschutz, Jugendschutz, Verbraucherschutz) nicht zur Verfügung. Die resultierende Gemengelage aus MittelZiel-Konflikten bzw. institutioneller Interdependenz und Unabhängigkeit macht dieses Spannungsfeld gerade dann schwer beherrschbar, wenn die vorhandenen, implizit geförderten Marktkonzentrationen von den Wettbewerbshütern auch als solche verstanden (und bekämpft) werden. Damit aber ist die Delegation dieser Regulierungsaufgabe auf die nächst höhere, europäische Ebene strukturell wenig geeignet, das Arbitrageproblem durch Koordination und Kooperation hinreichend zu lösen. So könnte es für lokale und nationalstaatliche Regulierer stattdessen von Interesse sein, durch lose Vernetzung mit ähnlichen Institutionen andernorts, aber auch mit einer Vielzahl von Anbietern ein soziales Regulierungs-Netzwerk entstehen zu lassen, in dem straffe Koordination durch lose Informationsflüsse und gegenseitiges Lernen ersetzt wird. Besser noch wäre es, wenn in dieses Netzwerk die Betroffenen selbst, also die Teilnehmer virtueller Welten eingebunden werden könnten. Auch das garantiert keinen Erfolg, erweitert aber die Basis, auf der regulative Erfolgsstrategien entwickelt, eingesetzt und von den Regulierungsunterworfenen internalisiert werden können, ohne den Wettbewerb der Anbieter zu unterlaufen.
Über den Autor Prof. Dr. Viktor Mayer-Schönberger ist Direktor des Information & Innovation Policy Research Centres und Professor an der Lee Kuan Yew School of Public Policy / National University of Singapore. Davor war ein ein Jahrzehnt Professor an der Kennedy School of Government der Harvard University, USA. In seiner Forschung beschäftigt er sich mit Governance-Fragen im Bereich Informationstechnologie. Er ist Autor von über hundert Publikationen, und veröffentlichte acht Bücher, darunter „Governance and Information Technology“ (MIT Press) und „Information und Recht“ (Springer).
Industriepolitik und Telekommunikationsmärkte im Übergang zum Wettbewerb – ein Ländervergleich
Brigitte Preissl In den 80er und 90er Jahren des letzten Jahrhunderts wurden Telekommunikationsunternehmen in Europa dereguliert, liberalisiert und privatisiert, um der für überlegen gehaltenen Logik des Marktes Raum zu geben. Die Übergänge vom Monopol zu einem Wettbewerbsregime gestalteten sich in den einzelnen Ländern sehr unterschiedlich. Das betrifft nicht nur die Gestaltung der Regulierung von Telekommunikationsunternehmen, sondern auch und besonders die industriepolitische Begleitung des Übergangs. Der folgende Beitrag vergleicht die Industriepolitik im Telekommunikationssektor in fünf europäischen Ländern zwischen 2000 und 2005 anhand ausgewählter Indikatoren1 – also eine historische Betrachtung der Unterstützung der Marktöffnung durch Industriepolitik (und nicht eine aktuelle Einschätzung industriepolitischer Maßnahmen) in Deutschland, Frankreich, Italien, Spanien und Großbritannien. Es wurden fünf Themenfelder untersucht: Steuerpolitik, Arbeitsmarkt- und Produktmarktregulierung, die Nachfrage des Staates nach Telekommunikationsleistungen und die staatliche Förderung von Telekommunikationstechnik und deren Diffusion (vgl. Tab. 1). Der Vergleich der Industriepolitik stützte sich für quantitative Merkmale auf international vergleichende Indikatoren und für qualitative Merkmale auf intensive Diskussionen unter den beteiligten Länderexperten. 1
Der Beitrag stützt sich auf eine Studie, die das Deutsche Institut für Wirtschaftsforschung 2005 für die Deutsche Telekom erstellt hat. Es wird die Meinung der Autorin und weder die der Deutschen Telekom noch die des DIW wiedergegeben; beteiligt waren folgende Länderexperten: Gèrard Pogorel, Michel Berne, Frankreich; Enzo Pontarollo, Italien; Fernando Gallardo, Teodosio Perez-Amaral, Spanien; Peter Curwen, Jason Whalley, Großbritannien; vgl. Preissl, B. (2005): Telecommunications Regulation in Comparison: Aggregated Performance Indicators. I: Industrial Policy Indicators, Berlin.
34
Brigitte Preissl
Steuererleichterungen Ein Instrument zur Förderung der Verbreitung neuer Technologien ist deren Bevorzugung bei der Besteuerung. In der Telekommunikation wird diese Maßnahme jedoch in den meisten Ländern kaum angewandt, da die vom Markt gesteuerte Kaufentscheidung nicht beeinflusst werden soll. Einzig Italien bildet hier eine Ausnahme. In Deutschland gab es im Beobachtungszeitraum keine technologie-spezifischen steuerlichen Fördermaßnahmen.2 Die – im Vergleich zu anderen dauerhaften Wirtschaftsgütern – relativ Tabelle 1. Überblick über die verwendeten Indikatoren Indikator
Definition
Datenquelle
Steuerpolitik Steuererleichterungen
Steuererleichterungen für den Kauf von Steuergesetze IuK-Gütern
Staatsnachfrage E-Government
Zahl der online verfügbaren staatlichen Dienste; Grad der Realisierung
EU BenchmarkStudie zu E-Government
Regulierung Produktmarktregulierung Gütermarktregulierung, administrative Hürden, Unternehmensgründung
OECD
Beschäftigungsflexibilität Hauptanschlüsse pro Beschäftigtem
eigene Berechnungen
Arbeitsmarktregulierung
OECD /WEF
Arbeitsmarktregulierung
Telekommunikationsförderung Indirekte Subventionen
Maßnahmen zur Förderung der Nachfra- IKT Programme ge nach Telekommunikationsdiensten World Economic Forum
Infrastrukturförderung
Öffentliche Investitionen in Telekommunikationsinfrastruktur, PublicPrivate-Partnerships
Regierungsprogramme
FuE-Förderung 5. Rahmenprogramm
Beteiligung von Forschungsinstitutionen an FuE-Projekten
EU DG Research
FuE
Öffentliche FuE Förderung für IuK
nationale Quellen
2
Institut für Weltwirtschaft an der Universität Kiel (2003): Eine Strategie zum Abbau der Subventionen, Kiel.
Industriepolitik und Telekommunikationsmärkte
35
kurze Abschreibungsfrist für Computer von drei Jahren kann in Bezug auf die tatsächliche Nutzungsdauer als gerade noch angemessen betrachtet werden. Pläne, diese Frist auf vier Jahre zu erhöhen, um die Stimmigkeit des Steuersystems insgesamt zu verbessern, wurden zwar diskutiert, aber wieder verworfen. Die in Frankreich wie in Deutschland für eine Übergangszeit bestehenden Steuervorteile für Telekommunikationsdienstleistungen, die vom ehemaligen Monopolisten bereitgestellt wurden (keine Mehrwertsteuer), können zum einen als Wettbewerbsvorteil für den Incumbent angesehen werden, der die Entwicklung eines wettbewerbsorientierten Marktes hinausgezögert – was Ineffizienzen zur Folge hat. Andererseits profitierte die Nachfrage, solange noch keine Marktneulinge Angebote unterbreiteten, durchaus von den niedrigeren steuerbefreiten Preisen, was sich insgesamt aufgrund von Netzwerkeffekten positiv ausgewirkt haben könnte. In Italien war der Kauf von IuK-Gütern für mehrere Jahre steuerbegünstigt. Die fiskalischen Anreize umfassten Sonderabzüge vom zu versteuernden Einkommen in Höhe von zehn Prozent der Investitionskosten in FuE und in digitale Technik sowie zehn Prozent der Kosten für Praktika in diesem Bereich. Das führte dazu, dass insgesamt 110 Prozent dieser Kosten abzugsfähig waren. Außerdem konnten Unternehmen, die ihre Investitionen in IuK-Technik im Vergleich zu den drei Vorjahren erhöhten, 30 Prozent der Differenz zusätzlich vom zu versteuernden Einkommen abziehen. Allerdings durfte die erzielte Steuerersparnis 20 Prozent des durchschnittlichen Einkommens der letzten drei Jahre nicht überschreiten.3 Um einen Investitionsschub zu erreichen, galten diese Vergünstigungen nur für das Jahr 2004. Nach Schätzungen des Industrieverbands Confindustria konnten damit etwa 3,3 Prozent der Investitionen mit staatlicher Unterstützung finanziert werden, was einem Gesamtbetrag von etwa 200 Mio. € entsprach.4 Unternehmen, die in elektronischen Handel investierten, erhielten zusätzliche Steuervergünstigungen für bis zu 60 Prozent der Kosten der Projekte. Insgesamt wurden dafür zwischen 2001 und 2003 190,3 Mio. € bereitgestellt, von denen 13 Mio. € nicht abgerufen wurden. In Frankreich ließen sich – neben der erwähnten Mehrwertsteuerbefreiung – keine besonderen steuerlichen Bevorzugungen für IuK-bezogene Investitionen oder Ausgaben ermitteln. Spanische Unternehmen können seit 2003 bei Investitionen in IuK-Technik zehn Prozent der investierten Summe von der Steuerschuld abziehen. 3 4
DPR 22/12/1986 n. 917 – Testo Unico delle Imposte sui Redditi. Mündliche Auskunft, November 2005.
36
Brigitte Preissl
Das gilt für Investitionen in die Erhöhung der Übertragungskapazität und andere Verbesserungen der IuK-Ausstattung.5 Konsumenten erhalten keine Steuervergünstigungen beim Kauf von IuK-Gütern oder -dienstleistungen. Lediglich die Region Rioja erlaubt die schrittweise Abschreibung von Computern zur Förderung der IuK-Nutzung in privaten Haushalten. Hier können jährlich bis zu 100 € abgesetzt werden. Von April 2000 bis März wurden in Großbritannien Steuerabzüge für den Kauf von Computern, Peripheriegeräten, Software und web-fähigen Mobiltelefonen gewährt. Sie konnten im ersten Jahr bis zu 100 Prozent abgesetzt werden, es entstanden also Liquiditätsvorteile und Zinsgewinne. Bildungseinrichtungen können in gewissem Umfang niedrigere Mehrwertsteuersätze beim Kauf von informationstechnischen Geräten in Anspruch nehmen. Das gilt aber nur für bestimmte Gebiete, wie z. B. die medizinische Forschung. Eine so genannte Home Computing Initiative wurde im Januar 2004 ins Leben gerufen. Unternehmen, die ihren Angestellten Computer ausleihen, damit diese damit zu Hause arbeiten können, dürfen pro Gerät unmittelbar 500 £ steuerlich geltend machen. Die großzügigste Gewährung von Steuervorteilen für Informations- und Telekommunikationsgüter finden wir also in Italien. Spanien und England weisen immerhin einige steuerbezogene Fördermaßnahmen auf, während Deutschland und Frankreich die Steuergesetzgebung hier nicht als industriepolitisches Instrument einsetzen.
Die Nachfrage des Staates Der Staat ist auf nationaler, regionaler und lokaler Ebene selbst ein großer Nachfrager von Telekommunikationsleistungen. Die Ausstattung mit Kommunikationstechnik und die Erledigung von Routinefunktionen öffentlicher Institutionen ergeben insgesamt substantielle Potentiale für Kommunikationsnachfrage. Eine frühe und umfassende Anwendung neuer Technologien in den Behörden hat auf verschiedene Weise einen positiven Einfluss auf Technikdiffusion und damit auf die Märkte: ņ durch die entstehende Nachfrage nach Technik und netzbasierten Anwendungen wird die kritische Masse für neue Dienste schneller erreicht;
5
Gesetz zur Besteuerung von Unternehmen, Kap IV. 2003. Art 34.
Industriepolitik und Telekommunikationsmärkte
37
ņ die Kommunikationspartner staatlicher Einrichtungen (Unternehmen und Bürger) werden motiviert, Netzdienste zu nutzen; ņ es werden Demonstrationseffekte erzeugt, die Anwendungen stimulieren und Adoptionsbarrieren abbauen; ņ die Anwendung durch den Staat beschleunigt die Suche nach Lösungen für technische und juristische Probleme (z. B. elektronische Signatur, Verschlüsselung, Datenspeicherung, Zugangsmanagement). Leider liegen keine Informationen über die Ausgaben der einzelnen Staaten für den Kauf von IuK-Ausstattung und -Dienstleistungen vor. Die Nachfrage des Staates verbirgt sich hier entweder in Ausgaben für Gebäudemodernisierung, für Büroausstattung oder für Weiterbildung. Auch Telekommunikationskosten werden selten getrennt ausgewiesen. Daher wird hier die Umsetzung von E-Government als Proxyvariable für die Staatsnachfrage verwendet. Es kann angenommen werden, dass dieser Indikator die Bereitschaft der Regierungen zum Ausdruck bringt, in fortschrittliche Kommunikationstechnik zu investieren. Das impliziert, dass alle Länder ungefähr die gleiche Summe aufwenden müssen, um einen bestimmten E-Government Service zu realisieren, und dass die einzelnen Dienste in jedem Land jeweils einen etwa gleichen Impuls in den Telekommunikationsmarkt hinein geben. Das sind restriktive Annahmen, die jedoch eine hohe Plausibilität besitzen. Die Daten wurden einer Studie entnommen, die Capgemini für die Europäische Kommission (GD Informationsgesellschaft und Medien) erstellt hatte. Capgemini verglich die Umsetzung der Online-Bereitstellung für 20 öffentliche Dienstleistungen in 27 Ländern; zwölf sind an Bürger gerichtete Tabelle 2. E-Government: Online verfügbare Dienste für Bürger und Unternehmen6 Indikator
Frankreich Italien
Spanien
UK
Dienste für Bürger
53.34
67.13
59.77
59.31
85.86
Dienste für Unternehmen
83.43
84.38
89.54
94.27
82.14
100 % online
47.40
50.00
52.60
55.00
58.80
184.17
201.51
201.91
208.58
226.80
Insgesamt
6
Deutschland
Capgemini (2005): Online-Verfügbarkeit der Dienstleistungen der öffentlichen Hand: Wer schreitet in Europa voran? Ergebnisse der fünften Erhebung.
38
Brigitte Preissl
Dienste, acht betreffen in erster Linie Unternehmen. Zudem wurde gefragt, ob der jeweilige Vorgang vollständig online durchgeführt werden konnte. Insgesamt konnten für jeden Subindikator 100 Punkte erzielt werden. Nach Ansicht der an unserer Studie beteiligten Länderexperten überschätzt die Erhebung von Capgemini die Umsetzung von E-Government: Zum einen werden Regierungsstellen befragt, die selbst für die E-Government-Projekte verantwortlich sind; deren Angaben werden sich eher am oberen Rand der Einschätzung bewegen. Zum andern lässt sich die tatsächliche Verfügbarkeit insbesondere auf regionaler und lokaler Ebene kaum vollständig erfassen, und einfache Stichproben bei einigen Ämtern zeigten, dass Dienste zwar angekündigt, aber oft nicht tatsächlich verfügbar waren. Da das aber für alle fünf Länder galt, wurde angenommen, dass die Abweichungen sich hier etwa gleich verteilten. Wenig überraschend erzielt England die höchsten Werte, da dort konsequent die Computerisierung und elektronische Vernetzung als Element der Reform der öffentlichen Verwaltung eingesetzt wurden. Unerwartet gut ist das Abschneiden Spaniens. Es ist nicht auszuschließen, dass hier Schwierigkeiten bei der Erhebung der Daten die Vergleichbarkeit zusätzlich einschränkten. Die Unterschiede zwischen den Ländern signalisieren auch Prioritäten in der Finanzierung. Die für IuK in den Kommunalverwaltungen vorhandenen Budgets sind im Vereinigten Königreich deutlich höher als in Frankreich und Deutschland; zudem gilt das Land als „Technologieführer“ im Bereich E-Government. Im öffentlichen Dienst besteht hier ein vergleichsweise hohes Qualifikationsniveau, was den Umgang mit IuKTechnik angeht – etwa verglichen mit Deutschland und Frankreich. Kommunalverwaltungen haben in England im Beobachtungszeitraum in erheblichem Umfang in Innovationen an der Schnittstelle zum Bürger investiert und stellten dann ihre Back-Office Bereiche auf die neue Technik um.7 Das ist eine deutlich andere Strategie, als sie in der Regel in Deutschland verfolgt wird. Hier generierten relativ niedrige IuK-Budgets die paradoxe Situation, dass öffentliche Einrichtungen nicht in der Lage waren, in technische und organisatorische Innovationen zu investieren, die letztendlich größeren Spielräumen für die Modernisierung der Verwaltung und damit zu Kosteneinsparungen geführt hätten; es bestand also ein geringerer Anreiz für Modernisierung.
7
E-Government News, February 24th, 2005.
Industriepolitik und Telekommunikationsmärkte
39
Regulierung von Produkt- und Arbeitsmärkten Die Entwicklung von Wettbewerbsmärkten aus einer Monopolsituation heraus verlangt zum einen flexible Arbeitsmärkte, die eine schnelle Umschichtung von Arbeitskräften vom ehemaligen Monopolisten auf neue Tätigkeiten erlaubt, zum anderen flexible Gütermärkte, die sowohl geringe Markteintrittsbarrieren als auch günstige Bedingungen für Unternehmensgründungen aufweisen. Bei dieser Indikator-Gruppe wurden im Wesentlichen Daten der OECD zur Regulierung von Märkten verwendet, ergänzt um eigene Berechnungen zur Beschäftigungssituation in den ehemaligen Monopolunternehmen. Produktmarktregulierung Der These folgend, weniger regulierte Märkte würden eine höhere Wachstumsdynamik entfalten, als stärker regulierte, wurden Indikatoren der OECD zur Produktmarktregulierung8, zu administrativen Hürden sowie zu den Bedingungen der Unternehmensgründung herangezogen. Die für 1999 bis 2003 verfügbaren Indikatoren beziehen sich auf einen Zeitraum, der in den betrachteten Ländern relevant für die Marktöffnung im Telekommunikationssektor ist. Ergänzend zu den Daten für 2003 wurde die Entwicklung seit 1999 erfasst, um Deregulierungstrends abzubilden.9 Der OECD Indikator weist den Ländern mit der geringsten Regulierungsdichte den niedrigsten Wert zu. Wie erwartet, erzielt das Vereinigte Königreich auch hier das „beste“ Ergebnis, weist also die geringste Marktregulierung auf, gefolgt von Italien, Frankreich, Spanien und schließlich Deutschland. Die größten Fortschritte wurden zwischen 1999 und 2003 in Frankreich und Italien gemacht, wo insbesondere die Subindikatoren für administrative Hemmnisse und für Unternehmensgründungen in vier Jahren etwa halbiert wurden.
8
9
Zur Konstruktion der Indikatoren s. OECD 2005, http://www.oecd.org/ dataoecd/25/9/34634249.xls. Die von de OECD erfassten Tatbestände beziehen sich nicht auf die üblicherweise im Telekommunikationssektor geltenden Regulierungen der vom ehemaligen Monopolisten bereitgestellten Netze. Durch Monopolrechte noch bestehende Marktzutrittsbarrieren zu Telekommunikationsmärkten sind jedoch erfasst.
40
Brigitte Preissl
Tabelle 3. Produktmarktregulierung nach OECD. 1 = geringste, 7 = höchste Regulierungsdichte10 2003 Deutschland
Frankreich
Italien
Spanien
UK
PMR
1,4
1,7
1,9
1,6
0,9
Verwaltungshemmnisse
1,9
1,6
1,6
2
0,8
Unternehmensgründung
1,6
1,6
1,4
1,6
0,8
Deutschland
Frankreich
Italien
Spanien
UK
PMR
1,9
2,5
2,8
2,3
1,1
Verwaltungshemmnisse
2,5
3,2
3,1
2,8
1,2
Unternehmensgründung (1998)
2
2,8
2,7
2,3
1,1
1999
Beschäftigungsflexibilität Der für die Flexibilität der Beschäftigungsstrategie des Incumbent gebildete Indikator beruht auf der Beobachtung, dass in der Regel Monopolisten einen Beschäftigungsüberhang aufbauen, da Ineffizienzen nicht vom Wettbewerb sanktioniert werden. Für den schnellen Aufbau eines dynamischen Telekommunikationssektors kommt es nun darauf an, den notwendigen Beschäftigungsabbau möglichst reibungslos zu vollziehen. Während die Incumbents in Italien, Spanien und England nicht mit durch Verbeamtung garantierten Beschäftigungsverhältnissen belastet waren, mussten für Deutschland und Frankreich Lösungen gefunden werden, die die Rechte der Arbeitnehmer berücksichtigten, aber den Aufbau effizienter Strukturen nicht behinderten. In Frankreich gelang das durch weitgehende Übernahme von beamteten Beschäftigten von France Telecom durch staatliche Institutionen sowie durch Überführung der Beamtenverhältnisse in private Beschäftigung.11 In Deutschland wurden hingegen komplizierte Konstruktionen gewählt, die letztendlich die Deutsche Telekom zu erheblichen Anteilen weiterhin mit einem Personalüberhang belasteten. Die durch diese Politik eingeschränkte Flexibilität des Incumbent in der Personalpolitik dürfte 10 11
OECD Employment Outlook 2004. 1=geringste, 7= höchste Regulierungsdichte. Conseil d’Etat (1993): Avis n° 355 255 du 18 novembre 1993, Paris.
Industriepolitik und Telekommunikationsmärkte
41
weder für die Qualität der Netze und Dienste noch für die Etablierung eines fairen regulierten Wettbewerbs vorteilhaft gewesen sein. Diese Überlegungen führten zu folgender Indikatorkonstruktion: Es wird angenommen, dass sich bei weitgehend flexibler Personalstrategie bei gegebener Technik die Umsätze pro Beschäftigtem in den einzelnen Ländern angleichen müssten. Daher gibt die Relation zwischen geschalteten Hauptanschlüssen (als Proxy für Umsatz) und Beschäftigung einen Hinweis darauf, wie gut die Anpassung der Beschäftigung an die neue Marktsituation und den mittlerweile erzielten technischen Fortschritt gelungen ist. Für die Indikatorbildung wurden daher die Veränderungsraten der Relationen herangezogen, um für den Zeitraum 1999 bis 2004 die Handlungsspielräume der Incumbents bei der Umsetzung des technischen Fortschritts in Effizienzgewinne auszuloten. Offensichtlich gelang es British Telecom am besten, arbeitssparenden technischen Fortschritt umzusetzen. Trotz umfangreicher staatlicher Hilfe bei der Umsetzung von Beschäftigten wies France Telecom im Jahr 2004 noch einen relativ hohen Beschäftigungsstand auf. Das deutet darauf hin, dass auch die Regulierung des Arbeitsmarktes insgesamt Einfluss auf den Verlauf der Etablierung einer neuen Marktordnung hat. Der von der OECD berechnete Indikator „Employment Regulation and Legislation“ (ERL) bildet Schwierigkeiten bei Einstellungen und Entlassungen, Kündigungsfristen, Abfindungen und den Anteil der befristeten Arbeitsverträge an allen Beschäftigungsverhältnissen ab.12 Tabelle 4. Hauptanschlüsse pro Beschäftigtem13; 1) 2003 1999
2001
2004
Deutsche Telekom
349
409
454
France Télécom
280
291
3061)
Telecom Italia
348
447
491
Telefónica
412
505
566
British Telecom
235
346
403
12
13
Der Indikator ist wegen seiner einseitigen Orientierung auf Marktliberalisierung und Abbau von Arbeitnehmerrechten umstritten. Er wird hier nicht im Sinne überlegener Industriepolitik verwendet sondern im Sinne hoher Flexibilität zur Umsetzung struktureller Veränderungen. Jahresberichte der jeweiligen Unternehmen; telefonische Auskünfte.
42
Brigitte Preissl
Tabelle 5. Arbeitsmarktregulierung14; 1=geringste, 7=höchste Regulierungsdichte EPL 2003
EPL 1990
Deutschland
2,5
2,6
Frankreich
2,9
2,8
Italien
2,4
3,1
Spanien
3,1
3,0
UK
1,1
1,0
Die Unterschiede, die hier in Bezug auf Arbeitsmarktflexibilität dokumentiert werden, liefern einen Anhaltspunkt für die schnellere Umstellung von British Telecom im Vergleich zu France Télécom und der Deutschen Telekom.
Industriepolitische Unterstützung des Telekommunikationsmarktes Direkte Subventionen für den Telekommunikationssektor existieren meist nicht, da es sich um einen starken und dynamischen Wirtschaftszweig handelt, in dem Staatseingriffe nicht gerechtfertigt werden könnten.15 Nichtsdestoweniger gibt es Maßnahmen, die indirekt auf eine Förderung des Marktes hinauslaufen. Dazu gehören etwa Programme, die die Verbreitung von Informationstechnik unterstützen. Indirekte Subventionen werden für Maßnahmen geleistet, die den Kenntnisstand über neue Technologien erhöhen; sie sind relativ weit verbreitet. Im Wesentlichen konzentrieren sich die entsprechenden Programme auf eine Verbesserung des Informationsstandes in der Bevölkerung. Dennoch haben verschiedene Regierungen eine Reihe von Maßnahmen ergriffen, die ihr Bestreben ausdrücken, die Entwicklung und Anwendung von IuK-Techniken zu forcieren. Das World Economic Forum misst den Erfolg von Regierungen bei entsprechenden Initiativen durch zwei Indikatoren: IKT Förderung (Government Success in ICT Promotion) sowie die Prioritätensetzung bei der IKT (government prioritisation of ICT) (World Economic Forum 2004). 14 15
OECD Employment Outlook 2004. Vgl. z. B. Spanish Telecom Act 2003; Department of Trade and Industry: The State Aid Guide; Subventionsbericht der Bundesregierung 2005.
Industriepolitik und Telekommunikationsmärkte
43
Tabelle 6. Staatliche Unterstützung für die Verbreitung von IKT16; anders als bei den OECD Indikatoren, signalisieren niedrige Werte geringen, hohe Werte hingegen großen Erfolg Deutschland
Frankreich
Italien
Spanien
UK
IKT Anwendungsförderung
4,1
4,5
3,6
3,5
4,3
Prioritätensetzung
4,9
4,7
3,9
4,5
5,0
1=erfolglos; 7= sehr erfolgreich
England, Frankreich und Deutschland zeichnen sich durch eine relativ aktive Förderung aus, während die italienische und die spanische Regierung hier weniger präsent sind. Infrastrukturmaßnamen sind ein weiteres Feld, in dem sich staatliche Aufgaben mit der Förderung des Telekommunikationssektors überlappen. In Deutschland wird die Telekommunikationsinfrastruktur im Untersuchungszeitraum als Sache des Privatsektors angesehen. Der Infrastrukturausbau soll durch wettbewerbsfördernde Regulierung stimuliert werden. Darüber hinaus soll die Unterstützung der Anwendung von Telekommunikationsdiensten positive Signale in Richtung Infrastrukturfirmen senden, z. B. durch die Projekte „Schulen ans Netz“ und „LKW-Maut“. PublicPrivate-Partnerships gibt es allenfalls auf kommunaler Ebene.17 In Frankreich bestehen ebenfalls keine direkten Subventionen. Bemerkenswert sind jedoch durch den Europäischen Strukturfonds finanzierte Projekte sowie insbesondere verschiedene als Public-Private-Partnership organisierte regionale Projekte. Insgesamt wurden hier bis 2005 in 62 Projekten etwa 1,2 Mrd. € investiert.18 In Italien wird traditionell die Infrastrukturversorgung stärker als in anderen Ländern als staatliche Aufgabe gesehen. Das gilt auch für den Breitbandausbau, insbesondere in den weniger entwickelten Regionen 16
17
18
World Economic Forum (2004): The Global Competitiveness Report 2004-2005, Genf. Siehe auch Bereszewski, M. (2005): PPP: Public Private Problemships, in: Informationweek 03/2005; Bertelsmann Stiftung, Initiative D21 (Hrsg.): Prozessleitfaden Public Private Partnership, in: PPP für die Praxis, http://www. initiatived21.de/themen/egovernment_pppleitfaden/doc/ 16_1057764682.pdf. ART (2005): Synthèse de l’étude internationale sur l’intervention publique dans le secteur des télécommunications, 29 avril 2005, Paris.
44
Brigitte Preissl
des Südens. Eine eigens gegründete Gesellschaft (Infratel) hat zum Ziel, die technologische Lücke zwischen den verschiedenen italienischen Regionen durch Breitbandinfrastruktur schließen zu helfen. Für die Glasfasernetze in 30 süditalienischen Städten sollen über mehrere Jahre 30 Mio. € ausgegeben werden. Auch in Spanien wird die Infrastruktur indirekt über die Förderung der Breitbanddiffusion unterstützt. Zudem wurden einige Public-PrivatePartnership Projekte durchgeführt, bei denen sowohl Telefónica als auch dessen Wettbewerber mit staatlichen Institutionen kooperierten. Die eingesetzten Instrumente sind zinslose Kredite über zehn Jahre mit einem Tilgungsmoratorium von drei Jahren sowie nicht rückzahlbare Subventionen. Nach der Privatisierung von British Telecom gab es keine staatliche Infrastrukturfinanzierung im Vereinigten Königreich. Das änderte sich mit dem Ausbau des Breitbandnetzes. Hierfür stellte die Regierung über einen „Breitbandfonds“ 30 Mio. ǧ zur Verfügung. Auch in England investiert der Staat in erheblichem Umfang in Breitbandanschlüsse für die öffentliche Verwaltung. Hier sollen bis zu einer Mrd. ǧ investiert werden.19
Forschung und Entwicklung In allen Ländern werden öffentliche Mittel für Forschung und Entwicklung (FuE) zur Verfügung gestellt, um den technischen Fortschritt und das Innovationsvermögen zu fördern.20 Da die Mittel zumeist institutionell und für komplexe Projekte vergeben werden, ist es kaum möglich, aus den staatlichen FuE Budgets exakt die Anteile zu identifizieren, die für Telekommunikation verausgabt werden. Um die industriepolitische Forschungsförderung genauer einschätzen zu können, wurde die Präsenz einzelner Länder im 5. Rahmenprogramm der Europäischen Kommission herangezogen. Grundlage ist die These, dass nur bei exzellenter Kompetenz im Bereich Telekommunikationsforschung Wissenschaftler in einem Land in der Lage sind, Fördermittel von der EU zu erhalten. Hinzu kommt, dass viele Programme eine Co-Finanzierung aus nationalen Mitteln vorsehen. Die Bereitschaft nationaler Regierungen, Telekommunikationsforschung zu fördern, zeigt sich daher auch im Erfolg 19
20
Broadband Stakeholder Group (2003): The Impact of Public Sector Interventions on Broadband in Rural Areas, London, S. 1. Vgl. z. B. Acs, Z. / D. Audretsch / M. Feldman (1992): Real Effects of Academic Research: Comment, in: American Economic Review, 82, S. 363-367.
Industriepolitik und Telekommunikationsmärkte
45
von Forschern eines Landes auf EU-Ebene.21 Betrachtet man den Anteil eines Landes am Gesamtfördertopf des 5. Rahmenprogramms, gewichtet mit dem Anteil des jeweiligen Bruttosozialprodukts an der Wirtschaftsleistung der EU insgesamt, ergibt sich, dass Forscher aus Italien und England erfolgreicher als ihre Kollegen und Kolleginnen aus anderen Ländern sind. Deutsche Wissenschaftler kommen deutlich seltener zum Zuge als andere. Das kann zwar damit zusammenhängen, dass durch relativ gute Forschungsbedingungen im Land wenig Notwendigkeit besteht, Gelder auf EU-Ebene einzuwerben, es kann aber auch ein Indiz dafür sein, dass wenig nationale Unterstützung für die internationale Vernetzung geleistet wird.
Industriepolitik für Telekommunikation im Vergleich Die Untersuchung führte zu dem überraschenden Ergebnis, dass die industriepolitische Förderung des Telekommunikationssektors in zwei Ländern am intensivsten ist, die traditionell an entgegen gesetzten Enden industriepolitischer Ansätze zu stehen scheinen (vgl. Tabelle 7). In England wird seit vielen Jahren eine bewusst marktliberale Strategie verfolgt, während in Italien eine eher interventionistische Politik üblich ist, insbesondere in der Regional- und Infrastrukturförderung. Offensichtlich ist, dass nach der Deregulierung der Telekommunikationsmärkte auch in Ländern mit ausgeprägt marktwirtschaftlicher Orientierung die Entwicklung des Marktes nicht den Marktkräften alleine überlassen wird. Zwei Faktoren rechtfertigen industriepolitische Eingriffe: der hohe Stellenwert einer modernen und stetig aktualisierten Infrastruktur für die Ausnutzung der Potentiale der Telekommunikationstechnik sowie die auf Netzwerkeffekten beruhende große Bedeutung kritischer Massen bei der Diffusion neuer Techniken und Anwendungen. Auffallend ist, dass die Fördermaßnahmen nicht eindeutig als „interventionistisch“ oder „liberal“ klassifiziert werden können. Die Liberalisierung des Arbeitsmarktes und der Abbau bürokratischer Hürden bei der Unternehmensgründung sind ebenso förderlich für die Marktentwicklung wie staatliche Unterstützung für Infrastruktur und Diffusion von Techniken und Diensten. 21
Vgl. Johnston, P. et al. (2003): European Research Co-Operation as a SelfOrganising Complex Network – Implications for Creation of a European Research Area. DG Research, Brüssel, H:/Jonston/evaluation/IST monitoring2002/IST Research lins 13-1-03.doc.
46
Brigitte Preissl
Tabelle 7. Industriepolitik für Telekommunikation: Intensität der Förderung Deutschland
Frankreich
Italien
Spanien
UK
Steuervorteile
o
o
xx
x
x
Staatsnachfrage
o
x
x
x
xx
Produktmarktregulierung
–
x
x
-
xx
Beschäftigungsflexibilität
o
o
x
x
xx
Arbeitsmarktregulieung
o
o
o
o
xx
Staatliche Förderung
x
x
o
o
x
Infrastrukturförderung
–
xo
xx
o
x
FuE-Förderung
xx
x
x
o
ox
EU Rahmenprogramm
o
o
x
o
x
xx intensive Förderung; x mittlere Intensität; o geringe Intensität; – unbedeutende oder keine Maßnahmen.
Es hat sich auch gezeigt, dass mit der Liberalisierung des Marktes der Staat in allen betrachteten Ländern über die allgemein akzeptierte, sich aus der Übergangssituation sowie aus dem Netzwerkcharakter der Telekommunikation ergebende Regulierung hinaus industriepolitisch tätig wird. Das geschieht in unterschiedlichem Ausmaß und mit unterschiedlichen Instrumenten. Dabei vermischen sich verschiedene Zielsetzungen: die Förderung kleiner und mittlerer Unternehmen, Regionalpolitik und Technikdiffusion sowie Innovationsförderung und Infrastrukturpolitik stehen jeweils zu unterschiedlichen Zeitpunkten im Vordergrund.
Über die Autorin Dr. Brigitte Preissl promovierte in Volkswirtschaftslehre an der JohannWolfgang-Goethe Universität in Frankfurt am Main. Von 1984 bis 2005 war sie als Wissenschaftlerin am Deutschen Institut für Wirtschaftsforschung in Berlin tätig. In diese Zeit fielen längere Forschungsaufenthalte an der University of Warwick, Coventry, der Aston University, Birmingham, sowie an der University of California in Berkeley und an der Università Cattolica del Sacro Cuore in Mailand. Von Ende 2005 bis Ende 2007 war sie bei der Deutschen Telekom im Bereich „Corporate Academic Relations“ als Senior Economist beschäftigt. Seit Oktober 2007 ist sie Chef-
Industriepolitik und Telekommunikationsmärkte
47
redakteurin für die Zeitschriften „Wirtschafsdienst“ und „Intereconomics“ bei der Zentralbibliothek für Wirtschaftswissenschaften in Hamburg. Sie ist zudem Vizepräsidentin der International Telecommunications Society.
Universaldienste und Next Generation Networks
Patrick Xavier, Dimitri Ypsilanti Vor wenigen Jahren noch operierten Mediendienste in getrennten Netzen, die zu verschiedenen Zwecken konstruiert wurden: Sprachkommunikation bestimmte die Gestaltung des Festnetzes; Rundfunknetze wurden für die Ausstrahlung von Radio und Fernsehen an ein disperses Publikum optimiert; und das Internet folgte den Ansprüchen des Transports digitaler Datenpakete. Mit der Konvergenz medialer Infrastrukturen geht eine „Verflechtung“ der digitalen Informationen einher, die über diese Netze laufen. Die schrittweise Ablösung der „klassischen“ Netze durch „Next Generation Networks“ (NGN), die Fernsehen, Telefonie, OnlineSpiele und mehr auf der Basis des Internetprotokolls (IP) verbreiten, gewinnt in vielen Ländern an Bedeutung – in integrierten, nicht-separierten Netzen und unter dem Dach einzelner Anbieter, die ganze MediendienstPakete schnüren können (und bei denen etwa Sprachübertragung nur ein Dienst unter vielen wäre). Vor diesem Hintergrund wird diskutiert, ob eine Verpflichtung zu Universaldiensten (etwa allgemeiner Zugang, Qualitätsstandards), wie sie den „klassischen“ Netzen zum Teil auferlegt wurde, noch dem modernen Wettbewerb, dem Wandel von Verbreitungswegen, Technologien und Angeboten gerecht wird – und, wenn ja, wie solche Verpflichtungen konkret aussehen könnten, wer sie zu finanzieren habe und wem sie auferlegt werden sollten. Diese Debatte wird hier aufgegriffen und vertieft.1 Im Mittelpunkt stehen Fragen der Verfügbarkeit, des prinzipiellen und erschwinglichen Zugangs zu Netzen und solche der Finanzierung. Diskutiert werden verschiedene Policy-Überlegungen, wobei schließlich argumentiert wird, dass staatliche Förderung und/oder Subventionierungen zur Sicherstellung von Universaldiensten durchaus notwendig werden könnten. 1
Aus dem Englischen von Klaus Kamps.
50
Patrick Xavier, Dimitri Ypsilanti
Grundlegung: Universaldienste im Kontext von NGN Wesentliche Merkmale von NGN Mit Konvergenz wird umschrieben, dass einzelne, IP-basierte Netze Kombinationen aus Daten, Stimmübertragung und Bildern zur Verfügung stellen können; das ermöglicht den Basisnetzen (etwa dem Telefonnetz oder Kabelfernsehen) ähnliche Dienste anzubieten bzw. entsprechende Angebotsstrategien zu entwickeln. Auf der Basis der Voice-over-IP-Technologie (VoIP) können dann beispielsweise neue Provider Telefonie zu konkurrenzfähigen Konditionen offerieren; Marktzugangsbarrieren werden kleiner, die Zahl der Diensteanbieter steigt – insgesamt herrscht größerer Wettbewerb auf dem Telefonie-Markt. Dabei bleibt die Bereitstellung von Diensten weitgehend unabhängig vom Netz selbst, so dass neue Anbieter mit etablierten Netzbetreibern konkurrieren können. Die Dienste sind nicht mehr an einen einzelnen physischen Verbreitungsweg gebunden. Alle denkbaren Kombinationen aus Daten, Tönen und Bildern können über das Kabel, das Festnetz oder eine Mobilfunk-Plattform verbreitet werden. Und auch die Endgeräte werden entsprechend gestaltet. Dieser Konvergenz also – der Verschmelzung von Inhalten, Diensten, Infrastruktur und Endgeräten – ist das Potential von Wettbewerb und Konsumvielfalt inhärent. Schichtung: Abbildung 1 zeigt das Schichtenmodell eines IP-Netzes. Danach benötigen IP-Dienste immer auch eine physische Schicht. So brauchen etwa VoIP-Dienste die Infrastruktur eines Anlagenbetreibers. Und da sich alle Möglichkeiten von NGN erst mit einem BreitbandZusammenarbeit
Nachrichten, Reisen usf.
Informationsdienste
Mailbox, SMS, Rundfunk
Zusatzdienste
Weiterleitung, Quality of Service, Mobilität, Zusammenschaltung
Netzdienste
Zugang, Sendung
Infrastruktur
Entwickler von Anwendungen und Diensteanbieter für Dritte
Z.B. andere Netzbetreiber, Provider, Glasfasernetze
Abb. 1. Schichtarchitektur in NGNs. In: Australian Communications Industry Forum (2004). Final Report, Canberra.
Universaldienste und Next Generation Networks
51
Internet-Zugang erschließen, kommt der prinzipiellen Verfügbarkeit von Breitband eine zentrale Rolle zu. Breitband wird gegenwärtig meist über die herkömmliche Infrastruktur angeboten, also DSL-Technologie und Kabelfernsehnetze, könnte dies prinzipiell aber auch über neue Infrastrukturen, stationär und drahtlos. Die Vorteile neuer Plattformen liegen dabei in der größeren Bandbreite (optische Leiter), Flexibilität (WLAN), Reichweite (Satellit) und Mobilität (3G und folgende). Vor allem drahtlose Technologien erweisen sich zunehmend als attraktive Alternativen zur Abdeckung ländlicher Regionen, in denen die Modernisierung der existierenden Infrastruktur besonders kostspielig wäre. Bei einem konvergierten NGN sollte allerdings nicht nach der ZugangsTechnologie unterschieden werden. Wo verschiedene Geräte Telekommunikation ermöglichen, würden monetäre Anreize zur Unterstützung einzelner Plattformen die technologische und wettbewerbliche Neutralität verletzen. Da Nutzer recht verschiedene Ansprüche an NGN-Dienste stellen, sollten diese Dienste so flexibel wie möglich gestaltet werden. Und da künftige Technologien in ihren Leistungen und Kosten variieren werden, stellt sich der plattform-basierte Wettbewerb asymmetrisch dar: unterschiedliche Plattformen werden zielgruppenorientiert unterschiedliche Dienste und Leistungen anbieten. Damit könnte innerhalb eines Marktsegments der Wettbewerb nur einige wenige oder gar eine einzelne Plattform favorisieren.2 Übergang vom Festnetz zu NGN Bereits der Übergang vom Festnetz zu NGN wirft hinsichtlich der Universaldienste kritische Fragen auf. So ist es recht wahrscheinlich, dass dieser Übergang bestimmte Konsumenten oder geographische Räume diskriminieren wird. Zahlungskräftigere Kunden dürften früher statt des Festnetzes NGN nutzen; zugleich werden immer weniger Kunden mit ihren Beiträgen das Festnetz finanzieren, womit sich die durchschnittlichen Kosten pro Anschluss erhöhen dürften – und das u. U. bei qualitativ schlechteren Diensten. So könnten Festnetze durchaus unrentabel werden, was ihre Schließung nahe legt (es sei denn, Universaldienstverpflichtungen stünden dem entgegen). In der Tat würde die Einstellung der herkömmlichen Festnetze 2
Australian Competition & Consumer Commission (ACCC) (2005): A Strategic Review of the Regulation of Fixed Network Services. Discussion Paper, December.
52
Patrick Xavier, Dimitri Ypsilanti
insofern Klarheit schaffen, als die Vorteile der Kostenreduzierung durch Migration in NGN nur von Betreibern aufgefangen werden können, die nicht durch „alte“ Netze belastet sind. Damit stellen sich unmittelbar Fragen zu Universaldiensten. Aus Gründen des Wettbewerbs mag ein Regulierer dem Incumbent noch einige Zeit auferlegen, ein Festnetz zu unterhalten.3 Aber selbst dort, wo es nicht einfach abgeschaltet werden darf, könnten Fragen eines neuen „Digigal Divde“ aufkommen: einer Kluft zwischen jenen, die bereits über die Dienstequantität und -qualität der NGN verfügen und jenen, die weiterhin auf das Festnetz angewiesen wären. Folgen von NGN für Entwicklungsländer Entwicklungs- oder Schwellenländer, die in der Lage wären, NGN-Infrastrukturen aufzubauen, könnten darüber ihren „technologischen Abstand“ zu den Industriestaaten verringern. So glaubt beispielsweise der indische Telekommunikationsregulierer: „In the Indian context, NGN offers scope for meeting an important national objective of rural connectivity. It may be possible that with optimal network planning and innovative applications, NGN access could provide affordable converged services (multimedia including voice, e-education, e-employment, e-health, e-governance) in small towns and rural areas at lower costs.“4 Wie erwähnt ist eine NGNInfrastruktur allerdings Voraussetzung für NGN-Dienste. Der Aufbau eben dieser Infrastruktur wird eine Herausforderung für Entwicklungs- und Schwellenländer sein, besonders natürlich für solche, deren Bevölkerung bislang kaum Zugang zur Telekommunikation hatte. Entsprechend wäre zu befürchten, dass der Übergang zu NGN eher dazu führt, die technologische Kluft zwischen den Ländern noch zu vergrößern – und zugleich die innerhalb eines Landes: ländliche, wenig bewohnte Regionen in den Entwicklungsländern sind unter kommerziellen Gesichtspunkten für die Entwicklung einer NGN-Infrastruktur äußerst unattraktiv. Andererseits nehmen optimistischere Analysten an, dass bislang unberührte ländliche Räume und abgelegene Märkte ausgesprochen dynamisch sein können, insbesondere unter den Bedingungen einer angemessenen Regulierung. Beispielsweise sieht die indische Regulierungsbehörde in der 3 4
Vgl. ACCC (Fn. 2). Telekom Regulatory Authority of India (TRAI) (2006): Consultation Paper on Issues pertaining to Next Generation Networks (NGN), 12th January 2006, Consultation Paper No: 2/2006, S. 23.
Universaldienste und Next Generation Networks
53
Popularität des indischen Kabelfernsehens einen Beleg dafür, dass auch ärmere Bevölkerungsschichten in ländlichen Räumen bereit sein könnten, für einen Dienst, den sie schätzen, auch zu zahlen.5 Damit könnte die Entwicklung von konvergenten Dienstepaketen, also etwa Triple-Play, auch in solchen Regionen rentabel werden.6 Darüber hinaus – wie erwähnt – sind Investitionen in IP-Infrastrukturen auch deshalb attraktiv, weil sie mittelfristig die Unterhaltskosten der Netze senken. Eine absehbare technologische Entwicklung stützt diese optimistischere Sichtweise, insbesondere mit Blick auf ländliche Räume: WiFI und WiMax, drahtlose Telekommunikationstechnologien mit einer Reichweite von rund 50 Kilometern, könnten den unterversorgten Regionen preisgünstigen Zugang zum Internet ermöglichen – und damit die wirtschaftliche Entwicklung dieser Regionen unterstützen. Aber auch das benötigt eine Umgebung, in der die Marktkräfte Innovationen und kreative Geschäftsideen fördern. Argumente, dass gerade Universaldienst-Programme nicht den Markteintritt von neuen Technologien und Diensten be- oder verhindern sollten, sind für die Entwicklung von NGN besonders relevant: Barrieren sollten abgebaut und künstliche Differenzierungen zwischen Technologien, Diensten und Märkten verworfen werden.
Erschwinglichkeit und Zugang Inwiefern sind vom Übergang vom Festnetz zu NGN nun auch Universaldiensteverpflichtungen betroffen, also etwa Erschwinglichkeit und Zugang? Wie stellt sich der Markt hier auf – und welche Folgen hat das für Fragen der Regulierung? Wenn man mehr auf „Verfügbarkeit“ abhebt, könnten spezifische Kostensysteme entwickelt werden, die Bedürftige unterstützen und ihnen Zugang zu NGN verschaffen. Einige Länder haben solche – kleineren – Programme bereits aufgelegt: die USA „Lifeline“ und „Link-Up“, Großbritannien „Low User“, die Telekommunikationsdienste für Ältere, Benachteiligte, Behinderte und Haushalte mit niedrigem Einkommen fördern, etwa durch geringere monatliche Anschlussgebühren. In Großbritannien muss der Universaldienst-Provider spezielle Dienste z. B. für Blinde oder Taube anbieten. Auch in der EU 5 6
Vgl. TRAI (Fn. 4). Vgl. Melody, W. / E. Sutherland / T. Reza (2005): Convergence, IP Telephony and Telecom Regulation: Challenges & Opportunities for Network Developement, with particular reference to India, Paper prepared for infoDev, New Dehli.
54
Patrick Xavier, Dimitri Ypsilanti
können besondere Tarifprogramme aufgelegt werden, um etwa Haushalten mit niedrigem Einkommen den Zugang zur Telekommunikation zu gewährleisten. Eine der Zielgruppen der EU-Initiative i2010 sind Menschen mit Behinderungen; sie machen etwa 15 Prozent der arbeitenden Bevölkerung in der EU aus7 – ein wesentlicher Prozentsatz, der nicht von wichtigen Produkten und Dienstleistungen ausgeschlossen werden darf; entsprechende Aktionen werden allerdings eher ermutigt denn mandatiert. Die neuen IP-basierten Netze eröffnen nun den Anbietern die Gelegenheit, Produkte und Dienstleistungen auch jenseits der üblichen Telekommunikations-Produktpaletten zu entwickeln. So können Provider eine Vielzahl von Diensten allen Nutzern von Anfang an zugänglich machen. Also können auch die Bedürfnisse von z. B. Menschen mit Behinderung von vornherein im Entwicklungsprozess bedacht werden – was gegenüber einer späteren Implementierung zudem kostengünstiger sein dürfte. Eine solche Strategie der frühen Berücksichtigung von Universaldiensten wurde auch von vielen Experten bei einer Anhörung der Britischen Telekommunikationsbehörde OFCOM angeregt.8 Anzunehmen ist jedenfalls, dass die neuen, über NGN ermöglichten Kommunikationsdienste die Fähigkeit von Menschen mit Behinderung steigern wird, effektiv zu kommunizieren – etwa über Text-Relay-Dienste, Speech-to-Text-Dienste und mehr.
Funktionaler Internet-Zugang in einer NGN-Umgebung Universaldienstverpflichtungen: Zugang zu Netzen und Diensten Das gegenwärtige System der Universaldienstverpflichtungen hat seine Ursprünge in Zeiten, als sowohl Zugang zum Netz als auch Dienste einem einzigen Anbieter zu verdanken waren. Mit NGN werden Netze und Dienste getrennt, möglich ist die Bündelung ehemals separierter Kommunikationsdienste über ein und dieselbe Plattform. Die Frage steht im Raum, ob man sich in einem NGN-Szenario (mit etwa einer größeren Verfügbarkeit einer auch billigeren Sprachübertragung) hinsichtlich der 7
8
European Commission (EC) (2006): European Electronic Communications Regulation and Markets 2005, 11. Report, COM(2006)68 final. Ofcom Submission to the European Commission (2005): On the Review of the Scope of Universial Service in Accordance with Article 15 of Directive 2002/22/EC, (COM(2005)203).
Universaldienste und Next Generation Networks
55
Universaldienste mehr auf das – preiswerte – Zur-Verfügung-Stellen von Breitbandzugängen konzentrieren sollte. Anders ausgedrückt: Sollten sich entsprechende Überlegungen darauf beschränken, Zugang zu ermöglichen (ggf. mit kleinen Übertragungsraten), also sich von Universaldiensten zu Universalzugängen wandeln? Ist das überhaupt möglich? Nach einer Auffassung sind Nutzer im Grunde genommen gar nicht am Zugang interessiert, sondern nur an den Diensten; der Zugang selbst habe im Kern für sie keinen Wert. So argumentiert z. B. Vodafone in einer Anhörung der EU-Universaldienste-Kommission: „The focus should be on services, because social exclusion derives from lack of access to services rather than from not having access to specific communications infrastructure. For example, the satisfaction of the demand for real-time, two-way communication between individuals can be met by several technologies other than simply voice communications over a fixed line. In a data environment, it is even more important to retain the focus on the services that are considered essential for participation in society, rather than any particular delivery infrastructure. There is a high risk of market distortion if there were a bias through intervention towards a particular type of infrastructure access.“9 Demgegenüber hat das britische „Departement of Trade and Industry“ in seiner Einlassung zum selben Thema ausgedrückt: „We are somewhat attracted to the idea of moving towards an environment where it is the access (to perhaps broadband connection) that is specified as an obligation rather than a specific service“.10 Auch das OFCOM glaubt durchaus, Beides sollte voneinander getrennt werden, verweist aber auf weitere einschlägige Argumente: Zum einen könnte sich die Annahme als voreilig erweisen, die Dienste selbst könnten sicherstellen, sie würden nach Universaldienste-Standards zugänglich und erschwinglich sein. Zum anderen müsste eine Bewertung der „Erschwinglichkeit“ auch Kosten jenseits des eigentlichen Dienstes berücksichtigen, also z. B. die der Endgeräte. Im Prinzip und unter bestimmten Voraussetzungen scheint eine Verlagerung hin zu einem „Universalnetzzugang“ sinnvoll.11 Zunächst aber 9
10 11
Vodafone (2005): Submission to European Commisson’s Consultation On the Review of the Scope of Universal Service in accordance with Article 15 of the Directive 2002/22/EC, COM(2005)203, S. 4. Vgl. European Commission (Fn. 7). Für eine detailliertere Analyse vgl. Xavier, P. (2008): From Universal Service to Universal Network Access?, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media. Special Issue on Universal Service, Vol. 10, 5/6.
56
Patrick Xavier, Dimitri Ypsilanti
sollte es keine Minderung der herkömmlichen Universaldienste geben – z. B. hinsichtlich der schlichten Möglichkeit, Notrufe absetzen zu können. Die Verlagerung zu VoIP könnte eben das in Frage stellen. Daneben muss – wie schon erwähnt – aufmerksam eine „neue digitale Kluft“ im Auge behalten werden. Sollte Breitband Teil der Universaldienstverpflichtungen sein? Breitband ist Voraussetzung und damit der Schlüssel für einen umfassenden Zugang zu NGN-Diensten. Zu fragen wäre also, ob und inwieweit der Zugang zur ganzen Palette der Dienste in einer NGN-Umgebung als Breiband-Zugang gefördert werden soll. Jedes Land sollte das in Anbetracht seiner eigenen Situation überlegen. Käme man zu dem Schluss, Breitband sollte nicht notwendigerweise als Universaldienstverpflichtung definiert werden, heißt das aber auch nicht, der Staat könnte nicht doch über andere Instrumente die Verbreitung von Breitband unterstützen – nur eben nicht als direkte Universaldienstverpflichtung. Da die Verfügbarkeit von Breitband – zumindest in den entwickelten Ländern – rasch ansteigt, ist die regelmäßige, systematische Evaluation dieser Frage durchaus berechtigt. Selbst wenn der Zugang zu NGN verbessert wäre, müsste zugleich auch die Frage der besonderen Unterstützung für körperlich benachteiligte Menschen aufgeworfen werden. Wo immer möglich sollte solche Hilfe genau definiert, transparent und technologieneutral benannt werden. Die Europäische Union hat bereits den „funktionalen Zugang“ zu Daten (wenngleich bei geringen Übertragungsraten) in die Definition von Universaldiensten in seine gegenwärtige Universaldienste-Richtlinie aufgenommen. Umfasst aber ein derartiger „funktionaler Zugang“ in einer NGN-Umgebung notwendigerweise auch explizit den Breitband-Zugang? Zumindest gegenwärtig noch liegen kaum überzeugende Argumente vor, Breitband als Universaldienst zu definieren. Sicherlich können Vorteile genannt werden – etwa einen signifikant schnelleren Internetzugang, höhere Attraktivität von neuen interaktiven Diensten und E-Commerce. Fraglich scheint aber, ob jene, die keinen entsprechenden Zugang haben, als „sozial ausgeschlossen“ betrachtet werden könnten – was eine Universaldienstverpflichtung legitimieren könnte. Breitband-Trends Die Verbreitung von Breitband steigt in den entwickelten Ländern rapide, und gegenwärtige Trends zeigen sogar eine Beschleunigung dieser Verbreitung. Der Wettbewerb sorgt bereits jetzt für geringere Preise und steigende
Universaldienste und Next Generation Networks
57
Verfügbarkeit. Eine weiter steigende Annahme von Breitband am Markt könnte künftig die Betrachtung von Breitband als potentiellen Universaldienst wieder rechtfertigen. Soziale Inklusion Doch liegt derzeit die Marktpenetration von Breitband weit unter einem Wert, der es nahe legen würde, einen nicht-versorgten Haushalt als „sozial ausgeschlossen“ zu betrachten. Zudem ist schwerlich zu argumentieren, die gegenwärtig über Breitband erhältlichen Dienste seien essentiell für die gesellschaftliche Integration eines Haushaltes. So kam die Europäische Union zu dem Schluss: „Broadband has not yet become necessary for normal participation in society, such that lack of access implies social exclusion“12. Dennoch dürfte sich die Situation in der NGN-Welt weiter verändern, besonders dann, wenn der Staat bestimmte Bildungs- oder Gesundheitsangebote oder ähnliches über Breitband anbietet. Daher sollte ein regelmäßiges Monitoring der Breitband-Verfügbarkeit eingerichtet werden – hinsichtlich verschiedener Regionen oder unterschiedlicher sozialer Schichten. Benachteiligungen beim Breitband als Symptom einer sozialen Kluft? Argumentiert wird auch, Fragen des Breitbandzugangs unterschieden sich nicht wirklich von solchen der unterschiedlichen Nutzung anderer Technologien, sei es das Individuum oder Haushalte betreffend, sei es regionale oder bildungs- oder geschlechtsspezifische Unterschiede. Außerdem zeige der Umstand, dass unter Kabelfernseh-Nutzern besonders viele aus den unteren Einkommensschichten kommen, dass solche Schichten auch beim Breitband eine Finanzierung zustande bringen würden – sobald sie es als wichtig erachteten. Demnach würden die Marktkräfte früher oder später für eine vernünftige Verbreitung von Breitband sorgen – und das auch zu erschwinglichen Preisen. Und: obwohl in manchen Ländern, z. B. in Großbritannien, für über 98 Prozent der Anschlussleitungen Breitband zur Verfügung steht, setzen viele Nutzer immer noch auf einen schmalbandigen Zugriff auf das Internet. Andererseits wiederum wird argumentiert, eine „Breitband-Kluft“ sei letztlich nur ein Symptom für lange schon existierende, viel tiefer gehende soziale, wirtschaftliche und bildungsspezifische Klüfte. Warum also soll12
Europäische Kommission (2005): On the Review of the Scope of Universal Service in Accordance with Article 15 of the Directive 2002/22/EC, COM (2005)203, 24. Mai, Brüssel.
58
Patrick Xavier, Dimitri Ypsilanti
ten dann spezielle Programme aufgelegt werden für einen breitbandigen Internet-Zugang? Und dort, wo bestimmten soziodemographischen Gruppen Unterstützung zuteil wird – warum sollten spezielle BreitbandFördermittel jenseits der bedarfsorientierten allgemeinen Sozialprogramme aufgelegt werden? In der Tat haben Studien gezeigt, dass von einem pauschalen Universaldienste-System häufig Menschen mit höherem Einkommen profitieren – und eben nicht Haushalte mit niedrigem Einkommen.13 Verhinderung des Markteintritts Der Zwang, im Rahmen von Universaldienstverpflichtungen Breitband national anzubieten, dürfte die Position des Incumbent stärken, da er derzeit alleine in der Lage sein dürfte, Breitband landesweit anzubieten. Beispielsweise kam die in Australien zuständige Behörde bei einer entsprechenden Evaluation zu dem Schluss: „Finding 8.1: To some extent the current [USO] funding arrangements reduce the incentives for market entry, market growth or maintenance of market share by non-Telstra service providers, and this is a factor reinforcing Telstra’s dominance in the residential access market. Finding 8.2: The current [USO] funding arrangements potentially inhibit the development of advanced services in regional, rural and remote areas, and raise efficiency concerns in the design and implementation of non-USO programs and initiatives.“14 Auch eine andere Australische Untersuchung kam zu dem Schluss, eine Universaldiensteverpflichtung sei „not an effective mechanism to provide broad consumer access to an increased range of services into the future“15 – eine Position, die von der Australischen Regierung übernommen wurde. Argumente von OFCOM Die britische Regulierungsbehörde OFCOM hat eine ähnlich gelagerte Untersuchung angestrengt und schloss: „as yet, the efficiency case for a broadband USO is not compelling“ da „…still limited take-up, the dangers 13
14
15
Vgl. Xavier, P. (2003): Universal Service Obligation and Broadband, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media, Mai. Australian Department of Communications, Information Technology and the Arts (2004): Review of the Universal Service Obligation and Customer Service Guarantee, Canberra. Australian Regional Telecommunications Inquiry Report (2002): Connecting Regional Australia, Canberra.
Universaldienste und Next Generation Networks
59
of distorting the market (through non-technology neutral intervention at an early stage of market development), the lack of convincing efficiency or social policy arguments for universal broadband access and the number of existing private and public broadband initiatives“.16 Ganz ähnlich argumentiert die Broadband Stakeholders Group: „Heavy-handed intervention, either through the imposition of a universal service obligation or through large-scale subsidies would be inappropriate at this stage.“17 Zwar sagt die derzeit herrschende Meinung, Breitband sei nicht in Universaldienstverpflichtungen aufzunehmen18; man sollte aber im Auge behalten, dass sich die künftige NGN-Umgebung gerade erst entwickelt und dass entsprechende Fragen bald wieder aktuell sein könnten. Doch sollte man gegenwärtig wohl vorsichtig sein mit einer pauschalen Universaldienstverpflichtung, die den Wettbewerb stören oder Investitionsanreize hemmen könnte. Daneben bedeutet eine derartige Position nicht, der Staat könne nicht andere Anreize überdenken, um die Verbreitung von Breitband zu unterstützen – nur dass dies eben nicht durch eine Universaldienstepflicht geschehen sollte. Die EU z. B. erlaubt durchaus entsprechende Initiativen, soweit sie auch nicht aus den Mitteln für Universaldienste gefördert werden.
Grundlegende Abhängigkeit vom Markt Der technologische Wandel erhöht die Chancen einer generellen Verfügbarkeit von Telekommunikationsdiensten, auch in ländlichen Räumen. Vor diesem Hintergrund ist es an der Zeit, über Marktkräfte nachzudenken, über ein Monitoring und Kosten-Nutzen-Analysen. Ein solcher Zugang sollte Fragen der nachhaltigen Regulation in einem dynamischen, kompetativen und konvergenten Kommunikationssektor berücksichtigen sowie Investitionsanreize, Folgen von Universaldienstverpflichtungen auf den Wettbewerb, Markteintrittsbarrieren und den Umstand, dass Subventionsprogramme: 16
17
18
UK Office of Communications (2005): Review of the Universal Service Obligation, 10 January, abrufbar unter: http://www.ofcom.gov.org.uk. Broadband Stakeholders Group (2005): Third Annual Report and Strategic Recommandations. January. Vgl. auch Feijoo, C. / C. Milne (2008): Re-Thinking Universal Service Policy for the Digital Era: Setting the Scene – An Introduction to the Special Issue on Universal Service, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media. Special Issue on Universal Service, 10, 5/6, S. 4-11.
60
Patrick Xavier, Dimitri Ypsilanti
ņ den Wettbewerb im ländlichen Raum behindern können; ņ mögliche Marktteilnehmer angesichts eines subventionierten Anbieters abschreckt; ņ Marktsignale und damit Marktentwicklung verhindern können; ņ soweit nicht bedarfsorientiert (wie im Falle von Universaldienstverpflichtungen) solche Menschen bevorzugen, die keine Unterstützung brauchen; ņ in einem pauschalen Ansatz („one size fits all“) am Bedarf vorbei operieren können, da die Kunden verschiedene Bedürfnisse haben ņ steigende Kosten für Konsumenten mit sich bringen können. Diese Ineffizienzen zeigen, dass Regulation nur so weit wie nötig implementiert werden sollte; und sie legt einige grundlegende Regeln für Universaldienstverpflichtungen in einer NGN-Umgebung nahe: Generell sollte marktorientierten Ansätzen vertraut werden; Universaldiensteverpflichtungen sollten nicht den Markt beherrschen, sondern allein auf Marktentwicklungen reagieren. Subventionen sollten so gering wie möglich gehalten werden. Regulation sollte Wandel und technologische und infrastrukturelle Entwicklung ermöglichen, sie nicht behindern und sich eher im Sinne einer „light-touch“ Regulation zurückhalten. Die Folgen eines solchen Ansatzes sollten genau beobachtet werden, insbesondere hinsichtlich der Erschwinglichkeit und des allgemeinen Zugangs. Wichtig ist, dass in einer NGN-Umgebung mit vielen Plattformen Konsumenten ganz nach ihren Bedürfnissen die Wahl zwischen verschiedenen Anbietern und Technologien haben.
Zur Förderung von Universaldienstverpflichtungen in einer NGN-Umgebung Mit rückläufigen Profitmargen (aufgrund steigenden Wettbewerbs und fallender Preisen) steigen wiederum die Begehrlichkeiten für Fördermittel zur Verbreitung von NGN, da die Telekommunikationsbetreiber sich weniger in der Lage sehen, von sich aus Universaldienste anzubieten. Eine Reihe von Förderquellen sind hier denkbar, einschließlich19 – etwa – einer Steuer 19
Jede dieser Optionen wird detaillierter diskutiert bei Xavier, P. / D. Ypsilanti (2007): Universal Service in an NGN-Environment, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media, 19, 1.
Universaldienste und Next Generation Networks
61
für jede Telefonnummer, einer zusätzlichen Gebühr für internationale Anrufe, der Unterstützung aus allgemeinen Fördermitteln, Beiträge der Kommunen, Beiträge durch Privatisierung und Auktionen oder etwa Public-Privat-Partnerships. Pragmatisch betrachtet mag es realistisch sein, eine Kombination solcher Instrumente heranzuziehen, insbesondere kurzfristig. Langfristig aber spricht einiges dafür Universaldienstverpflichtungen aus allgemeinen Steuermitteln zu fördern. Da letztlich die Politik entscheiden muss, welche Universaldienste garantiert werden sollen, ist es angebracht, solche Verpflichtungen auch mit anderen staatlichen Vorgaben in Wettbewerb zu stellen. Da es politische Vorteile bringen dürfte, Universaldienstverpflichtungen auf Kosten von Betreibern und/oder Konsumenten zu erlassen, ist eine zurückhaltende Universaldienstverpflichtung (die Innovationen stimulieren könnte) eher nicht zu erwarten. Eine staatliche Förderung würde die Entscheidung für diesen oder jenen Universaldienst eher auch an die finanziellen Folgen dieser Entscheidung binden. Das könnte helfen, exzessive politische Forderungen an die Anbieter zu unterbinden.
Schluss Befürchtungen hinsichtlich der Universaldienste in kompetativen Märkten haben sich als weitgehend unbegründet erwiesen. Das Fazit dieses Beitrages ist dann auch, dass in einer NGN-Umgebung Marktkräfte vornehmlich die Ziele von Universaldienstverpflichtungen bestimmten sollten, während nur die wirklich Bedürftigen unterstützt werden sollten. Regulation scheint in geringem Umfang notwendig und sollte nur dort eingesetzt werden, wo sie unter strengen Gesichtspunkten notwendig erscheint. Universaldienste sollten also nicht den Markt beherrschen sondern allein auf Markteffekte reagieren. Im Prinzip und unter bestimmten Vorraussetzungen scheint ein Wechsel zu einem universellen Netzzugang angebracht. In NGN-Umgebungen werden Netze und Dienste separiert, dem folgt eine größere Auswahl für die Konsumenten und der Wettbewerb könnte Verfügbarkeit und Zugang sichern. In einem solchen NGN-Szenario sollte Netzzugang als Universaldienst nur auf der Ebene geringerer Übertragungsgeschwindigkeiten angedacht werden. Damit könnten dann zu einem späteren Zeitpunkt Universaldienstprogramme Dienste vom Zugang trennen und sich allein auf den Zugang konzentrieren.
62
Patrick Xavier, Dimitri Ypsilanti
Zugang zur ganzen Palette der NGN-Dienste, einschließlich etwa VoIP, erfordert einen Breitbandanschluss. Sollte also – was hier ebenfalls diskutiert wurde – Breitbandzugang als Universaldienst verpflichtend eingeführt werden? Das wird hier zurückhaltend betrachtet; allerdings sollte auf diesem sehr dynamischen Feld ein regelmäßiges Monitoring klären, inwiefern Breitband nicht in der Tat als Universaldienst seine Berechtigung hätte. Hinsichtlich der Förderung argumentieren wir, dass die Unterstützung aus allgemeinen Steuermitteln die staatliche Entscheidung und ihre finanzielle Folgen näher aneinander bindet.
Über die Autoren Patrick Xavier Prof. Dr. Patrick Xavier ist Direktor für Informations- und Kommunikationsstrategien sowie Professor für Kommunikationsökonomie am Centre for Communications Economics and Electronic Markets der Curtin University of Technology in Perth, Australien. Er berät nationale und internationale Organisationen, darunter die OECD, die Weltbank, Apec und die ITU. Dimitry Ypsilanti Dimitri Ypsilanti ist Leiter der Abteilung Telekommunikations- und Informationspolitik der OECD. Er studierte Wirtschaftswissenschaften an der Bristol University, Großbritannien, der Memorial University und der Queens University in Kanada. Seine Arbeit umfasst Aspekte rund um die Telekommunikationswirtschaft, einschließlich ökonomischen Analysen, Regulierungsfragen und Policy-Beratung – so z. B. in Zentraleuropa und den Transformationsstaaten Osteuropas. In jüngster Zeit setzt er sich vornehmlich mit Fragen der Konvergenz und der Next Generation Networks auseinander. Er ist Mitglied im Editorial-Board von „Telecommunications Policy“ und „Info“.
Wie geht es weiter nach DSL? Entwicklungsperspektiven der Versorgung mit Breitband-Internet
Franz Büllingen
Entwicklung der Internetnutzung in Deutschland In nur wenigen Bereichen der Nachfrage nach Dienstleistungen wurde bislang das Verhalten der Nutzer in so durchschlagender Weise von Technologieangeboten und deren Qualitätsmerkmalen geprägt wie im Telekommunikationssektor und hier speziell beim Internetzugang. In den 90er Jahren dominierte zunächst das Analog-Modem mit Geschwindigkeiten zwischen 9,6 und 56 kbit/s und heftete dem Internet das Image an, primär ein Medium einer kleinen, technikaffinen Gemeinde zu sein. Entsprechend langsam entwickelte sich in dieser Phase die Nachfrage nach Internetbasierten Diensten. Aus heutiger Sicht erscheint es kaum mehr vorstellbar, dass bereits damals bei den geringen Bandbreiten vergleichsweise hoch verdichtete Informations- und Suchportale wie etwa die von Lycos, Yahoo oder AOL bei den Kunden großen Zuspruch auslösten. Ende der 90er Jahre erfolgte dann der Quantensprung von der Schmalin die Breitbandigkeit: In mehreren deutschen Großstädten erfolgte erstmals die Vermarktung der Digital Subscriber Line (DSL) mit Bandbreiten von 768 kbit/s durch den Incumbent Deutsche Telekom. Da der Zugangsdienst zu Breitband-Internet für alle im Festnetzbereich aktiven Spieler die Möglichkeit bot, die durch sinkende Preise für Telefondienste schwindenden Margen zu kompensieren, wurde die Telekom durch regulatorische Schritte gezwungen, ihren Wettbewerbern entsprechende Vorleistungsprodukte in diesem neu entstehenden Marktsegment anzubieten. Seither sind die Nutzerzahlen – beinahe parallel mit dem Angebot wachsender Bandbreiten – jährlich im zweistelligen Prozentbereich gestiegen. Von den 82,3 Mio. Einwohnern verfügten 2008 rund 52 Mio. über einen
64
Franz Büllingen
Zugang zum Internet. Das entspricht einer Penetrationsrate von 64 Prozent. Bezogen auf die Zahl der Haushalte bedeutet das: von den rund 40 Mio. deutschen Haushalten verfügen bereits 23 Mio. (58 %) über einen Breitband-Internetanschluss. Im internationalen Vergleich ist diese Penetrationsrate trotz des noch geringen intermodalen Wettbewerbs zwischen Festnetz und Fernsehkabel beachtlich und Deutschland nimmt hier den sechsten Rang ein.1 Ende 2008 entfielen rund 20,7 Mio. Anschlüsse auf die DSL-Technologie (90 %), während 2,2 Mio. über das Breitbandkabel (9 %), 60 000 über Satellit und 10 000 Anschlüsse über Powerline geschaltet waren. Unterdessen schreitet der Zuwachs an Bandbreite bei nahezu allen Anschlusstechnologien fort. Wurden noch vor zwei Jahren von den meisten Internet Service Providern (ISP) zwei MBit/s als Standardprodukt vermarktet, so dürften die meisten Kunden heute bereits über einen Anschluss mit durchschnittlich sechs MBit/s verfügen. In vielen Regionen werden mit der Migration nach ADSL2+ bereits bis zu 18 MBit/s an Privatkunden vermarktet. Große Kabelnetzbetreiber wie z. B. unity media bieten ihren Kunden heute Anschlüsse mit bis zu 32 MBit/s an, und der Trend zeigt auf Grund des Technologievorsprungs des Koaxialkabels sowie der Umstellung auf DOCSIS 3.0 steil nach oben mit Bandbreiten von bis zu 200 MBit/s. Der Trend zu immer höheren Bandbreiten dürfte damit zumindest in den städtischen Zentren und den Ballungsräumen anhalten. 2006 wurde von der Deutschen Telekom der Einstieg in eine weitergehende Ausbaustrategie ihres Festnetzes in Aussicht gestellt. Danach will die Deutsche Telekom ihre Netze in über 50 Städten bis zum Jahr 2009 mit der VDSL-Technologie ausrüsten. Durch VDSL sollen Bandbreiten von bis zu 50 MBit/s pro Anschluss und entsprechend hochbitratige Dienste wie z. B. IPTV oder Video-on-Demand vermarktet werden. Einzelne City Carrier wie etwa Netcologne haben damit begonnen, 100 MBit/s im Privatkundengeschäft anzubieten. Im internationalen Vergleich ist in Ländern wie Japan oder Südkorea der Ausbau der Glasfaser bis zum Haus oder Gebäude (Fibre to the Home, Fibre to the Building, Fibre to the Curb etc.; FTTx) bereits weit vorangeschritten. Dort stehen vielen Privatkunden bereits heute Anschlussgeschwindigkeiten von bis zu 100 MBit/s zur Verfügung für Entgelte, deren Höhe unwesentlich über den Kosten für einen in Deutschland üblichen DSL-Anschluss liegt. Ein wichtiger Antriebsfaktor für diese sehr dynamische Entwicklung des Breitbandmarktes besteht, wie bereits angedeutet, zum einen in der durch 1
Vgl. www.internetworldstats.com/top20.htm.
Wie geht es weiter nach DSL?
65
die Regulierung herbeigeführten Bereitstellung von günstigen Vorleistungen. So musste die Deutsche Telekom ihren Wettbewerbern neben dem entbündelten Netzzugang (TAL), Resale und Line Sharing zuletzt auch ein Angebot für den Bitstream Access unterbreiten. Der 12. „Implementation Report“ der EU-Kommission macht deutlich, dass sich die Konditionen für die Wettbewerber, die auf der Grundlage der Vorleistungen der Deutschen Telekom in Deutschland Zugänge zu Breitband-Internet anbieten, in den letzten Jahren stark verbessert haben und somit deutliche ökonomische Anreize für das Angebot wettbewerblicher Produkte bestehen.2 Als zweiter wichtiger Treiber hat sich auf dem Markt für Internetzugangsdienste in Deutschland ein intensiver Wettbewerb der ISP herausgebildet. Der Anteil des ehemaligen Marktführers T-Online auf dem DSLMarkt betrug im 4. Quartal 2008 noch knappe 43 Prozent, während die Wettbewerber in den vergangenen Jahren deutlich Marktanteile hinzugewonnen und den Incumbent – bezogen auf den Gesamtmarktanteil – inzwischen überrundet haben (United Internet 13 %, Arcor 13 %, Hansenet 11 %, Freenet 5 %, Versatel 3 %, Netcologne 2 %). Bezieht man alternative Breitbandzugangstechnologien wie die auf dem Breitbandzugangsmarkt stark wachsenden Kabelnetze mit Quartalszugewinnen von bis zu 20 Prozent Neukunden in die Betrachtung mit ein, liegt der Marktanteil der Telekom sogar noch darunter. Ein dritter wesentlicher Faktor für die Marktpenetration von BreitbandInternet besteht in der Entwicklung der Preise, die sowohl für die Nachfrageentwicklung im Massenmarkt als auch für Unternehmen von besonderer Bedeutung sind. Niedrige Preise gelten als ein wesentlicher Motor für die schnelle Verbreitung und intensive Nutzung von Breitband-Internet. In Deutschland sind die Preise für Breitbandanschlüsse in den letzten Jahren deutlich gesunken. Allein von 2003 bis 2007 sind sie um mehr als 42 Prozent gefallen. Ein Internetzugang mit bis zu 16 MBit/s kostete 2008 weniger als ein 1-MBit/s-Anschluss vier Jahre zuvor. Breitbandanschlüsse sind heute oft schon für unter 20 Euro im Monat zu erhalten und werden in der Regel mit preisgünstigen Festnetz- bzw. Mobilfunktelefoniediensten im Bündel als Flatrate angeboten. Auch wenn Flatrateangebote bezogen auf die konkreten Kommunikationsprofile vieler Kunden häufig überdimensioniert sind, so ermöglichen sie die Kontrolle ihrer Kommunikationsbudgets, schaffen Sicherheit vor unliebsamen Überraschungen beim Inkasso der Rechnungen und treiben so die Nachfrage vor2
Vgl. Europäische Kommission (2007): 13th Report on the Implementation of the Telecommunications Regulatory, S. 108 f.
66
Franz Büllingen
an. Der Branchenverband VATM erwartet, dass auf Grund des durch die Kabelnetzbetreiber forcierten Wettbewerbs die Preise bei steigender Bandbreite auch künftig weiter fallen werden.3 Deutschland gehört damit zu den Ländern, die über die niedrigsten Anschlusskosten für Massenmarktprodukte in Europa verfügen.
Breitband-Internet als Standortfaktor Die enorme Verbreitungsgeschwindigkeit breitbandiger Internetanschlüsse hat wie kaum ein anderes Segment des Telekommunikationsmarktes in den letzten Jahren Wirtschaftsverbände, Parlamente sowie Regierungen auf den Plan gerufen. Im Zuge der Liberalisierung der Telekommunikationsmärkte und den damit verbundenen positiven gesamtwirtschaftlichen Effekten wurde Breitband-Internet sukzessive ein immer höherer Einfluss auf das (nationale) Wirtschaftswachstum und die Standortqualität zugemessen. Manche Institutionen wie etwa die OECD, die ITU oder die EU-Kommission und ihre Beratergremien gingen sogar soweit, die wirtschaftliche und soziale Bedeutung von Breitband-Internet auf eine höhere Stufe als die klassischen Infrastrukturen zu stellen.4 So heißt es beispielsweise in einem Bericht der eEurope Advisory Group von Juni 2004, dass „Breitband einen deutlich höheren Einfluss auf die Entwicklung ländlicher Gebiete haben (kann) als jegliche andere Infrastruktur (Telefon, Eisenbahn, Straßen)“5. Obwohl derartige Aussagen weitgehend spekulativ sind, so haben sie der flächendeckenden Versorgung der Bevölkerung mit Breitband-Internet als Politikum nach und nach den Weg in die Arena der bedeutendsten gesellschaftspolitischen Themen geebnet. Neben der Wahrung der Chancengleichheit und dem Ausgleich des Stadt-Land-Gefälles spielen in diesem Diskurs die wirtschaftlichen Effekte eine zentrale Rolle. Die meisten ökonomischen Studien sind auf Grund der breiten Streuung der gesamtwirtschaftlichen Effekte, der grundsätzlichen methodischen Probleme sowie der Zurechenbarkeit der direkten und indirekten Wohlfahrtswirkungen im Lauf der Jahre immer wieder zu eher vorsichtigen und meist zurückhalten3
4 5
Vgl. VATM (2007): Entwicklung der ADSL-Endkunden-Preise im Vergleich zur nachgefragten Bandbreite; http://www.vatm.de/content/studien/inhalt/1306-2007.pdf. Vgl. ITU (2003): Birth of Broadband – ITU Internet Reports, September 2003. eEurope Advisory Group (2004): Work Group 1, Digital Divide and Broadband Coverage, S. 4, Übersetzung durch den Autor.
Wie geht es weiter nach DSL?
67
den Schätzungsergebnissen6 gekommen. So heißt es z. B. zuletzt in einem von der Europäischen Kommission beauftragen Gutachten: „According to the model, process improvement, increased specialization in knowledgeintensive activities and broadband-based development of innovative markets resulted in a growth of the European Gross Value Added (GVA) of 82.4 bn Euros per year (+ 0,71 %) in 2006. The impact of broadband on national economies depends on the level of broadband development: in the most advanced European countries, broadband-related GVA growth reaches 0,89 %, whereas in the countries with less-developed broadband, this growth is limited to 0,47 %.“7 Gleichwohl gibt es triftige Annahmen dafür, dass derartige Zahlen mehr über die Grenzen der Erfassbarkeit der Marktvolumeneffekte, der Nutzeneffekte sowie der dynamischen Effekte und die mangelnde Aussagekraft der betrachteten Zeiträume aussagen als über die tatsächlichen wirtschaftlich erwartbaren Effekte.8 Langfristig betrachtet sind die gesamtwirtschaftlichen Produktivitätsschritte vermutlich beachtlich und dürften sich durch ihre Breitenwirkung in den nächsten Jahren immer deutlicher auch einzelund gesamtwirtschaftlich bemerkbar machen. Diese Effekte sind besonders gut an Wirtschaftszweigen wie z. B. der so genannten Kultur- und Kreativwirtschaft zu erkennen, deren Leistungspotenzial in besonderem Maße auf der Erstellung, Produktion und der Distribution von kreativen Gütern und Dienstleistungen beruht. Im Abschlussbericht der Enquete-Kommission des Deutschen Bundestages „Kultur in Deutschland“ wird deutlich, dass dieser Bereich mit einem sehr hohen Anteil an Selbständigen, über 1 Mio. Beschäftigten und einem Umsatz von über 120 Mrd. Euro in besonderer Weise vom Vorhandensein einer gut ausgebauten Breitbandinfrastruktur profitiert: Mit jedem breitbandig angeschlossen Haushalt wachsen die externen Effekte und es besteht die Möglichkeit, die Reichweite für die Verbreitung kulturwirtschaftlicher Inhalte 6
7
8
Vgl. Crandall, R. W. et al. (2003): The Effect of Deregulating Broadband on Investments, Jobs and the U. S. Economy, Criterion Working Paper; Fornefeld et al. (2008): The Impact on Broadband on Growth and Productivity, A study on behalf of the European Commission. Vgl. MICUS (2008): The Impact of Broadband on Growth and Productivity. A study on behalf of the European Commission (DG Information Society and Media), Short version – selected extracts from the full text, S. 6. Vgl. z. B. Institut für Siedlungs- und Wohnungswesen et al. (2008): Bedeutung der Infrastrukturen im internationalen Standortwettbewerb und ihre Lage in Deutschland, Münster, S. 17 f.
68
Franz Büllingen
bis in den letzten Haushalt hinein zu steigern. Das gilt einmal mehr in Hinblick auf den „self generated content“ im Web 2.0, der inzwischen nicht nur über die Hälfte des Internetverkehrs ausmacht, sondern beginnt, neue Geschäftsmodelle der etablierten Akteure anzustoßen. Der immer kostengünstigere Zugriff und die Nutzung von Informationen und Daten in privaten Haushalten, Wirtschaftsunternehmen und Verwaltungsorganisationen, die allmähliche Integration von Internetdiensten in viele Elemente der Wertschöpfung und der Prozessketten, die zunehmende Implementierung in Bildung und Ausbildung, in die Gesundheitswirtschaft, die Werbewirtschaft oder in die Beschaffung (E-Procurement) lassen vermuten, dass die meisten Effekte einer steigenden Produktivität aus heutiger Sicht eher noch am Anfang stehen, sich häufig in schwer messbaren Parametern wie z. B. Flexibilitäts- und Zeitgewinnen („time to market“) ausdrücken oder (noch) nicht vollständig erfasst werden können. Dabei wurde gerade erst damit begonnen, die vielfältigen Anwendungshürden etwa im Bereich E-Commerce durch die Implementierung von neuen Bezahldiensten, von IT-Sicherheit und Datenschutz oder elektronischen Signaturen in kleinen Schritten zu beseitigen und „Vertrauen“ als Basisressource für jedweden elektronischen Geschäftsprozess zu implementieren.9 Noch sind die meisten geschäftlichen und privaten Nutzer ein gutes Stück davon entfernt, auf diese Enabler-Funktionen wie selbstverständlich zuzugreifen. Die Empirie zeigt aber, dass Breitband-Internet über das Mehr an Convenience die meisten Anwender deutlich zur Mehrnutzung motiviert und die alltägliche Nutzung selbstverständlicher macht. Mehr Breitbandigkeit wird demnach die (zu) frühe Einführung von zahlreichen E-Business-Anwendungen neu beleben und durch Ausschöpfung von Effizienzvorteilen zu Produktivitätsverbesserungen führen. Schließlich steht mit der Integration des mobilen Internet, also der Mobilisierung der Wertschöpfungsaktivitäten und der Integration von mobilen Geschäftsanwendungen in die Prozesse von Unternehmen und Verwaltungsorganisationen, die nächste Innovationswelle bevor. Auf der Einführung dieser konvergenten, als „Mobile Business-Solutions“ bezeichneten Anwendungen ruhen seit einigen Jahren hohe Erwartungen von EndgeräteHerstellern, Netzbetreibern, Diensteanbietern sowie Systemintegratoren, und ihre Bedeutung reicht quer über alle Branchen. Mit der Aufrüstung der Netze durch EDGE, HSPA (und perspektivisch LTE), der Verfügbarkeit immer größerer Bandbreiten (auch in Gebäuden) sowie geeigneter Endge9
Vgl. Klumpp, D. / H. Kubicek / A. Rossnagel / W. Schulz (2008): Informationelles Vertrauen für die Informationsgesellschaft, Berlin, Heidelberg.
Wie geht es weiter nach DSL?
69
räte wurden in den letzten Jahren die Weichen für eine breite Marktdurchdringung gestellt.10 Derzeit dominieren meist noch einfache Anwendungen wie SMS, E-Mail oder Sprachtelefonie die mobile Geschäftskommunikation. Viele Hersteller und Dienstleister aber befinden sich bereits auf dem Weg zum Einsatz komplexerer Anwendungen und gleichen von unterwegs mit Hilfe von Mobile Office Termine ab, greifen auf Unternehmensdaten zu oder erfassen neue Aufträge beim Kunden durch mobile Clients. Damit zeichnen sich erste mobile Lösungen ab, die eine Optimierung von Geschäftsprozessen über die gesamte Wertschöpfungskette hinweg erlauben. Prozessinnovationen durch „Mobile Business-Solutions“ kommt demnach eine Art Schlüsselfunktion zu, mit denen sich die Kundenbeziehung verbessern, die Zufriedenheit der „Mobile Worker“ erhöhen als auch die Flexibilität und der Einsatz der Außendienstler optimieren lassen. Experten erwarten, dass derartige Dienste einen erheblichen Beitrag zur Verbesserung der Effizienz, zur Verbesserung der Servicequalität und zur Kommunikation mit dem Kunden leisten.11
Wenn aus „weißen Flecken“ „graue Flecken“ werden Für den Begriff Breitbandigkeit gibt es weder im nationalen noch internationalen Rahmen eine einheitliche Festlegung oder Konvention, bei welcher Downstream-Bitrate Breitbandigkeit genau beginnt. Die mit den Investitionen in bestehende Netzinfrastrukturen meist einhergehende Steigerung der Übertragungsgeschwindigkeit verdeutlicht, dass eine Definition von Breitbandigkeit zum einen den dynamischen Einflüssen der technischen Entwicklung folgt. Diese Dynamik verläuft – meist in Abhängigkeit von der allgemeinen wirtschaftlichen und technologischen Leistungsfähigkeit der Netzinfrastrukturen sowie der vermarkteten Dienste – in den meisten Ländern sehr unterschiedlich. Zum anderen kann der Ausbaustand der Infrastruktur in einzelnen Ländern, Regionen oder selbst in Ortschaften sehr heterogen sein. So reicht das Spektrum möglicher Downstream-Bitraten innerhalb der OECDStaaten im Massenmarkt von 56 kbit/s in den ländlichen Regionen bis hin 10 11
Vgl. z. B. www.simobit.de. Büllingen, F. (2006): Mobile Enterprise-Solutions – Stand und Perspektiven mobiler Kommunikationslösungen in kleinen und mittleren Unternehmen, Bad Honnef.
70
Franz Büllingen
zu 100 MBit/s etwa in Japans urbanen Zentren. Auch in Deutschland gibt es auf Grund der heterogenen Situation in den Ortsnetzen noch rund 15 Prozent unterversorgter Gemeinden, in denen bestimmte Haushalte beim Zugang zum Internet z. B. auf ISDN (64/128 kbit/s) oder auf DSL-Light (386 kbit/s) angewiesen sind, während nur wenige Straßenzüge weiter auf Grund kürzerer Leitungslängen zum Hauptverteiler eine Bandbreite von zwei MBit/s oder mehr zur Verfügung steht. Angesichts der unterschiedlichen infrastrukturellen und versorgungstechnischen Voraussetzungen sieht daher die Bundesnetzagentur (BNetzA), aber auch z. B. die britische Regulierungsbehörde OFCOM, die durch Kanalbündelung erzielbare doppelte ISDN-Geschwindigkeit von 128 kbit/s und mehr als Grenze an, oberhalb derer von Breitbandigkeit gesprochen werden kann.12 Diese Definition von Breitbandigkeit wurde auch dem Breitbandatlas des Bundesministeriums für Wirtschaft und Technologie (BMWi) zu Grunde gelegt: Der 2005 veröffentlichte Breitbandatlas und das Breitband-Portal des BMWi bezeichnen in Abstimmung mit den ITKBranchenverbänden eine Download-Übertragungsrate von mehr als 128 kbit/s als breitbandig. Bereiche oder Regionen, deren Versorgungsqualität darunter liegt, werden seither als „weiße Flecken“ bezeichnet. Seit der Veröffentlichung des Breitbandatlas sowie weiterer InternetAtlanten etwa der Bundesländer Berlin oder Brandenburg hat sich unter dem Druck der Öffentlichkeit die flächendeckende Versorgung insbesondere der ländlichen Regionen sukzessive fortentwickelt. Durch zahlreiche Maßnahmen der Anbieter, aber auch durch Fördermaßnahmen der Gemeinden, der Länder und des Bundes hat sich – gemäß der oben erläuterten Breitband-Definition – die Zahl der 2005 noch unversorgten Haushalte von ca. acht Prozent auf heute etwa zwei bis drei Prozent verringert. Da die Erschließung der restlichen zwei bis drei Prozent an die Grenzen eines wirtschaftlich vertretbaren Ausbaus stößt, hat der Ruf nach öffentlichen Beihilfen zur Unstützung von Investitionen oder zu Abfederung von Risiken zunehmend auch Gehör bei den politischen Institutionen gefunden. So werden Maßnahmen von Bundesregierung und Bundesländern etwa im 12
Mit 144 kbit/s setzt die EU Kommission ihre Definition von Breitbandigkeit nur geringfügig höher an. Die amerikanische Regulierungsbehörde FCC sieht Breitbandigkeit bei einer Übertragungsgeschwindigkeit von 200 kbit/s und mehr als gegeben an, während die OECD oberhalb von 256 kbit/s von Breitbandigkeit ausgeht. Die Internationale Fernmeldeorganisation ITU (ITU-T I.113) schließlich spricht erst bei Bitraten von mehr als 1,5 bzw. zwei MBit/s von Breitbandigkeit.
Wie geht es weiter nach DSL?
71
Rahmen der GAK-Förderung13 mittelfristig dazu führen, dass die „weißen Flecken“ von der Breitbandlandkarte fast vollständig verschwinden und damit das Menetekel der „Digitalen Spaltung“ definitorisch von der politischen Agenda getilgt wird. Würde jedoch die Definition von Breitbandigkeit bei (heute selten vermarkteten) zwei MBit/s angesiedelt, dann würden nur 70 Prozent der deutschen Haushalte einen Breitband-Internetanschluss erhalten können. Das (absehbare) Verschwinden der „weißen Flecken“ hat in der Konsequenz zu dem bei vielen Breitbandveranstaltungen verwendeten Argument geführt, dass auch Bandbreiten im unteren Bereich (z. B. 128 KBit/s) im Prinzip ausreichen, um alle wichtigen Anwendungen wie VoIP, E-Mails, Informationssuche, zeitunempfindliche Downloads etc. zu realisieren, und dass deshalb auch die bestehende Definition für Breitband-Internet ausreiche, um die politisch gewollte Mindestversorgung bzw. Basisversorgung auch in den ländlichen Regionen herzustellen. Das (allmähliche) kollektive Aufatmen in vielen Länderparlamenten und Gemeinden über das absehbare Verschwinden der „weißen Flecken“ darf jedoch nicht darüber hinwegtäuschen, dass mit jedem KBit/s an Bandbreitenzugewinn sich zugleich auch drei entscheidende Parameter des Breitbandmarktes und der Nachfrage verändern: Zum ersten folgt die digitale Ausgestaltung der Webinhalte, der Homepages und des gesamten distribuierten Contents den angebotenen Bandbreiten im Anschlussbereich, indem etwa Bilder mit immer höherer Auflösung oder Audio- und Videoclips in bestehende Portale integriert werden. Kommunikationsdienste wie Instant Messenger Service, File Sharing, E-Mails (einschließlich Spam) und auch die Abwehrmaßnahmen gegen Missbrauch (etwa durch tägliche Updates von Filter- und Virensoftware) stellen immer höhere Anforderungen an die Übertragungskapazität.14 Gleichzeitig werden ganze Bibliotheken digitalisiert und zum Download ins Netz gestellt, neue Geschäftsmodelle kreiert wie z. B. IPTV in HDTVQualität oder Service as a Software (SAS). Neue Dienste wie YouTube bieten das Web-Hosting von Datenfiles für Privatkunden umsonst oder zu sehr geringen Kosten an, so dass es nur eine Frage der Zeit scheint, bis das 13
14
Fördermaßnahme im Rahmen der Gemeinschaftsaufgabe Verbesserung der Agrarstruktur und des Küstenschutzes (GAK) von Breitbandmaßnahmen mit agrarstrukturellem Bezug durch die Bundesregierung. Bundesanteil (60 %) mit einem Volumen von zehn Mio. Euro pro Jahr ab 2008. Z. B. stellt DE-CIX beim dem von ihr betriebenen Internet Exchange-Übergabepunkt eine Verfünffachung des Verkehrsvolumens von 2006 bis 2008 fest.
72
Franz Büllingen
Outsourcing der Datenvorhaltung den Massenmarkt erreicht. Besonders hohe Bandbreitenanforderungen stellen künftige Anwendungen wie beispielsweise der Einkaufsbummel in virtuellen Einkaufszentren, der bereits in Japan und Hongkong zu besichtigen ist. Experten gehen davon aus, dass diese Art von Anwendungen, die auf virtuellen Realitäten basieren, eine Bandbreite von bis zu 100 MBit/s in Echtzeit benötigen, um Kunden eine möglichst hohe Erlebnisqualität zu vermitteln. Zum zweiten lösen sich die traditionellen Grenzen zwischen Arbeit und Freizeit, zwischen Büro- und Heimarbeit, zwischen Schule/Unterricht und Selbststudium, zwischen stationärer Patientenbehandlung und ambulanter Beratung immer mehr auf und als mediatives Bindeglied treten unterschiedliche Formen einer Web-basierten Vermittlung dazwischen. Das gilt besonders für die vielen kleinen und mittlere Unternehmen und die SmallOffice/Home-Office-Betriebe, die als Kulturschaffende und Freiberufler häufig versuchen, die Standortnachteile ländlicher Regionen mit modernen Kommunikationslösungen zu kompensieren. Noch haben sich die meisten Formen Web-basierter Unterrichtseinheiten, elektronischer Mandantenberatung, der Übermittlung von Steuerformularen oder die Nutzung von Meldevorgängen nicht vollständig den Weg in den Massenmarkt geebnet. In einigen Jahren jedoch werden viele Anwendungen zum Repertoire sozial verbindlicher Nutzungsstandards gehören und das Anspruchsniveau der Versorgungsqualität mit Breitband-Internet auf ein neues Niveau treiben. Zum dritten spricht die Beobachtung des Kundenverhaltens dafür, dass selbst stark erhöhte Übertragungsgeschwindigkeiten nicht dauerhaft als Fortschritt empfunden werden. Der mit zunehmender Bandbreite zunächst empirisch feststellbare Zuwachs an Bequemlichkeit wird im Zeitablauf rasch durch Gewöhnungseffekte aufgezehrt durch ein sich rasch veränderndes Kommunikationsprofil. Kunden mit höheren Downloadraten beginnen oft schon nach wenigen Wochen, neue datenintensive Dienste wie z. B. Web-Hosting, Fotoentwicklung und -abzüge, Audio- oder Video-onDemand, Podcasts etc. in ihren Kommunikationsalltag zu integrieren. Das konkrete Kundenverhalten führt demnach dazu, dass der Zuwachs von Bandbreite schon nach kurzer Zeit zur habitualisierten Selbstverständlichkeit „degeneriert“ und den Wunsch nach weiterer Steigerung auslöst. Es ist daher nicht überraschend, dass mit steigender Übertragungsgeschwindigkeit zugleich die Bequemlichkeit und die Nutzungsintensität des Internet überproportional zunehmen. Der Wunsch nach Bequemlichkeit kann daher – neben den sinkenden Preisen – als einer der wesentlichen Treiber des Marktes für breitbandige Anschlüsse angesehen werden.
Wie geht es weiter nach DSL?
73
Während in den Städten und urbanen Regionen derartigen Entwicklungen und Anwendungsszenarien angesichts der dort schon heute vermarkteten Bandbreiten von bis zu 100 MBit/s mit einer gewissen Gelassenheit entgegengesehen werden kann, werden die ländlichen Regionen, in denen die Einführung von „DSL-light“ noch bis zum Ende dieses Jahrzehnts als großer Erfolg bewertet werden wird, erneut schon bald erneut das Nachsehen haben: Die Schere in der Breitbandversorgung zwischen städtischen und ländlichen Regionen öffnet sich bei stark gestiegenem Anspruchsniveau und der Abstand wird im Prinzip sogar größer als zuvor.15 Aus den „weißen Flecken“ werden mithin „graue Flecken“ werden, die im Prinzip die gleichen Regionen betreffen und die mit Blick auf das Stadt-LandGefälle in ihren siedlungsstrukturellen und demografischen Auswirkungen kaum zu unterschätzen sind.16 Es ist daher absehbar, dass selbst nach der Schließung der Versorgungslücken das Problem der Unterversorgung der ländlichen Räume, aber auch mancher städtischer Regionen, künftig – auf höherem Niveau – fortbestehen wird. Viele der heute verfolgten Lösungen stellen in der Perspektive der oben skizzierten Anwendungsszenarien kaum mehr als Interimslösungen dar, die sich aus heutiger Sicht zwar pragmatisch an den Erfordernissen vieler Nutzer orientieren und kurzfristig einen wichtigen Versorgungsbeitrag insbesondere in der Fläche leisten. Schon mittelfristig aber wird durch den ständig steigenden Bandbreitenbedarf – insbesondere auch in Upstream-Richtung – aus der Sicht der meisten Kunden das bestehende Versorgungsniveau als unzureichend empfunden werden.
Was kommt nach DSL? Die Entwicklungen im Breitbandmarkt verdeutlichen, dass nachfrageseitig schon bald der Druck auf die politischen Institutionen wieder steigen wird, im Rahmen einer neuen, die Werte stark zu erhöhenden Definition von „Breitbandigkeit“ das Thema des partiellen „Versagens der Marktkräfte“ 15
16
Vgl. Büllingen, F. / P. Stamm (2008): Breitband für jedermann – Infrastruktur für einen innovativen Standort. Gutachten im Auftrag des Ministerium für Wirtschaft, Verkehr, Landwirtschaft und Weinbau Rheinland-Pfalz, S. XI. Vgl. z. B. die Warnung des Deutschen Städte- und Gemeindebundes: „DStGB warnt vor Landflucht aufgrund mangelnder Telekom-Infrastruktur“, mit dem Hinweis, dass mehr als die Hälfte der 3,5 Mio. deutschen Unternehmen ihren Standort auf dem Land haben; www.portel.de vom 5.11.2008.
74
Franz Büllingen
und der Versorgungsqualität erneut auf die Agenda zu setzen. Der bisher eher defensiv und ordnungspolitisch motivierte Ansatz, durch ein zu frühes politisches Eingreifen in den Markt falsche Anreize zu setzen und Investitionen durch private Initiative zu verhindern, hat in gewisser Weise zur Entstehung der heutigen Situation beigetragen, in der DSL zum alleinigen Maßstab der Versorgung mit breitbandiger Infrastruktur geworden ist. In der sich bereits am Horizont abzeichnenden Post-DSL-Phase muss es darum gehen, möglichst rasch und möglichst flächendeckend den Umstieg auf die Next Generation Access Networks (NGAN) zu bewerkstelligen und dadurch neuen Geschäftsmodellen eine Perspektive zu geben.17 Weitgehend unbemerkt von der breiten Öffentlichkeit zeichnet sich im Markt für Breitband-Dienste ein Wettlauf ab zwischen innovativen Regiound City-Carriern sowie Stadtwerken auf der einen und dem Incumbent und weiteren etablierten Carriern auf der anderen Seite. Auch wenn dieser Wettlauf derzeit noch punktuellen Charakter besitzt, so wird deutlich, dass es hierbei nicht mehr nur um die graduelle Verbesserung der bestehenden Infrastruktur (Erschließung der Hauptverteiler bzw. der Kabelverzweiger mit Glasfaser) und um die marktüblichen Bitraten, sondern um den direkten Anschluss von Gebäuden und Haushalten durch Glaserfaser mit Bandbreiten von bis zu zehn GBit/s geht.18 Ausgehend von den als zu hoch empfundenen 10,50 Euro für die TALMonatsmiete haben eine Reihe von City-Carriern damit begonnen, eine eigene Infrastruktur auf der Basis von Glasfaser direkt in die Haushalte ihrer Kunden zu verlegen. Die Konkretisierung von FttH-basierten Geschäftsmodellen etwa der Stadt Schwerte („Ruhrpower“), der Hansenet in Norddeutschland oder der MNet in München belegen, dass Glasfaser mittlerweile eine wettbewerbsfähige Anschlusstechnik darstellt, die Anbietern wirtschaftliche und nachhaltige Geschäftsmodelle ermöglicht, Kunden hingegen eine durch nichts limitierte Kommunikationsinfrastruktur für ein denkbar breites Spektrum an Anwendungen und Diensten zur Verfügung stellt. Basierend auf diesen Erfahrungswerten zeigt sich, dass ein Anschluss 17
18
Vgl. Lehmann, A. / U. Trick / S. Oehler (2008): NGN und Mehrwertdienste – Geschäftsmodelle und Szenarien, in: ntz Heft 1/2008, S. 22-25, sowie Dies. (2007): NGN und Mehrwertdienste – Herausforderung und Chancen, in: ntz Heft 6/2007, S. 22-25. Bei dieser Migration spielen Kupferleitungen allenfalls als KupferkoaxialHybrid-Netze künftig noch eine Rolle. Auch werden Funknetze auf der Basis von Long Term Evolution (LTE) mit Bitraten von bis zu 50 MBit/s im nächsten Jahrzehnt die dominierende Rolle spielen.
Wie geht es weiter nach DSL?
75
durchschnittlich mit rund 1 500 Euro an Investitionskosten zu Buche schlägt. Darauf basierende Modellrechnungen ergeben, dass ein flächendeckender bundesweiter Ausbau mit Glasfaser bzw. LTE rund 60 Mrd. Euro erfordern würde.19 Die letzten Jahre der Breitbanddiskussion haben gelehrt, dass die meisten „weißen Flecken“: ņ in erster Linie mangels verfügbarem Wissen über die wirtschaftliche und soziale Bedeutung des Breitband-Internet, ņ in zweiter Linie mangels verfügbarer Informationen über die technischen Alternativen und vorhandenen Infrastrukturen, ņ in dritter Linie mangels notwendiger übergreifender Initiativen und Kooperationen und ņ erst in vierter Linie mangels finanzieller Mittel nicht erschlossen wurden. Mit diesem Erfahrungswissen im Hintergrund dürfte der nächste Schritt in Richtung eines flächendeckenden NGN bereits eine der wichtigsten Hürden genommen haben. Es fehlt bislang an einem hinreichenden öffentlichen Bewusstsein dafür, dass an der Glasfaser bzw. LTE kein Weg vorbei führt. Viele Entscheidungsträger insbesondere auf den nachgeordneten politischen Ebenen sind derzeit noch geprägt von den (zermürbenden) Diskussions- und Bargaining-Prozessen bei den Kreisen und Gemeinden. Deshalb gibt es bislang auch noch kein flächendeckendes politisches Bewusstsein und ein entsprechendes Momentum, um den Umbau der Netzinfrastruktur so schnell und so konsequent wie möglich zu verwirklichen.20 Angesichts der erforderlichen Summen ergibt sich zwangsläufig, dass ein derartiger Umbau nicht alleine vom Incumbent, dem die meisten der Ortsanschlussnetze noch gehören, finanziert werden kann. Das gilt besonders vor dem Hintergrund, dass enge regulatorische Rahmenbedingungen für das marktbeherrschende Unternehmen, die Diskussion um den Zugang zu VDSL und sinkende Margen im Breitbandmarkt es wenig attraktiv erscheinen lassen, derartig umfangreiche Mittel in den Ausbau einer neuen 19
20
Vgl. ITG-Tagung (2008): Der Breitbandanschluss an die Zukunft erfolgt per Glasfaser, Berlin. Nach Auffassung des Autors bewegen sich diese Schätzungen jedoch am unteren Rand, da die Kosten für Grabungsarbeiten auf dem Land nicht hinreichend hoch veranschlagt worden sind. Vgl. Stanossek, G. (2008): Breitband mit 10 Gbit/s ist machbar – in ganz Deutschland! In: TKNews 41/08, 6.10.2008.
76
Franz Büllingen
Infrastruktur fließen zu lassen. Da die Telekom jedoch durch die Investitionsaktivitäten der Regio- und Citycarrier gezwungen wird, den Generationenwechsel zwischen ihren Netzen so schnell wie möglich zu vollziehen, dürfte zunehmend die Bereitschaft bestehen, zu neuen Kooperationsformen mit den Wettbewerbern, aber auch mit den politischen Instanzen auf der Ebene der Kommunen, der Länder, des Bundes und der Europäischen Kommission zu einer gemeinsamen Migrationsstrategie zu finden. Zahlreiche Initiativen aus dem In- und dem Ausland zeigen außerdem, dass Bürgerinitiativen eine viel zu stark vernachlässigte Größe sind und ermutigt werden sollten, in diesem Zusammenspiel und beim konkreten Ausbau mitzuwirken. Hat die Wirtschaftspolitik in der DSL-Ära eine eher informierende und moderierende Rolle eingenommen, so kann eine künftige NGA-Welt angesichts der Reichweite der Umgestaltung auf eine aktiv gestaltete Public Private Partnership (PPP) durch den Staat kaum verzichten. Natürlich besteht – wie bei DSL – die Option, dass Investoren nach wirtschaftlichen Kriterien darüber entscheiden, in welchen Regionen bestimmte Angebotsqualitäten realisiert werden. In einem solchen Fall wird die Glasfaser irgendwann einmal auch in den abgelegenen Gemeinden ankommen. Das Gefälle in der Versorgungsqualität wird dann jedoch – ähnlich wie in den letzten Jahren – vor Ort zu Friktionen führen und die Standortqualität nachhaltig beeinträchtigen. Es wird vor diesem Hintergrund deutlich, dass die koordinatorischen und gestalterischen Herausforderungen zu groß sind, als dass auf eine gezielte normative und proaktive Rahmensetzung, kommunikative Intervention und mediatorische Bündelung aller relevanten Aktivitäten durch die Bundesregierung im Rahmen eines nationalen Masterplans verzichtet werden könnte. Ein erster wichtiger Schritt hierbei sollte in der Neudefinition von Breitbandigkeit bestehen: ein flächendeckendes Hochgeschwindigkeits-Internet mit beispielsweise 50 MBit/s sollte als politische Zielgröße vorgegeben werden, um die derzeitige Aufbruchstimmung bei der Verbesserung der Infrastruktur zu nutzen. Weitere wichtige Schritte sollten in der Schaffung von Awareness hinsichtlich der wirtschaftlichen und sozialen Bedeutung von Hochgeschwindigkeits-Internet, der Beseitigung von Informationsdefiziten, der Erstellung von Glasfaser- und Lehrrohrkatastern oder Schaffung von Investitionsanreizen im Rahmen von PPP bestehen. Nicht zuletzt sollten regulatorische Hindernisse beseitigt werden. Das gilt z. B. für die Konzeptualisierung von Geschäftsmodellen beim Aufbau von Netzstrukturen durch gemeinsame Aktivitäten oder durch neutrale
Wie geht es weiter nach DSL?
77
Dritte wie z. B. Stadtwerke.21 In diesem Fall könnte ein Open AccessModell den organisatorischen Rahmen für die Umsetzung sogar wettbewerblicher Geschäftsmodelle bilden. Dem Eigentümer eines Netzes käme die Rolle eines neutralen Betreibers zu, der die vorhandene Infrastruktur gegen Entgelt zu transparenten, nicht-diskriminierenden Bedingungen jedem interessierten Akteur zur Verfügung stellen würde. Es sollte im Rahmen des Masterplans jedoch festgeschrieben werden, dass (zunächst) nicht der Wettbewerb, sondern die Versorgungsabsicht das zentrale Motiv aller Aktivitäten sein sollte.
Über den Autor Dr. Franz Büllingen war nach einem Studium der Soziologie und Volkswirtschaftslehre in Bielefeld und Berlin als Projektleiter tätig bei der Enquete-Kommission „Technikfolgenabschätzung“ beim Deutschen Bundestag sowie bei der Deutschen Forschungsanstalt für Luft- und Raumfahrt (DLR). Seit 1994 ist er Leiter der Abteilung „Kommunikation und Innovation“ der WIK GmbH. Er führte eine Vielzahl von Forschungs- und Beratungsprojekten für Telekommunikationsunternehmen, Behörden und Institutionen. Seine Arbeitsschwerpunkte liegen in der Analyse und Prognose von Marktentwicklungen und -strukturen, in der Regulierungs- und Wettbewerbspolitik, der Nachfrage von TK-Diensten, in der Innovations- und Diffusionsforschung sowie der Risikokommunikationsforschung.
21
Vgl. hierzu WestLB Equity Research (2008): Breitband – Tot oder lebendig? Sektortrends, Düsseldorf, 24. April 2008, S. 26 ff.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
Kai Seim
Entscheidungsdilemma Ländlicher Raum? In Deutschland existiert derzeit ein geteilter Markt der BreitbandInfrastruktur: Während in den Städten und Metro-Regionen ein Infrastruktur-Wettbewerb und entsprechende Marktwirtschaft herrscht, fehlt im Ländlichen Raum jeder Wettbewerb. Im internationalen Vergleich zeichnet sich ab, dass die deutsche Netzinfrastruktur vor allem im Anschlussbereich an Boden verliert, geografischen wie technisch: Während – geografisch – in den großen und mittleren Städten über zahlreiche Hauptverteiler und Kabelverzweiger auch mittels Kupfertechnologie immerhin bis zu 16 MBit/s angeboten werden, sind im Ländlichen Raum schon zwei MBit/s eine Seltenheit. Zugleich ist weitgehend unstrittig, dass ein glasfaserbasierter Zugang in das Haus mit Bandbreiten bis zu einem GBit/s künftigen technologischen Ansprüchen gerecht wird – was weder von Funktechnologien noch vom so genannten KVZ-Überbau1 auf Kupferbasis behauptet werden kann. Nun kennzeichnet sich der Teilmarkt „Ländlicher Raum“ mehr als die umkämpften Märkte der Großstädte dadurch, dass sich die Politik in jüngster Zeit interessiert zeigt, die Erschließung (auch) durch alternative Anbieter und Technologien voranzutreiben: „Die Versorgung mit Breitbandanschlüssen ist längst zum unverzichtbaren Faktor geworden, an dem sich sogar Standort- und Investitionsentscheidungen orientieren. Es ist keine Frage, die Breitbandversorgung gehört zur Grundausstattung wie Wasser,
1
KVZ-Überbau meint den Aufbau aktiver (DSL-)Technik „über“ die alten Kabelverzweiger, die vorher mittels Glasfaser erschlossen wurden.
80
Kai Seim
Strom und Wärme.“2 Zentrales Anliegen des Bundes und seiner Länder ist eine (möglichst) flächendeckende Breitbandversorgung. Neben der Stärkung des Wirtschaftsstandortes wird diese Versorgung auch unter dem Gesichtspunkt der Chancengleichheit angemahnt: „Das im Grundgesetz verankerte Ziel der Schaffung gleichwertiger Lebensbedingungen in Stadt und Land erfordert, nicht nur die Ballungsräume, sondern auch den Ländlichen Raum mit einer leistungsfähigen Kommunikationsinfrastruktur zu vertretbaren Bedingungen zu versorgen.“3 Allerdings kann der Staat auf keiner seiner Ebenen einen flächendeckenden Ausbau voll finanzieren; er stellt jedoch Fördermittel bereit (allein, nach „alter“ Planung, für Baden-Württemberg fast 20 Mio. € für 2008 und 2009), u. a. um innovative Technologien zu fördern und Wirtschaftlichkeitslücken zu schließen. Viele Bundesländer verfolgen ähnliche Initiativen, wobei ein erhebliches Kompetenzgefälle (wissens- sowie umsetzungsbezogen) auf lokaler Ebene zu beobachten ist. Ein erfolgreicher Markteintritt muss diese Situation berücksichtigen – auch unter strategischen Gesichtspunkten. Das unspezifische Förderziel von 50 MBit/s bis 2018, das im Koalitionspapier für das zweite Konjunkturpaket beschrieben wird, reicht nicht aus – und es fehlt (wie fast immer) die Umsetzungsplanung, um den Begriff „Strategie“ nicht überzustrapazieren. Der folgende Beitrag analysiert das Szenario „Glasfaservollausbau im Ländlichen Raum“. Insbesondere soll der scheinbare Widerspruch zwischen politischen Forderungen und Systemeingriffen auf der einen und den marktwirtschaftlichen Forderungen und Strukturen auf der anderen Seite diskutiert werden. Im Kern geht es um die Frage, ob ein Ausbau der (Breitband-)Infrastruktur im Ländlichen Raum politischen und/oder marktwirtschaftlichen Regeln folgt. Zwei Thesen werden dabei näher betrachtet4: Erstens die Annahme, dass die Kapitalverzinsung entgegen andersgearteten Vermutungen doch attraktiv genug ist, um Kapital zu akquirieren. 2
3
4
Andreas Krautscheid, Minister für Bundesangelegenheiten, Europa und Medien in NRW, anläßlich der Tagung Breitbandversorgung in NRW – Standortqualität für ländliche Regionen, Düsseldorf, 12. Juni 2008. Peter Hauk, Minister für Ernährung und ländlichen Raum, Baden-Württemberg, Kongress „Standortfaktor Breitband“, 12. November 2007. Die Thesen beruhen auf den Erfahrungen des Autors beim Aufbau eines „Dorfcarriers“, der „UnserNetz“, sowie einer Vielzahl von Beratungsmandaten für Kommunen und Gebietskörperschaften im Ländlichen Raum. „UnserNetz“ realisiert profitable Glasfaserinfrastrukturen („Fiber to the Home“) in Ländlichen Räumen.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
81
Zweitens: die Infrastruktur stabilisiert das gesellschaftliche Gesamtsystem; würde sie fehlen, wäre ein Gleichgewicht zwischen Stadt und Land nicht mehr gegeben – die Politik muss also handeln. Beide Thesen schließen sich nicht aus, sondern bedingen bzw. stützen einander.
Geteilter TK-Markt Stadt-Land-Gefälle Der deutsche Telekommunikationsmarkt weist ein Gesamtvolumen von 67,5 Mrd. € auf, wobei die Wachstumsraten in den einzelnen Produktmärkten variieren. Die Umsätze bei traditionellen PSTN-Diensten (der analogen Telefonie) schrumpfen; hingegen weisen internetbasierte breitbandige Anwendungen zweistellige Wachstumsraten auf. Die Analyse der Technologien und der Abdeckungsgrade zeigt jedoch die oft beklagte Heterogenität der verfügbaren Bandbreiten im Sinne eines „Stadt-Land-Gefälles“. Während in Metropolen und Großstädten durch die starke Wettbewerbsintensität eine sehr gute Versorgung mit hohen Bandbreiten gewährleistet ist, bleibt doch etwa ein Viertel der deutschen Haushalte „unterversorgt“: Fast sechs Millionen Bürger (etwa 3 bis 3,5 Mio. Haushalte) sind gänzlich ohne Zugang zu Breitband. Weitere drei bis vier Millionen Haushalte erhalten nur Angebote mit niedriger Bandbreite, beispielsweise DSL basic5 oder light bis hin zu 1000er DSL. Tabelle 1. Stadt-Land-Gliederung Deutschlands und Marktpotential6 Fläche km2
Einwohner
Pro km2
Fläche %
Einwohner %
32 212,20
40 270 497
1 250
9,02
48,81
Kleinstadt
132 537,59
29 537 164
223
37,12
35,80
Land
192 295,85
12 693 188
66
53,86
15,39
Summe
357 045,64
82 500 849
231
100,00
100,00
Deutschland Stadt
5
6
DSL Basic oder Light bezeichnet einen Anschluss, der eine Download-Bandbreite von 384 KBit/s bietet und einen Upload von ca. 60 KBit/s; 1000er DSL bezeichnet umgangssprachlich einen DSL-Anschluss mit einem MBit/s Download- und ca. 100 KBit/s Upload-Vermögen. Destatis 2006.
82
Kai Seim
Es ist inzwischen „Common Sense“, dass sich der Bandbreitenbedarf der neuen Internet-Dienste massiv erhöhen wird, so dass für die nächste Generation dieser Dienste eine neue Infrastruktur notwendig wird. Bereits heute steigt der Bedarf bereits um etwa ein Drittel jährlich. Etablierte Techniken (DSL, Koax sowie Funk) decken ihn schon mittelfristig nicht ab.7 Mittlerweile wird es in den Ortsnetzen immer schwieriger, neue DSL-Anschlüsse zu schalten. Spätestens 2010 wird in vielen Netzen die Kapazitätsgrenze erreicht. Damit sind übrigens entsprechende Investitionen nur zu rechtfertigen, wenn von einem kurzen Zeithorizont der Nachhaltigkeit und Verzinsung des Kapitals ausgegangen werden kann. Etablierte Anbieter: Fokus auf Städte Im Gegensatz zu den Städten wird der Ländliche Raum heute und in den nächsten Jahren durch etablierte Telekommunikationsanbieter nur unzureichend mit Breitbanddiensten versorgt, ein Infrastrukturwettbewerb fehlt. Daran ändern auch die Verlautbarungen der Netzbetreiber wenig. Die Investitionspläne der Deutschen Telekom AG und die ihrer Wettbewerber sind auf die TOP 1 und 2 Standorte ausgerichtet. Standorte der 3. bis 5. Ordnung sind für diese Unternehmen (bisher) uninteressant.8 Die Potenziale im Ländlichen Raum werden also gegenwärtig nicht ausgeschöpft, wobei prinzipiell die kupferbasierten Netze der Telekom präsent sind, andere Wettbewerber nur vereinzelt und mit begrenztem Leistungsspektrum. Anbieter konzentrieren technische Innovationen ausschließlich bzw. vorrangig auf die Großstädte. Die Investitionspläne von Telekom und Arcor als bundesweit agierende Unternehmen sind auf die Top-50 Städte ausgerichtet. Hansenet (Alice) beschränkt sich hinsichtlich einer eigenen Netzinfrastruktur auf Hamburg und Lübeck (einschl. Randbezirke). QSC, das wie Arcor bundesweit in Infrastruktur investiert, will mit dem Ausbau von etwa 2 000 Hauptverteilern (von ca. 7 200 in Deutschland) 70 Prozent der deutschen Bevölkerung erschließen – allesamt Stadtbevölkerung. Die Kabelnetzbetreiber beschränken sich auf ihre jeweiligen Netze und konzentrieren sich mangels Kapitalausstattung auf große und mittelgroße 7
8
Vgl. die Studie der West LB „Breitband – tot oder lebendig? Was nach DSL kommt“ aus April 2008 oder auch den ePerformance Report 2008 des Bundesministeriums für Wirtschaft und Technologie. Top 1: Metropolen wie z. B. Berlin, Hamburg, München; Top 2: sonstige Landeshauptstädte und Großstädte, Top 3: Städte mit 50 bis 100 000 Einwohnern, Top 4: 25 bis 50 000 Einwohner, Top 5 < 25 000.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
83
Städte. Telefonica (hierzulande O2) hatte massive technische Probleme und orientiert sich an den Top-40-Prozent der Hauptverteiler.9 Die meisten Wettbewerber (außer NetCologne, M-Net und EWE – alle für Stadtgebiete) setzen dabei (immer noch) auf DSL statt Glasfaser.10 Damit sind viele Dienste für Geschäftskunden technisch nicht realisierbar – ein wichtiges Marktsegment bleibt kaum adressierbar. Und schlussendlich: niemand hat bisher konkrete Pläne veröffentlicht, Breitband flächendeckend im Ländlichen Raum anzubieten, im gleichen Atemzug werden aber für einen eventuellen Ausbau staatliche (und auch stattliche) Subventionen gefordert.
Kosten und Nutzen – Ist es wirklich so teuer? Ländlicher Raum: Erhebliches Umsatzpotential liegt brach In den Diskussionen über den flächendeckenden Ausbau der deutschen Breitband-Infrastruktur wird regelmäßig argumentiert, die Kosten würden den Rahmen sprengen. „Eigentlich“ sei „Glasfaser für Alle“ das richtige Ziel – „aber das könne man sich nicht leisten“. Ist das so? Die aktuelle Situation des Marktes charakterisiert sich zwar durch immensen Preiswettbewerb zwischen weitgehend gleichförmigen und technisch betrachtet relativ „schmalen“ Produkten. Trotzdem sprechen wir beim Festnetzmarkt (mit Breitband als Teilsegment) über ein Marktvolumen von 35 Mrd. € (2008).11 Das Investitionsvolumen betrug im selben Jahr 6,5 Mrd. € bei insgesamt 23,9 Mio. Breitbandanschlüssen, überwiegend DSL (21,9 Mio.). Davon wiederum hatten 3,7 Mio. eine Bandbreite unter zwei MBit/s (etwa 16,9 %). Der Markt ist also groß und umfasst doch nicht ganz Deutschland – er ist ausbaufähig. Hier eröffnet ein Angebot auf Glasfaserbasis die Chance, höhere Preise12 (für ein besseres Produkt) 9
10
11 12
In unserer täglichen Arbeit stoßen wir in der Regel nur auf die DTAG, in Ausnahmefällen auch auf einen meist lokalen Anbieter, z. B. EWE, Kabel BW. Darunter verstehen wir auch das VDSL-Netz der DTAG. Die letzte Meile verbleibt bei diesem Architekturansatz als Kupfer-Doppelader (KuDA), mit den entsprechenden Bandbreitenbegrenzungen und asymmetrischen Bandbreiten für Up- und Download. Zehnte gemeinsame Marktanalyse 2008, VATM, Dialog Consult. Aktuelle Untersuchungen der Yankee Group zeigen für FttH-Netze einen um 30 Prozent höheren ARPU (= Average Revenue Per User; durchschnittlicher Monatsumsatz pro Kunde).
84
Kai Seim
zu erzielen, und damit die Gelegenheit, einem zum Teil ruinösen Wettbewerb auszuweichen.13 Grundlage der folgenden Überlegungen zum möglichen Umsatzvolumen sind folgende Annahmen: 25 Prozent der Haushalte in Deutschland entsprechen 8,25 Mio. Haushalten. Ausgehend von einem monatlichen Durchschnittsumsatz von 50 € für die Breitbandverbindung je Haushalt (was einer Preisprämie von ca. 15 % auf das heutige Preisniveau entspricht), ergäbe sich ein mögliches Gesamtvolumen von ca. 4,95 Mrd. € im Jahr. Dabei ist das Umsatzpotential mit Geschäftskunden noch nicht enthalten. Insgesamt dürfte man dann von einem Umsatzpotential von ca. sechs Mrd. € ausgehen. Das entspricht etwa 17 Prozent des heutigen Gesamtumfangs des Festnetzes in Deutschland – konservativ geschätzt. Erfolgreiche Glasfaser-Infrastrukturen müssen also einen direkten Wettbewerb (Aufbau einer parallelen Infrastruktur) nicht fürchten, besonders wenn die Netze gegen angemessene Vergütung jedem Wettbewerber geöffnet werden – und wenn nur zu dem Zweck, rechtlichen Auseinandersetzungen aus dem Weg zu gehen. Investitionen als KO für Profitabilität? Eine Gesamterhebung der derzeit in Deutschland laufenden FttH-Projekte14 schätzt den Kapitalbedarf für die Erschließung von 8,25 Mio. Haushalten auf zehn bis 14 Mrd. €, wobei von einem durchschnittlichen Kapitalbedarf je Haushalt in Höhe von 1 700 € ausgegangen wird. Das entspricht Kosten zur Erschließung der einzelnen Gebäude in Höhe von ca. 2 500 €. Diese Annahmen zu Investitionskosten liegen – bei den Haushalten – bis zu 100 Prozent über den Durchschnittswerten für Gesamtdeutschland und ca. 20 Prozent über den Durchschnittswerten für Kosten zur Gebäudeerschließung. Damit könnte eine EBITDA-Marge zwischen 40 und 45 Prozent bei einer 50-prozentigen Marktpenetration erzielt werden. Die EBIT-Marge liegt bei diesen Annahmen zwischen 30 und 37 Prozent.15 Aktuell erwirtschaften deutsche Festnetzbetreiber EBITDA-Margen zwischen 34,2 (DTAG) und 10,4 Prozent (QSC) bzw. EBIT-Margen zwischen 13
14 15
Das ist m. E. mit ein Grund dafür (neben der viel zu teuren TAL), dass Stadtnetzbetreiber wie NetCologne, MNet, Stadtwerke Schwerte, WilhelmTel, HeliNet etc. in eigene Glasfaser-Infrastruktur investieren. Fibre in Germany – Market Survey, Seim & Partner, März 2009. Diese Werte beziehen sich immer auf das dritte und vierte Betriebsjahr, in der Anlaufphase liegen sie weit niedriger.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
85
14,3 (DTAG) und –3,2 Prozent (QSC).16 Damit wäre eine interne Verzinsung des Eigenkapitals in Höhe von etwa zehn Prozent realistisch – bei konservativer Berechnung der Fremdkapitalkosten.17 Höhere Verzinsungen sind gegebenenfalls möglich, wenn für unwirtschaftliche Teilnetze Fördermittel einkalkuliert werden können. Kalkulationen für Teilnetze zeigen teilweise zwar stark abweichende Werte. Doch darf man nie außer Acht lassen: Netzinfrastruktur lebt von der Quersubventionierung (Stadt Æ Land, Geschäftskunde Æ Privatkunde) und den bekannten Skaleneffekten. Daher führt die Betrachtung (maximal) kleiner Teilnetze oft zur falschen Annahme einer fehlenden Rentabilität. Sobald man aber den Horizont leicht erweitert, sieht die Rechnung schon anders aus. Und hinsichtlich der Vermarktung darf man einen Aspekt nicht unterschätzen: die Kunden bemerken die gezielte Auswahl „lohnender Ziele“ – und goutieren sie nicht durchweg. Warum also die zögerliche Haltung der etablierten Netzbetreiber bei der Breitband-Erschließung des Ländlichen Raums? Möglicherweise liegt ein wichtiger Grund dafür in der Struktur ihrer Bilanzen. QSC ist eben erst dabei, sich nach einer langen Durststrecke zu konsolidieren. Man wird sehen, ob das tatsächlich gelingt. Telefonica ist immer noch mit der Integration der alten, kleinen Festnetzsparte mit der vergleichsweise großen O2 beschäftigt. Versatel – als „geborener“ Dritter und im Besitz wichtiger Wegerechte und Faserinfrastruktur in Städten – hat eine so stark gehebelte Bilanz, dass ein profitabler Weiterverkauf für die Anteilseigner von größerem Interesse sein dürfte. Anders bei der Deutsche Telekom: sie ist so sehr mit sich, den Abwehrkämpfen nach innen wie außen beschäftigt, dass gezielte Aktivitäten in Richtung Glasfaser-Ausbau nicht realistisch erscheinen. Und doch beginnen erste Städte mit Ausbauprojekten: Oldenburg, Norderstedt, Hamm, Schwerte, Köln, München. Aber auch hier sind die Investitionen immer verknüpft mit konservativen Rechnungen einerseits und stärkeren Synergieeffekten mit den (lokalen) Versorgerunternehmen (EWE, Stadtwerke in Hamm und Schwerte, Köln, München etc.). Im Ländlichen Raum hingegen ist man sehr zurückhaltend – vor allem sind es die Banken. Rein eigenkapitalfinanzierte Projekte im Telekommunikationsmarkt sind unbekannt – unabhängig von der eingesetzten Technik. Für die Fremdkapitalseite ist das Problem: es gibt keinen Markt für Netze – damit 16
17
Alle Angaben basieren auf den veröffentlichen Jahresabschlüssen des Geschäftsjahres 2007 bzw. internen Kalkulationen. Basis ist ein Modellannahme, die u. a. elf Prozent durchschnittliche Verzinsung (Eigen- und Fremdkapital gemischt) und zwei Prozent Zins für die ewige Rente unterstellt, berechnet auf zehn Jahre.
86
Kai Seim
ist eine mögliche Verwertbarkeit im Falle des Scheiterns nicht gesichert. Das ist Hauptursache für die aktuelle Kreditklemme, es sei denn, die öffentliche Hand bürgt.
Handlungsoptionen der Politik Grenzen des Subsidiaritätsprinzips? Seit einigen Jahren sind von Ländern aufgestellte Breitbandinitiativen (Baden-Württemberg, Bayern, Rheinland-Pfalz, Niedersachsen, Schleswig-Holstein, Brandenburg) zu beobachten, daneben auch kommunal oder privat initiierte Aktivitäten. Neben dem Betrieb des Breitbandatlasses überlegt das BMWi den Aufbau eines Breitband-Kompetenzzentrums des Bundes, dessen Aufgaben und Kompetenzen derzeit noch definiert werden. Neben dem Förderprogramm im Rahmen der GAK18 des BMLV existieren Förderprogramme auf Länder-, Bundes- und EU-Ebene. Sie sind jedoch oft der allgemeinen Wirtschaftsförderung zuzuordnen, als der Förderung von Infrastruktur zur Telekommunikation. Durch diese Aktivitäten kommt zwar Dynamik in den Breitbandausbau, doch bleiben die bisherigen Studien und Expertenäußerungen auf einer theoretischen Ebene verhaftet – und in der Umsetzung werden die dort wenig diskutierten Details wichtig. Entsprechende Schwachstellen werden im Folgenden skizziert, Handlungsoptionen beschrieben. Kapitalausstattung und Bürgschaften Infrastruktur kann – zum Teil – im Ländlichen Raum nicht wirtschaftlich bereitgestellt werden. Oft fehlen entsprechende (insbesondere von der EU notifizierte) Fördermittel. Privatwirtschaftliche Institute, Banken, stellen aufgrund (noch) fehlender Geschäftsmodelle ohne Garantieerklärung keine Kredite zur Verfügung. Und doch gibt es Technologien und Finanzierungsmodelle, die einen Ausbau in ländlichen Regionen wirtschaftlich ermöglichen.19 Eine Lösung wäre z. B. die Schaffung eines Rechtsrahmens für die Bereitstellung von Fördermitteln durch den Bund, etwa durch die KfW oder 18 19
Gemeinschaftsaufgabe Agrar- und Küstenschutz. Siehe z. B. die Websites www.unsernetz.de sowie www.unsernetz.blogspot.com, die Details näher beschreiben.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
87
einen ähnlichen Wirkmechanismus (notifiziertes Förderprogramm) – bei einer Beschränkung der Förderung auf prinzipiell (also operativ) positive Geschäftspläne und hier wiederum auf den Investitionsanteil. Ein weiteres Lösungselement wäre die Gewährung von Bürgschaften anstelle von Krediten etwa durch die Bürgschaftsbanken der Länder, um die Unternehmen in die Lage zu versetzen, das nötige Fremdkapital für die Investitionen zu bekommen. Umsetzbar wäre das z. B. durch Auflegen eines speziellen Förderprogramms durch die EU (allgemein gibt es das bereits). Kurzfristig muss eine Evaluation der Förderstrategie auf Bundesebene und Erarbeitung detaillierter Vergabekriterien für die Fördermittel bzw. Bürgschaften zur bestmöglichen Nutzung der Mittel erfolgen. Dabei müssen noch einige Fragen geklärt werden, z. B.: Sollen die Mittel nur an Bedarfsträger Kommune/Landkreis vergeben werden oder auch an Unternehmen, die die Infrastruktur aufbauen oder betreiben? Standardisierung Durch den dezentralen Ansatz („unbalancierter Föderalismus“) zum Breitbandausbau und speziell zur Förderung entwickeln sich unterschiedliche technologische Standards. Statt eines durchgängig geplanten „Networks“ entsteht ein „Patchwork“. Das führt zu Problemen im späteren Betrieb der Netze: Es mangelt an Effizienz und Interoperabilität, was den Zugang erschwert bzw. aufwändiger macht. Analoges gilt für die Netzzusammenschaltung zwischen Betreibern. Endgeräte sind gegebenenfalls nicht in allen Netzen einsetzbar, der Netzabschluss beim Nutzer erfolgt unterschiedlich. Zugleich fehlen bei den beteiligten Akteuren (Unternehmen wie öffentliche Hand) Ressourcen für die Entwicklung und Durchsetzung von Standards in Deutschland und auf europäischer Ebene. Die Festlegung und Durchsetzung internationaler Standards dürfte hier weiter helfen. Dazu bedarf es Mittel zur professionellen Definition dieser Standards und ihrer Implementierung. Der Bund könnte die bereits laufender Standardisierungsbemühungen im Rahmen des VDE20 unterstützen – ca.-Volumen 500 000 €. Kurzfristig sollten zudem Arbeitsgruppen auf europäischer Ebene zur Definition der internationalen Standards koordiniert werden. Denkbare wäre zudem ein mit einem entsprechenden Finanzrahmen ausgestattetes Verbundprojekt (Unternehmen, Öffentliche Hand vertreten durch BNetzA, BMWi, BMBF). 20
Der Autor bezieht sich dabei insbesondere auf die laufenden Arbeiten zu den Normen EN 50510 und EN50173.
88
Kai Seim
Koordinierung grundlegender Technikthemen Der gegenwärtige Ausbau der Infrastruktur berücksichtigt übergreifende Aspekte nicht ausreichend und folgt allein den betriebswirtschaftlichen Zwängen des jeweiligen Netzbetreibers. Das betrifft etwa die Anzahl der Netzebenen, die Netztopologie (z. B. Ringstrukturen auf der letzten Netzebene zur Realisierung von Redundanzkonzepten) und Notfallfunktionen. Anders als bei Kupferkabel ist bei Glasfaser keine Stromversorgung gewährleistet, so dass bei Stromausfall kein Notruf möglich ist. Als Lösung bieten sich auch hier Standards an: ein Katalog von Mindestanforderungen (generell oder bei Vergabe von Fördermitteln). Sie sollten in einem moderierten Prozess kurzfristig erarbeitet werden. Effektivität und Effizienz des Ausbaus sichern Mit einer zentralen Koordinationsstelle könnte der Breitbandausbau effizienter und auch effektiver gestaltet werden. Durch die dezentrale Planung der verschiedenen Wettbewerber werden die Investitionen nicht immer zukunftsfest vorgenommen, da kurzfristige Zwischenlösungen das Geld für den langfristigen Ausbau verschlingen. Hilfreich wäre eine zentrale Koordinationsstelle. Dazu ließe sich auch der Geschäftsauftrag des Kompetenzzentrums Breitband erweitern bzw. den der Bundesnetzagentur. Alternativ wäre die Schaffung eines rechtlichen Rahmens für den koordinierten Netzausbau (Stichwort: „angemeldetes Netz-Kartell“). Kurzfristig müsste eine Konzeption des Aufgaben- und Kompetenzgebiets einer entsprechenden Koordinationsstelle erarbeitet werden, um sie anschließend einzurichten. Eine der ersten Aufgaben wäre die Beurteilung der Machbarkeit einzelner Technologien einschließlich einer Kosten-Nutzen-Analyse. Lernen und Dialog Die laufenden Aktivitäten zum Breitbandausbau, insbesondere auf Länderaber auch auf EU-Ebene (Niederlande, Frankreich, Skandinavien), sind nicht durch ein Dialog- oder Diskussionsforum miteinander verbunden. Die Bundesländer haben recht unterschiedliche Ansätze gewählt (Förderung der Beratung der Kommunen vs. Förderung des konkreten Ausbaus für Gebietskörperschaften). Die Erfahrung zeigt, dass einige Ansätze anderen überlegen sind. Auch in Österreich gibt es eine Breitband-Initiative, deren Erfahrungen genutzt werden könnten. Es gibt allerdings aktuell kein Forum, in dem diese Kenntnisse ausgetauscht werden (können). Es sollte
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
89
kurzfristig ins Leben gerufen werden. Kurzfristig sollten bereits bekannte „Lessons Learned“ erfasst und kommuniziert werden, und zwar über die vorhandenen Beispiele im Breitbandatlas hinaus.
Grundidee des Dorfcarriers Dorfcarrier als Lösungsbeitrag der Wirtschaft Wie kann nun die Wirtschaft ihren Beitrag leisten? Zunächst muss ein Perspektivenwechsel vorgenommen werden: Der Ländliche Raum ist kein uninteressanter Markt – das Gegenteil ist der Fall. Der strategischer Ansatz ist, in einem vermeintlich saturierten, wettbewerbsintensiven Markt vernachlässigte, gleichwohl lukrative Teilsegmente zu identifizieren und als Erster profitabel zu erschließen (vgl. die Erfolge von Wal Mart oder Enterprise Rent a Car). Wo andere nur ein Problem sehen, besteht die Chance im deutschen Telekommunikationsmarkt, den Ländlichen Raum mit Leistungen als Kunden zu gewinnen. Dieser Markt ist ein stark vernachlässigtes Segment mit insgesamt über acht Millionen Haushalten, die mit den Leistungen/Bandbreiten der etablierten Anbieter unzufrieden sind und nach Alternativen suchen. Relevante Verhandlungspartner für die Markterschließung sind Gebietskörperschaften, sprich die Gemeindeverwaltungen und Landkreise mit den politischen Entscheidungsträgern, die den breitbandigen Infrastrukturausbau als politischen Auftrag angenommen haben, der von EU, Bund und Ländern massiv eingefordert wird. Marktakteure können das Dilemma des fehlenden Wettbewerbs im Ländlichen Raum prinzipiell selber lösen. Die Politik ist nur gefordert, den Wettbewerb durch geeignete Hilfestellungen zu ermöglichen – und das rechtlich abgesichert und in einem transparenten und offenen Verfahren21. Für die Umsetzung benötigt man gegenüber den Gemeinden einen Generalunternehmer zur Realisierung einer individuell geplanten, technologisch offenen Glasfaser-Infrastruktur: von der Planung und Projektierung (Linientechnik sowie Netzequipment) über Bau, Betrieb, Vertrieb bis zur Finanzierung (einschl. des Einwerbens von Fördermitteln) muss alles aus einer Hand kommen. Reinen Beratungsunternehmen und Dienstleistern fehlt die Kompetenz eines Netzbetreibers; TK-Unternehmen sind in der 21
Also auch keine einseitige Bevorzugung von Großunternehmen wie z. B. DTAG oder Vodafone.
90
Kai Seim
Regel an eine Technologie gefesselt und lassen ergebnisoffene Beratungskompetenz vermissen. Adäquate Profitabilität wird durch zusätzliche marktbedingte und strukturelle Kostenvorteile gesichert. Im Ländlichen Raum erlauben die netzbezogenen Kostenfunktionen keine parallele profitable Glasfaserinfrastruktur, es entsteht eine regionale Monopolsituation mit der Möglichkeit entsprechender Profite. Die vorgeschlagene Unternehmensstruktur (Obergesellschaft als Betreiber-Gesellschaft und lokale Netzbesitz-Gesellschaften) ermöglicht Kostendegression durch Zentralisierung der dafür geeigneten Aufgaben. Die Einbindung der Gemeinden in die lokale Finanzierung ermöglicht niedrigere Fremdkapitalzinsen und Risikoprämien. Lokale Vermarktungs- und Vertriebsansätze (Mund-zu-Mund-Propaganda) erfordern geringere Kundengewinnungs- und -bindungskosten Unternehmensstruktur Die Unternehmensstruktur eines Dorfcarriers muss auf mehrere Gesichtspunkte Rücksicht nehmen. Sie braucht die Akzeptanz durch private Kapitalgeber und sie muss lokale Interessen und Interessenten (z. B. von Gewerbetreibenden oder Privatleuten, die in ihrer Gemeinde sicherstellen wollen, dass die neue Infrastruktur entsteht) einfach integrieren können. Und letztlich braucht sie die Akzeptanz durch staatliche Aufsichtsbehörden, etwa Regulierer (BNetzA), Kommunalaufsicht, Rechnungshöfe, Vergabestellen – also die Anschlussfähigkeit an Organisationsmodelle für öffentliche Aufgaben. Vor diesem Hintergrund wird eine Struktur aus einer Muttergesellschaft und jeweils lokalen Gesellschaften für das Netzeigentum vorgeschlagen. Die Obergesellschaft ist Anteilseigner der lokalen Gesellschaften, die ihrerseits individuell eigentumsrechtlich strukturiert sind. Die lokalen Gesellschaften erlauben es der lokalen Politik, entsprechend der jeweiligen Bedürfnisse Einfluss auf das Unternehmen auszuüben. Diese Struktur bringt einige Vorteile, insbesondere Kostensynergien durch Zentralisierung, bei gleichzeitiger Wahrung des „Lokalkolorits“. Sie erlaubt eine skalierbare Kostendegression durch sukzessive Bündelung lokaler Aufgaben – und dadurch wiederum eine Verbesserung der Profitabilität auf lokaler Ebene und in der Obergesellschaft. Auch besteht die Chance, strategische und Finanz-Investoren in der Obergesellschaft aufzunehmen. Und ganz banal können Themen wie eine zentrale IT (SAP – Zentrale + Mandanten, Reporting, Bereitstellungs- und Betriebsprozesse etc.), das Management der lokalen Beteiligungen, bessere Einkaufsbedingungen
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
91
durch erhöhte Marktmacht umgesetzt werden. Zugleich werden die lokale Flexibilität und Spezifika der Gemeinden bewahrt.
Fazit Es ist mittlerweile allgemeiner Konsens – und wird durch viele Studien bestätigt –, dass der Ausbau der Breitbandinfrastruktur einer der Schlüssel zur zukünftigen Wettbewerbsfähigkeit der Volkswirtschaft ist und deshalb massiv vorangetrieben werden muss. Insbesondere der Ländliche Raum, in dem etwa 15 Prozent der Bevölkerung leben, gilt als dramatisch unterversorgt, wobei er meist fünf km vom nächsten Hauptverteiler entfernt beginnt und somit auch – was gelegentlich übersehen wird – Stadtbezirke umfasst. Die Bundesregierung hat den Breitbandausbau zu einem der wichtigsten Ziele der Wirtschaftsförderung erklärt. Letztendlich geht es bei Investitionen in dieser Art immer darum, dass sich das Gesellschaftssystem entscheidet, durch diese Investitionen das Gesamtsystem zu stabilisieren. Immerhin besteht die Gefahr, dass Deutschland als Wirtschaftsstandort den Anschluss verliert.
Über den Autor Kai Seim, geb. 1962, Diplom Informatiker (TU Berlin); Gründer und Geschäftsführer der Seim & Giger Beratungsgesellschaft mbH; Schwerpunkte Netzplanung, Netzarchitektur und IT für Breitbandnetze. Langjährige Beratungstätigkeit in der IT- und TK-Branche, u. a. Leiter Engeneering der Geschäftskunden-Plattformen der DTAG. Er publiziert regelmäßig zu Breitband- und Glasfaserthemen und leitet zwei VDE-Arbeitsgruppen.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
Herbert Kubicek
Ehrgeizige Ziele bei schlechter Datenlage Im Februar 2009 hat die Bundesregierung ihre Breitbandstrategie verabschiedet, in der sie sich nach eigener Einschätzung zwei ehrgeizige Ziele setzt: Bis Ende 2009 sollen die Lücken in der Breitbandversorgung geschlossen und flächendeckend leistungsfähige Breitbandanschlüsse verfügbar sein. Bis 2014 sollen bereits für 75 Prozent der Haushalte Anschlüsse mit Übertragungsraten von mindestens 50 Megabit pro Sekunde zur Verfügung stehen.1 Die dazu entwickelte Vier-Säulen-Strategie betrifft (1) die Nutzung von Synergien beim Infrastrukturausbau, (2) eine unterstützende Frequenzpolitik, (3) eine wachstums- und innovationsfreundliche Regulierung, (4) erforderliche finanzielle Fördermaßnahmen. Insgesamt werden 15 Maßnahmen angekündigt. Die ersten drei betreffen die Nutzung von Synergien beim Infrastrukturausbau und beinhalten den Aufbau eines Infrastrukturatlasses und einer Baustellendatenbank, damit Unternehmen ergänzend zu vorhandenen informationspolitischen Maßnahmen – wie dem Breitbandatlas des BMWi – eine netzübergreifende Datengrundlage erhalten, um ihre Ausbauprozesse zu optimieren.2 Solche Informationen über die Inputseite der Breitbandversorgung sind ohne Zweifel zielfördernd. Sie sind allerdings nur eine notwendige, keine hinreichende Voraussetzung für Ausbauentscheidungen. Dasselbe gilt für die in Aussicht gestellten Fördermittel und Zuschüsse. Entscheidend ist letztlich der festgestellte Bedarf bzw. die erwartete Nachfrage. Eine Strategie, 1
2
Bundesregierung (2009): Breitband-Strategie der Bundesregierung. Kräfte binden für Deutschlands Zukunft: Wege zu einem schnellen Internetzugang bis in jedes Haus, Berlin, 27. Februar 2009, S. 3. Ebd. S. 6.
94
Herbert Kubicek
die die Marktkräfte aktivieren soll, muss sich auch der Verbesserung der entsprechenden Datenlage widmen. Hier weist das insgesamt umfassend angelegte Strategiepapier Lücken auf, die die Umsetzung beeinträchtigen könnten. So ist an verschiedenen Stellen von „weißen Flecken“ und Versorgungslücken die Rede. Unklar bleibt, wie sie identifiziert werden sollen und können und welche Informationen über diese Gebiete für Ausbauentscheidungen relevant sind. Derzeit weiß niemand, um wie viele unterversorgte Haushalte es geht. Der Breitbandatlas des BMWi nennt zum 1. Januar 2008 eine Zahl von zwei Mio. Haushalten ohne DSL-Zugangsmöglichkeit und von 730 000 Haushalten ohne jeden Breitbandzugang. Die Initiative Kein-DSL behauptet, je nach Lesart sei für bis zu fünf oder sechs Mio. Menschen kein DSLoder anderer Breitbandzugang verfügbar. Zu einem ähnlichen Ergebnis kommt auch der Deutsche Städte- und Gemeindebund.3 Es ist erstaunlich, dass die Frage nach der Messung der Versorgung und der Nutzung in Deutschland nicht stärker thematisiert wird. Denn ohne vollständige und valide Daten über die Versorgungslücken können Unternehmen die mit einer Versorgung verbundenen Kosten nicht schätzen, staatliche Stellen Zuschüsse nicht bedarfsgerecht vergeben und Politik und Öffentlichkeit den Fortschritt der Zielerreichung nicht verfolgen. Der seit 2004 vom Bundesministerium für Wirtschaft und Technologie (BMWi) im Internet veröffentlichte Breitbandatlas4 soll die konkrete Verfügbarkeit angeben, kann das aber aus vielerlei Gründen nur näherungsweise. Einzelne Bundesländer haben eigene Datenbanken und Online-Karten ins Netz gestellt. „Kein-DSL“ bietet einen Schmalbandatlas an, in den interessierte Verbraucher ihren unmittelbaren Bedarf unter Angabe ihres Standortes eintragen und für potenzielle Anbieter sichtbar machen können. Diese Daten erlauben jedoch keine Bestimmung eines Versorgungsgrades. Versorgung oder Verfügbarkeit sind auch nur notwendige, keine hinreichende Bedingungen für den Erwerb eines Anschlusses und seine Nutzung. Wenn die volkswirtschaftliche Bedeutung von breitbandigen Internetzugängen betont wird, dann ist die Verfügbarkeit auf lokaler Ebene zwar als Standortfaktor für die Ansiedlung von Unternehmen relevant. Wirtschaftliches Wachstum entsteht jedoch vor allem aus Umsätzen mit Dienstleistungen und Produkten bei der Nutzung dieser Zugänge. Bei einer Verfügbarkeit von 92 bis 98 Prozent und einer Anschlussrate von ca. 30 bis 60 Prozent Ende 2008, je nachdem welche Bandbreite als „breit“ definiert 3 4
DSTGB / VATM (2008): Breitbandversorgung von Kommunen, 2. Aufl. http://zukunft-breitband.de/BBA/Navigation/breitbandatlas.html.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
95
wird, verdient neben der Versorgungslücke die Nachfrage- und Nutzungslücke mindestens die gleiche Beachtung. Die Europäische Kommission hat im September 2008 einen Broadband Performance Index veröffentlicht, der mehrere Aspekte integriert, weil die bisher im Zentrum der Ländervergleiche stehenden Anschlusszahlen keine Schlussfolgerungen für Verbesserungen zulassen. In den Index gehen Daten zur Versorgung ländlicher Gebiete, zu Geschwindigkeiten und Preisen, zum Wettbewerb auf dem Anbietermarkt, zu Nutzungsschwerpunkten und zum sozioökonomischen Kontext ein. Der erste Bericht zeigt, dass diese gute Absicht noch auf eine Reihe großer Schwierigkeiten stößt, die die Aussagekraft dieser Daten bisher erheblich beeinträchtigen. Alle diese Datenaufbereitungen basieren auf freiwilligen Angaben und sind sehr lückenhaft. Weitgehend vollständig sind nur die von der Bundesnetzagentur auf gesetzlicher Basis erhobenen Daten zu den Anschlusszahlen auf nationaler Ebene. Für die Erhebung kleinräumigerer Daten gibt es derzeit keine gesetzliche Ermächtigung. Auf freiwilliger Basis wird es mit zunehmender Granulierung immer schwerer, aussagekräftige Daten zu beschaffen, da der mit der Generierung oder Aufbereitung verbundene Aufwand und/oder wettbewerbsstrategische Bedenken der Anbieter mindestens proportional zunehmen. In den USA wurde 2008 mit dem Broadband Data Improvement Act eine detailliertere Berichtspflicht gesetzlich verankert. Dort hatte schon zuvor die Public-Private-Partnership „Connected Nation“ für einige Bundesstaaten eine deutliche Verbesserung der Datenlage auf freiwilliger Basis bewirkt, indem die Zahlen der Anbieter um sozio-ökonomische Daten ergänzt wieder zurückgegeben werden und so ein Mehrwert für Markterschließungsanalysen geschaffen wird. Vor diesem Hintergrund sollen im Folgenden zunächst die unterschiedlichen Fragestellungen an eine handlungsrelevante Breitbandberichterstattung und die erforderlichen Daten systematisiert, die Anforderungen an eine verlässliche Datenbasis formuliert und die Defizite des derzeitigen Breitbandatlasses aufgezeigt werden. Danach wird anhand des Broadband Performance Index der EU-Kommission und des Ansatzes von „Connected Nations“ in den USA die Notwendigkeit einer inhaltlichen Erweiterung der Datenbasis verdeutlicht. Da das Hauptproblem die aus der freiwilligen Meldung resultierende Unvollständigkeit der Daten ist, wird anschließend am Broadband Data Improvement Act in den USA gezeigt, wie eine solche inhaltliche Erweiterung der Berichtspflichten gesetzlich gestaltet werden kann. Auf dieser Basis werden dann Empfehlungen für die zukünftigen Informationsgrundlagen im Rahmen der Breitbandstrategie unterbreitet.
96
Herbert Kubicek
Anforderungen an eine verlässliche und handlungsrelevante Datenlage Ein Atlas enthält mehrere Karten für einen geographischen Raum, auf denen die Verteilung unterschiedlicher Sachverhalte in verschiedenen Maßstäben dargestellt werden (z. B. Höhen der Landschaft, geologische Gegebenheiten, Verkehrswege, Klima usf.), sich aber alle auf dieselben Geokoordinaten beziehen.
Abb. 1. Elemente einer umfassenden Breitband-Berichterstattung
In Abbildung 1 wird der Gesamtkomplex der Breitbandberichterstattung skizziert. Von der EU-Kommission über die Bundesregierung und Landesregierungen bis zur Bundesnetzagentur als Regulierungsbehörde sowie Industrie- und Kommunalverbänden besteht ein Bedarf an Daten, der durch Erhebungen bei Anbietern und Nutzern mehr oder weniger befriedigt wird. Gegenstand der Erhebungen sind die Anbieter selbst, die von ihnen angebotenen Zugangstechniken und deren Preise sowie Angaben zu Nutzern (= Anschlüsse), versorgten Haushalten (Verfügbarkeit) und nicht versorgten Haushalten bzw. Orten. Die versorgten Haushalte sollen mit Hilfe eines Breitbandatlasses Anbieter und Angebote auswählen und in nicht versorgten Gebieten ihren Bedarf anmelden können. Für Ausbauentscheidungen der Anbieter sind die technische Infrastruktur einschließlich Leerrohre und Kabel anderer Eigentümer sowie soziodemographische und sozioökonomische Daten relevant,
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
97
die das Nachfrage- und Nutzungspotenzial charakterisieren. Bürgermeister, Landräte, politische Gremien von Gebietskörperschaften wollen wissen, wie gut die Versorgung in ihrem Bereich ist, um ihn als Standort attraktiv darzustellen bzw. bei Versorgungslücken Förderanträge zu stellen. Ob diese unterschiedlichen Sachverhalte letztlich in einem einzigen Atlas von einer Stelle zusammengefasst und präsentiert werden sollen, ist schwer zu entscheiden. Wenn unterschiedliche Stellen damit befasst werden, sollte auf jeden Fall die Konsistenz zwischen den verschiedenen Aspekten gesichert werden; Doppelerhebungen sollten vermieden werden, um den Aufwand insbesondere der Anbieter nicht unnötig zu erhöhen. Alle ausgewiesenen Daten sollen relevant, vollständig, aktuell und richtig sein. Wie gut das gelingt, hängt stark von der Aggregationsebene und den Handlungszielen ab. Wenn bestehende geographische Versorgungslücken geschlossen werden sollen, sind kleinräumige Bezugseinheiten (Straße/Hausnummer und/oder Gauß-Krüger-Koordinaten) am besten geeignet. Ersatzweise kann bei der DSL-Versorgung ein Versorgungsradius um einen Hauptverteiler oder Outdor-DSLAM gezogen und der davon nicht abgedeckte Bereich bestimmt werden. Wenn die Verfügbarkeit anderer Techniken berücksichtigt wird, stößt man auf das Problem, dass Mobilfunkanbieter die geographische Abdeckung anders angeben als Kabelnetzbetreiber. Werden sozioökonomische Daten aus der amtlichen Statistik hinzugezogen, sind deren Analyseeinheiten zu berücksichtigen. Man benötigt also Bezugseinheiten, auf die die vorhandenen Daten umgerechnet werden können. Das sind in der Regel Gemeinden, Ortsteile, Postleitzahlgebiete oder Ortsnetzkennzahlen. Letztlich muss eine zuverlässige Verfügbarkeitsabfrage aber auf Straße und Hausnummer bezogen werden. Dasselbe gilt für Bedarfsmeldungen und Feedback zur Versorgungsqualität. Die zentrale Verrechnungseinheit sollten jedoch stets die Geokoordinaten sein. Eine zentrale Anforderung an Verfügbarkeitsdaten ist die Vollständigkeit der Datenbasis in Bezug auf die jeweiligen Erhebungs- und Analyseeinheiten: Wenn für eine Region eine Karte mit den verfügbaren Zugangstechniken angeboten wird, sollte sie alle Anbieter aller relevanten Techniken im jeweiligen Gebiet für alle dortigen Analyseeinheiten umfassen. Wenn die Angaben nicht vollständig sind oder wenn noch nicht einmal bestimmt werden kann, wie viele Angaben fehlen, können aus den Daten keine zuverlässigen Schlussfolgerungen gezogen werden. Während Verfügbarkeit und Nutzer bzw. Anschlüsse bei den Anbietern erfasst werden können, kann der Bedarf nur bei den Verbrauchern erhoben werden. Bei ihnen kann jedoch keine Vollständigkeit erzielt werden, sondern bestenfalls eine Erhebung in einer repräsentativen Stichprobe.
98
Herbert Kubicek
Eine weitere Anforderung betrifft die Aktualität der Daten und damit den Aktualisierungs- und Erhebungsrhythmus. Die Nutzer wünschen möglichst aktuelle Daten. Die Stellen, bei denen die Daten erhoben werden, möchten die Anzahl der Erhebungen so gering wie möglich halten. Schließlich ist die Validität der Angaben zu gewährleisten. Sie hängt von der Erhebungsmethode sowie der Kompetenz und der Zuverlässigkeit der Quellen ab. Daten, die auf Messungen oder Zählungen beruhen, können als valider gelten als Schätzungen. Validität kann durch Plausibilitätskontrollen und stichprobenartige Überprüfungen getestet werden. Aber auch Einträge und Kommentare von Verbrauchern können dazu beitragen. Gemessen an diesen Anforderungen ist die Datenlage in Deutschland völlig unzureichend. Ein Bericht für die EU-Kommission zum Broadband Performance Index zeigt, dass das in den meisten Mitgliedstaaten nicht besser ist.5 In den USA sind im vergangenen Jahr hingegen gesetzliche Schritte zur Verbesserung der Datenlage eingeleitet worden.
Der Breitbandatlas des BMWi Wenn sich die Bundesregierung und die Telekommunikationsindustrie ihrer Erfolge beim Breitbandausbau rühmen, tun sie das entweder auf der Basis der von der Bundesnetzagentur veröffentlichten Anschlusszahlen und/oder der Verfügbarkeitszahlen des vom BMWi in Auftrag gegebenen Breitbandatlasses. Danach waren zum Stichtag 1. Januar 2008 in Deutschland bei einem Versorgungsgrad von 98,1 Prozent nur noch 730 000 Haushalte ohne Zugang zu einem „bezahlbaren, vollwertigen BreitbandInternetanschluss“, d. h. dass an ihren Standorten weder DSL noch HSDPA, TV-Kabel oder Funk verfügbar sind. Und es gelten nur noch 612 Gemeinden als nicht versorgt. Doch wie verlässlich sind diese Daten? Die Qualität der Daten Erfreulicherweise wird in den veröffentlichten Berichten zum Breitbandangebot das Verfahren der Datenerhebung und -aufbereitung sehr transpa-
5
Communications Committee (2008): Broadband Access in the EU. Situation at 1. July 2008. Working Document COCOMO8-41. European Commission, Brussels, 28. November 2008.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
99
rent dargestellt und die Qualität von den Autoren selbstkritisch bewertet.6 Insgesamt wurden von 2005 bis Mai 2008 fünf Erhebungen nach derselben Methode durchgeführt und vier Versionen des Breitbandatlasses im Internet veröffentlicht. Den Benutzern wurde eine Abfrage der Verfügbarkeit mit verschiedenen Breitbandzugangstechniken nach Gemeindenamen oder Postleitzahlgebieten angeboten. Obwohl viel Mühe in die Erhebung der Daten investiert wurde, erfüllte dieser Breitbandatlas die oben definierten Anforderungen nicht und wurde im Lauf des Jahres 2008 auf eine Abfrage von Anbietern nach Gemeindenamen oder Postleitzahlgebieten sowie eine Reihe von Verfügbarkeitskarten mehrerer Bundesländer reduziert. Bei der Erstellung der ersten Version 2005 hat das Planungsbüro PLAN Online mit sechs Branchenverbänden zusammengearbeitet und 477 anbietenden Unternehmen einen Fragebogen geschickt, in dem das Angebot verschiedener Techniken (DSL, Glasfaser, TV-Kabel, Powerline, Satellit, UMTS, WiMAX, WLAN und WLL) nach Postleitzahlgebieten, Gemeindegrenzen oder Hauptverteilern mit Preisangaben für drei verschiedene Nutzerprofile (<128 Kbit/s, 788 Kbit/s und 2 Mbit/s downstream bzw. 1 GB/Monat und 0,66 h/Tag, 5 GB und 2,5 h/Tag bzw. 20 GB/Monat und 24 h/Tag) angegeben werden sollte. Die Unternehmen konnten entweder ein PDF-Formular herunterladen oder ein HTML-Formular online ausfüllen und für regional differenzierte Daten auch Datenträger schicken oder Dateien hochladen. Trotz Abstimmung mit den Branchenverbänden und einem Pretest mit 12 Unternehmen war die Rücklaufquote bei dieser freiwilligen Befragung unbefriedigend. Von 444 gemahnten Unternehmen haben trotz Unterstützung der Verbände nur 127 geantwortet, und nur 87 haben konkrete Verfügbarkeitsdaten geliefert. Von den 34 als Kernanbieter definierten Unternehmen haben 31 Daten geliefert. Zur Anforderung der Vollständigkeit heißt es in dem Bericht zur ersten Version: „Durch die gewählte Methodik einer Primärerhebung auf freiwilliger Basis stellen die dargestellten Werte lediglich einen unterschiedlich großen Teil des Gesamtmarktes dar. Direkte Aussagen zum Gesamtumfang von Verfügbarkeit und Nutzung einer Technik sind in den meisten
6
PLAN Online (2005): Bericht zum Breitbandatlas. Atlas für Breitband-Internet und digitalen Rundfunk des Bundesministeriums für Wirtschaft und Arbeit, Rangsdorf; PLAN Online (2007): Zwischenbericht und Zusammenstellung der Indikatorenwerte zum Breitbandatlas 2007_01, Rangsdorf; PLAN Online (2008): Bericht und Zusammenstellung der Indikatorenwerte zum Breitbandatlas 2007_02, Rangsdorf.
100
Herbert Kubicek
Fällen daher nicht möglich.“7 Während die Datenlage zur Verfügbarkeit aufgrund der Angaben der großen Infrastrukturanbieter noch als relativ gut eingeschätzt wird, wird eingeräumt: „Im Bereich der Nutzung ist die Aussagekraft der Daten trotz der Lieferung aktueller Daten durch die DTAG deutlich geringer. Dies ist insbesondere auf die nicht vollständige Beteiligung konkurrierender Infrastruktur-Anbieter und der geringen Beteiligung der großen Reseller zurückzuführen.“8 Doch auch die Methodik zur Ermittlung der Verfügbarkeit ist höchst fragwürdig. Die Anbieter sollten für jede Gemeinde (in Deutschland rund 12 500) oder ersatzweise pro Postleitzahlengebiet oder Hauptverteiler angeben, wie viele Haushalte sie dort mit den von ihnen angebotenen Techniken versorgen können. Wenn absolute Zahlen nicht möglich waren, konnten auch Prozentwerte angegeben werden. Angaben zu Postleitzahlgebieten und Hauptverteilern wurden in Gemeindegrenzen umgerechnet. Prozentwerte wurden dann unter Zugrundelegung der Gemeindegrößenklassen in die Werte für die Verfügbarkeit für Haushalte umgerechnet. Stets wurde von einer räumlichen Gleichverteilung der Haushalte in der Fläche ausgegangen. Dadurch kann es zu systematischen Fehlern kommen, auf die ausdrücklich hingewiesen wird. Der entscheidende Schwachpunkt ist, dass es sich bei den Rohdaten der DTAG zu DSL um die Ergebnisse von Simulationen handelt, die von außen nicht genau überprüft werden können, und bei den Angaben zu anderen Technologien und Anbietern teilweise nur um Schätzungen, deren Annahmen nicht offengelegt werden. Vielfach haben Anbieter selbst keine zuverlässigen Zahlen. Zur DSL-Verfügbarkeit bekommt man auch auf eine individuelle Anfrage von einem Reseller oft keine verbindliche Auskunft, weil dazu Messungen des Netzbetreibers vorgenommen werden müssen. Einfacher sollte es bei den Nutzungsdaten sein. Dazu wurde gefragt, wie viele Haushalte in absoluten Zahlen in den einzelnen Gemeinden einen breitbandigen Internetanschluss des Unternehmens nutzen. Es konnten die Kunden pro Postleitzahlgebiet gezählt werden. Doch solche Daten geben Unternehmen nicht gerne heraus. Daran konnte auch die Zusicherung nichts ändern, die Daten würden im Atlas nicht pro Anbieter, sondern nur aggregiert pro Technik und auch nur in sechs Klassen gruppiert ausgewiesen werden: In der letzten Erhebung Anfang 2008 wurden über 1 000 Anbieter von Breitband-Internet angeschrieben. Wie in den vorangegangenen Erhebungen haben nicht alle geantwortet (Rücklauf 374 Anbieter), und 7 8
PLAN Online 2005 (Fn. 6), S. 11. Ebd.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
101
einige Anbieter haben den Fragebogen nur teilweise beantwortet. Die halbjährlichen Aktualisierungsanfragen und die Tatsache, dass Unternehmen auch ohne Datenlieferung als Anbieter genannt werden, werden als Grund für die „deutliche Verringerung der Beteiligung“ genannt.9 Auf Angaben zur Nutzung wurde im Breitbandatlas 2007-02 sogar ganz verzichtet: „Daten im Bereich der Nutzung wurden zwar erhoben, können aber aufgrund der fehlerhaften und ungenügenden Rückläufe nicht sinnvoll ausgewertet werden. Die Nutzungsdaten, die erhoben wurden, ergeben kein repräsentatives Bild und sind für eindeutige Schlüsse nicht belastbar genug.“10 Im Hinblick auf die Verfügbarkeit liegen die besten Daten für die DSLTechnologie vor und stammen von der DTAG. Sie gibt an, 94,72 Prozent ihrer T-Com-Anschlüsse mit DSL versorgen zu können. Da von anderen Anbietern keine vergleichbaren Daten geliefert werden, wird vereinfachend angenommen, dass deren Telefonkunden zur DTAG wechseln können und dann im gleichen Prozentsatz DSL erhalten können: „Unter dieser Annahme wären knapp 2 Mio. Haushalte ohne DSL-Anschlussmöglichkeit!“11 Berücksichtigt man die anderen als Kerntechniken bezeichneten Zugangsmöglichkeiten (Glasfaser, TV-Kabel, UMTS und WLAN), so reduziert sich die Schätzung der nicht versorgten Haushalte. In der Zusammenfassung des Berichts zum Breitbandatlas 2007 ist von „gut 730.000 Haushalten … ohne einen bezahlbaren, vollwertigen Breitbandanschluss“ die Rede12. Diese Zahl ergibt sich aus der Berechnung des technikübergreifenden Versorgungsgrades für Deutschland von 98,1 Prozent zum 1. Januar 2008. Bei der Verfügbarkeitsabfrage werden aus den Einwohnerzahlen pro Gemeinde aufgrund einer durchschnittlichen Haushaltsgröße die Haushalte pro Gemeinde errechnet. Diese addieren sich bundesweit zu 38,68 Mio. Dem Prozentsatz von 1,9 Prozent entsprechen 735 000 Haushalte. Das Statistische Bundesamt gibt für 2006 allerdings eine Gesamtzahl von 39,77 Mio. Haushalten an. 1,9 Prozent davon sind 755 000. Die Berechnung der Gesamtverfügbarkeit erscheint auch unabhängig davon problematisch, weil die auf Angaben der DTAG beruhende Gesamtverfügbarkeit von T-DSL zum Ausgangspunkt genommen wird. Dazu addiert werden die durch andere DSL-Anbieter mit eigener Infrastruktur 9 10 11 12
PLAN Online (2008) (Fn. 6), S. 4-6. PLAN Online (2007) (Fn. 6). Ebd. PLAN Online (2008) (Fn. 6), S. 1.
102
Herbert Kubicek
angebundenen Haushalte (515 000) sowie die durch die übrigen Kerntechniken erreichten Haushalte (2,04 %). Dabei werden Überlappungen der verschiedenen Kerntechniken nach einem komplizierten Verfahren herausgerechnet. Danach trägt HSDPA mit 1,1 Prozent mehr zur bundesweiten Verfügbarkeit bei als stationärer Funk und Kabel zusammen. Die Gesamtverfügbarkeit wird dann errechnet aus: T-DSL
94,72 %
darüber hinausgehende Reichweite alternativer DSL-Anbieter
1,34 %
darüber hinausgehende Reichweite alternativer Kerntechniken
2,04 %
Gesamtverfügbarkeit über alle Kerntechniken
98,10 %
Aufgrund der Schätzungen von Überlappungen wird eine mögliche Ungenauigkeit von 0,5 Prozent nach unten und 1 Prozent nach oben angenommen. Nicht berücksichtigt wird der unbekannte Toleranzbereich der Basisangabe der T-DSL-Abdeckung durch die DTAG. Es wird nicht offen gelegt, wie die diesem Bundesdurchschnitt zugrunde liegenden Angaben pro Gemeinde mit Hilfe des Simulationsmodells ermittelt werden und wie zuverlässig diese Schätzungen ohne technische Prüfung sind. Während diese Ungenauigkeiten in den ersten Jahren der Berichterstattung noch akzeptabel waren, da es in dieser Zeit um zweistellige Wachstumsraten ging und gänzlich unversorgte Gemeinden aufgrund des Fehlens bestimmter technischer Komponenten und Hauptverteiler oder Sender identifiziert werden konnten, geht es nun mit zunehmender Sättigung um kleinräumigere Versorgungslücken und den Grauton von „grauen Flecken“. Kunden und Bürgermeister wollen nicht mehr nur wissen, ob sich ein oder mehrere Anbieter für ihre Gemeinde gemeldet haben, sondern ob sie eine bestimmten Ortsteil bzw. ein bestimmtes Haus in einer bestimmten Straße versorgen können. Nützlichkeit und Nutzbarkeit des Breitbandatlas Mit dem Breitbandatlas soll nicht nur „für das gesamte Bundesgebiet flächendeckend in hoher Detaillierung die Verfügbarkeit von BreitbandInternet ermittelt“ werden, sondern auch „eine wichtige Entscheidungsgrundlage für Verbraucher (geschaffen), wo voraussichtlich ein Breitbandanschluss zur Verfügung steht“. Und es wird behauptet, „Telekommunikationsunternehmen können mit dem Breitbandatlas noch immer vorhandene
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
103
Netzlücken aufspüren und so gezielte Angebote für diese bisher schlechter versorgten Gemeinden entwickeln“13. Der Atlas zeigt zwar, welche Anbieter in den einzelnen Kommunen aktiv sind und welche Techniken dort grundsätzlich angeboten werden. Weil die Gemeinden als Analyseeinheiten gewählt werden, sind diese Angaben jedoch viel zu pauschal. Weder können Verbraucher erkennen, welche Technik für ihren konkreten Standort (Straße, Hausnr.) angeboten wird, noch können Telekommunikationsunternehmen Versorgungslücken innerhalb der Gemeinden aufspüren, zumal heute Gemeinden oft mehrere weiter auseinanderliegende Ortschaften umfassen, bei denen die Verfügbarkeit sehr unterschiedlich sein kann. Im Lauf des Jahres 2008 wurde die Darstellungsweise geändert. Wenn man eine Postleitzahl in die Suchmaske eingibt, erhält man Karten, auf denen für unterschiedliche Technologien aufgezeigt wird, wie viele Anbieter sich als dort tätig gemeldet haben. Einschränkend wurde darauf hingewiesen, dass bei Angabe einer hohen Verfügbarkeit kein Anschluss bzw. Empfang garantiert werden könne: Verbindliche Verfügbarkeitsinformationen erhalte man ausschließlich von den Anbietern. Bei deren Adressen ist zwar ein Link angegeben. Dieser führt jedoch nur zur jeweiligen Startseite und nicht etwa zu einer Verfügbarkeitsabfrage. Auf das Problem, dass auch eine individuelle Anfrage bei Anbietern nicht zu einer verbindlichen Versorgbarkeitsaussage führt, wurde bereits hingewiesen. Bedarfsmeldungen im Breitbandatlas Seit Ende 2008 wird zusätzlich eine Bedarfsdatenbank angeboten. Sie beruht auf den Angaben von Gemeinden. Ausgangspunkt war eine Umfrage des Deutschen Städte- und Gemeindebundes und des Anbieterverbandes VATM bei allen Gemeinden in Rheinland-Pfalz. Seit November 2008 finanziert das BMWi die bundesweite Erhebung. Die Gemeindevertreter geben in die Datenbank die Größe ihrer Gemeinde (Haushalte/Einwohner) und den Versorgungsgrad (gänzlich unversorgt, teilweise versorgt, versorgt) für die verschiedenen Zugangstechniken an. Potenzielle Anbieter sollen so nicht oder unterversorgte Gemeinden identifizieren. Sie erhalten dann Angaben zu Kontaktpersonen in den jeweiligen Gemeinden, mit denen über Kooperationen wie gemeinsame Förderanträge u. ä. verhandelt werden kann.
13
PLAN Online (2008) (Fn. 6), S. 1.
104
Herbert Kubicek
Die Daten sind jedoch nicht mit dem Breitbandatlas abgestimmt. Dieser nennt eine Zahl von 600 nicht versorgten Gemeinden. Die Bedarfsdatenbank listet alleine für Rheinland-Pfalz im März 2009 1 159 „gänzlich unversorgte“ Gemeinden auf. Angesichts der stets betonten größeren Versorgungslücken in den ostdeutschen Bundesländern ist auf eine sehr viel höhere bundesweite Zahl zu schließen.
Bedarfsmeldungen im Breitbandatlas Brandenburg und im Schmalbandatlas Den Bedarf von Haushalten ermittelt man am besten, wenn man sie selbst befragt oder ihnen die Möglichkeit bietet, ihn online anzumelden. Das tun u. a. das Land Brandenburg und der Schmalband-Atlas von „Kein-DSL“. Für den Brandenburger Atlas kann man unter Angabe von Ortsname, Straße und Hausnummer den Bedarf nach einem näher definierten breitbandigen Internetanschluss eingeben.14 Diese Bedarfsmeldungen werden dann auf der Ebene von Gemeinden und Landkreisen aggregiert, können grafisch aber auch durch Zoomen bis auf Straßenzüge heruntergebrochen werden. Dabei kann man zwischen der Karten- und der Landschaftsdarstellung (Satellitenfoto) wählen. Für potenzielle Anbieter kann das relevant sein. Im Dezember 2008 waren über 6 000 Bedarfsmeldungen registriert, Ende Februar 2009 stieg die Zahl auf 7 526 an. Noch einen Schritt weiter geht der Breitbandbedarfsatlas, auch Schmalbandatlas genannt, von „Kein DSL“.15 Auch hier kann man seinen Bedarf unter Angabe von Telefonvorwahl oder Postleitzahl eintragen und die angemeldeten Bedarfe anzeigen lassen, wobei zwischen Kartendarstellung und Satellitenfoto gewählt und von der Aggregationsstufe Bundesland bis zum Straßenzug gezoomt werden kann. Für das Brandenburg waren Ende Dezember 2008 allerdings nur 1 808 Bedarfe angemeldet. Dabei wird auch ein Link zu Verfügbarkeitsanfragen geschaltet. Und man kann seine Zufriedenheit oder Unzufriedenheit mit der vorhandenen DSL-Anbindung melden.
14 15
http://www.breitbandatlas-brandenburg.de. http: //www.schmalbandatlas.de.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
105
Der Broadband Performance Index der Europäischen Kommission Wie die Bundesregierung betont auch die Europäische Kommission die große wirtschafts- und gesellschaftspolitische Bedeutung breitbandiger Internetzugänge. In der i2010-Strategie der Kommission für die Informationsgesellschaft wird das Ziel des „Breitbandzugangs für alle“ formuliert. In der Mitteilung „Überwindung der Breitbandkluft“ vom März 2006 wurden Förderinstrumente für regionale und lokale Behörden für eine bessere Versorgung ländlicher Gebiete angekündigt. Die Kommission überprüft auch die Universaldienstrichtlinie und hat im September 2008 in einer „Mitteilung über künftige Netze und Dienste“ u. a. eine neue erweiterte Berichterstattung über die Breitbandversorgung vorgestellt.16 Bisher wurde vor allem die Anzahl der Breitbandanschlüsse, differenziert nach den verschiedenen Technologien pro Mitgliedsland oder differenziert nach städtischen, vorstädtischen und ländlichen Gebieten erhoben und verglichen. Durch ein EU-weites Benchmarking sollte ein Wettbewerb unter den Mitgliedstaaten zur Förderung von Breitbandzugängen ausgelöst werden. Die Kommission hat jedoch eingesehen, dass die Anschlusszahlen alleine keinen Aufschluss über die Gründe für Unterschiede in der Versorgung geben und vor allem nicht erkennen lassen, mit welchen Maßnahmen eine Verbesserung erreicht werden könnte. Das soll der „Breitbandleistungsindex“ (Broadband Performance Index, BPI) leisten. In dem entsprechenden Staff-Dokument, das bisher nur in Englisch vorliegt, wird auf die große Bedeutung eines „high-quality monitoring“ hingewiesen.17 Der erste Test mit dem neu entwickelten Index bestätigt die Relevanz des sozio-ökonomischen Kontexts für die weitere Entwicklung. Der BPI besteht aus sechs Faktoren oder Komponenten: ņ Versorgung ländlicher Gebiete („Rural Coverage“), gemessen durch den prozentualen Anteil der Bevölkerung in ländlichen Gebieten, die mit einem DSLAM (Digital Subscriber Line Access Multiplexer) verbunden sind.
16
17
Kommission (2008): Mitteilung über künftige Netze und das Internet. KOM (2008) 594, Brüssel, 29. November 2008. Commission (2008): Future Networks and the Internet. Indexing Broadband Performance. Staff Document SEC (2008) 2507, Brüssel, 29. November 2008.
106
Herbert Kubicek
ņ Wettbewerb („Competition by Coverage“) soll die Innovations- und Investitionsbereitschaft erfassen, gemessen als „Platform Competition“, i. S. v. neue Anschlüsse in Prozent aller Anschlüsse multipliziert mit dem Anteil der Bevölkerung, der an einen DSLAM angeschlossen ist. ņ Preise, gemessen durch den Median des Preises von 1-2 Mbit/sZugängen, 2-8 Mbit/s-Zugängen und den Median eines normalisierten Preises (Price per Speed). ņ Qualität, gemessen durch die durchschnittliche Geschwindigkeit der verschiedenen Zugangsarten, gewichtet mit ihrer Verbreitung. ņ Verbreitung breitbandiger Dienste (Take-up of advanced services), gemessen über die Nutzung von sieben Diensten: 1. Prozent der Unternehmen, die elektronische Rechnungen versenden, 2. Verwaltungsformulare online ausfüllen, 3. Prozent der Individuen, die Musik, Videos oder Spiele herunterladen, 4. bzw. Software herunterladen, 5. in den vergangenen drei Monaten Verwaltungsformulare ausgefüllt haben, 6. in den vergangenen drei Monaten online eingekauft haben, 7. in dieser Zeit Online-Banking gemacht haben. ņ Sozio-ökonomischer Kontext, der insbesondere die technische Fähigkeit und die Zahlungsfähigkeit erfassen soll, gemessen über 1. Prozent der Individuen, die mindestens eine Internet-bezogene Aktivität durchgeführt haben, 2. Anzahl der 3G-Mobilfunkteilnehmer, 3. durchschnittliche Pro-Kopf-Ausgaben für IKT. Die Daten zu den ersten vier Punkten erhebt IDATE regelmäßig, zu den letzten beiden werden sie aus den ESTAT-Erhebungen übernommen. Die Indikatoren werden gewichtet und die Faktoren normalisiert, so dass schließlich ein Gesamtindex mit einem Wertebereich von 0 bis 1 errechnet werden kann, aber auch der Beitrag der sechs Faktoren ausgewiesen werden kann. Daraus soll dann abgeleitet werden, ob ein Mitgliedsland eher beim Wettbewerb zwischen Anbietern, bei den Preisen oder den Geschwindig-
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
107
keiten oder dem sozio-ökonomischen Kontext zurückliegt und dort etwas unternehmen sollte. Das ist im gedanklichen Ansatz ohne Zweifel sinnvoll, in der konkreten Umsetzung jedoch nur gut gemeint. Denn die Regierung eines Mitgliedslandes kann weder durchschnittliche Geschwindigkeit und Preise noch die Nutzung von Diensten durch Unternehmen und Haushalte direkt beeinflussen. Und auf indirektem Wege versuchen sie es seit langem mit nur mäßigem Erfolg. Um handlungsrelevant zu werden, müssten die Daten für kleinere Bezugseinheiten erhoben und aufbereitet werden. Aber bereits auf nationaler Ebene gibt es erhebliche Unterschiede zwischen den Mitgliedstaaten in Bezug auf die Vollständigkeit der Daten. Das Beratungs- und Forschungsinstitut IDATE, das die Daten für die meisten Indikatoren mit Hilfe von nationalen Korrespondenten erhebt, beschreibt in einem Methodological Report die Datenlage für jedes Mitgliedsland.18 Deutschland wird dabei wegen seines Breitbandatlas eine überdurchschnittlich gute Datenlage auf nationaler Ebene zugesprochen, weil die großen DSL-Anbieter vollständig geliefert haben. In vielen anderen Ländern haben nur einige Anbieter Daten geliefert. Die Aufteilung auf städtische, vorstädtische und ländliche Gegenden sowie Preise und Geschwindigkeiten mussten daher oft geschätzt werden.
Der umfassende Ansatz von Connected Nation in den USA Dass auf freiwilliger Basis eine relevante und weitgehend vollständige Datenbasis erstellt werden kann, zeigt in den USA die Non-Profit-Organisation „Connected Nation“ für die Bundesstaaten Kentucky, Tennessee, Ohio, West Virginia und Minnesota.19 Im Board of Directors sind Vertreter von AT&T, Communications Workers of America, Intel Corp., CTIA (Wireless Association), US Telecom Association, Telecommunication Industry 18
19
IDATE (2008): Developement of Broadband Access in Europe. Methodological Report 2008 Survey. Data as of 31st December 2007. DG INFSO, September 2008. www.connectednation.org; die folgende Darstellung beruht auf einem Interview am 2. April 2008 mit Raquel Noriega, Director of Strategic Partnership, im Büro von Connected Nation in Washington DC und Laura Taylor, Chief Analyst, die im Hauptbüro in Bowlin Green, Kentucky, telefonisch zugeschaltet war. Das Büro in Washington ist im Haus der Bundesstaaten angesiedelt.
108
Herbert Kubicek
Association, Verizon, Comcast u. a. Bei der FCC und NTIA gilt Connected Nation als erfolgreiche Initiative auf der Ebene von Bundesstaaten und als Entwickler innovativer, wissenschaftlich fundierter und praxisgerechter Methoden des Broadband Mapping. Inzwischen hat der umfassende Ansatz Eingang in den Broadband Improvement Act gefunden, der im Herbst 2008 in Kraft trat. Ausgangspunkt und Prototyp war die Public-Private Partnership „Connected Kentucky“. Der dortige Gouverneur gab bei einer Universität eine Studie in Auftrag, wie die Ansiedlung neuer Unternehmen gefördert werden könnte. Im Rahmen dieser Studie wurden 81 TK-Netzbetreiber gefragt, warum sie nicht stärker in Kentucky investierten. Sie hatten alle größere oder kleinere Breitbandnetze, die jedoch nicht ausgelastet waren. Da es keine Marktanalysen gab, war nicht klar, ob das an den Preisen oder am fehlenden Interesse der potenziellen Kunden lag. Aus diesem Informationsdefizit auf der Seite der Netzbetreiber und Anbieter entstand die Idee, den Ausbau der Netze dadurch zu unterstützen, dass die Identifizierung von Investitionschancen gefördert wird. Der Grundgedanke ist einfach: Die Datenlieferanten müssen ein eigenes Interesse an der Lieferung qualitativ hochwertiger Daten haben bzw. entwickeln. Das ist dann der Fall, wenn sie verlässliche Daten zurückbekommen, wo sich ein Netzausbau lohnen könnte oder wo Anwohner in technisch versorgten Gebieten gezielt angesprochen werden sollten. Kentucky Connected begann mit Gesprächen mit den 81 in dem Staat tätigen Providern, welche Marktanalysedaten sie gerne hätten und welche Daten sie ohne größeren Aufwand selbst liefern können. Liefern können sie ihre Kundendaten. Haben wollen sie Daten über zusätzliche Nachfragepotenziale. Es ist allerdings nicht einfach, von den Kundendaten zu den Potenzialen zu gelangen. Kentucky Connected hat dafür ein kompliziertes und aufwendiges Verfahren entwickelt, das allein für Kentucky drei Jahre benötigte und 7 Mio. USD gekostet hat: 1. Primäre Erhebungseinheiten sind die Daten der unterschiedlichen Provider: Kunden-Adressen, versorgte Straßenzüge, Funkzellen. 2. Diese werden auf die gemeinsame Bezugsbasis Geokoordinaten umgerechnet. 3. Dann erfolgt eine zweite Umcodierung auf die gemeinsame Analyseeinheit Census Blocks (Analyseeinheit der Volkszählung). 4. So wird eine Verknüpfung mit vorhandenen Zensusdaten, insbesondere Einwohnerdichte und Einkommensklasse pro Block, möglich.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
109
5. Diese Daten werden dann auf die Berichtseinheiten County und Bundestaat aggregiert und 6. ergänzt durch jährliche Surveys zur Computerausstattung, InternetNutzung u. ä. (in Kentucky 11 000 Telefoninterviews), die ebenfalls bis auf Census Blocks heruntergebrochen werden. 7. Den Census Blocks werden auch Adressen zugeordnet und so individuelle Abfragen zur Verfügbarkeit von Breitbandanschlüssen über das Internet ermöglicht. 8. Eine zusätzliche Qualitätskontrolle der Verfügbarkeitsdaten erfolgt über ein Rückmeldeformular (E-Mail). Dieses wird auch nach mehr als einem Jahr nach dem Start ca. 100mal pro Woche genutzt. Weil Provider misstrauisch waren, ihre Kundenadressen zu liefern, wurden Non-Disclosure Agreements geschlossen. Die veröffentlichten Daten pro Block oder County geben nur den Anteil der angeschlossenen und nicht versorgten Haushalte insgesamt wieder, aber keine Marktanteile der Anbieter. Die Umrechnung der Provider-Daten auf Geodaten als gemeinsamer Nenner ist erforderlich, weil die Anbieter ganz unterschiedliche Daten haben. Telefongesellschaften haben in der Regel Kundenadressen mit Straße und Hausnummer, Kabelnetzbetreiber im Extremfall nur markierte Straßenzüge auf einer Papier-Landkarte. Weil das Angebot an die Provider lautete: „Liefern Sie, was Sie haben – Wir machen etwas daraus“, müssen viele Daten aufbereitet und per Hand eingegeben werden. Das hat in Kentucky mit drei Vollzeitbeschäftigten sechs Monate gedauert. Die Versorgungsdaten werden alle drei Monate aktualisiert. Bei der Überprüfung der Daten haben sich 80-90 Prozent als korrekt erwiesen. Der entscheidende Mehrwert dieser mehrstufigen Datenaufbereitung entsteht durch die Zuordnung der Kunden zu Census Blocks. Denn so kann die Kennzahl „Kunden pro Einwohner“ berechnet werden, und man kann im Umkehrschluss die Noch-Nicht-Kunden im jeweiligen Block bestimmen und mit den Einkommensdaten zusätzlich die Kaufkraft schätzen. Mit diesen Daten sollen auf der Ebene der Counties lokale E-Community Leadership Teams die Nachfragepotenziale qualitativ bestimmen und beraten, was zur Aktivierung dieser Potenziale getan werden kann. In Kentucky wurden dazu acht hauptamtliche Personen beschäftigt, die in den 120 Counties solche Gruppen initiiert und betreut haben. In einem solchen eCommunity Leadership Team sollen möglichst Repräsentanten mitarbeiten für die Bereiche Tourismus, Verwaltung, Schulen, Bibliotheken, Landwirt-
110
Herbert Kubicek
schaft, Polizei, medizinische Versorgung und aus relevanten Industriezweigen. Sie sollen über die bisherige Internetnutzung in ihrem Bereich berichten sowie zusätzliche Nutzungsmöglichkeiten und deren Akzeptanz diskutieren. Am Ende soll ein Broadband Development Plan stehen, der dann mit den im County tätigen Anbietern diskutiert wird. Für jedes County wurden ein County Strategic Technology Plan erstellt, der auf mehreren Teilplänen und Berichten basiert, insbesondere County Demographics, einem County Broadband Inventory, County Number of Households Unserved by a Broadband Provider, County, Density of Households Unserved by a Broadband Provider sowie County Technology Statistics.20 In den örtlichen Diskussionen soll sich in einer ganzen Reihe von Fällen gezeigt haben, dass sich die Versorgung eines Gebiets doch lohnen könnte, für das zuvor mangels geeigneter Daten eine Versorgung als unrentabel angesehen wurde. Diese Erkenntnismöglichkeiten durch die Kombination der Kundendaten mit Volkszählungs- und anderen Daten aus amtlichen Statistiken und Surveys haben dazu geführt, dass sich auch in Tennessee die Betreiber und Provider für eine vergleichbare Initiative interessiert haben und sich bei der Lieferung der Kundendaten Mühe mit der Qualität gegeben haben. Nach Tennessee kamen dann vergleichbare Projekte in Ohio, West Virginia und Minnesota hinzu und es folgte die Positionierung als Connected Nation auf nationaler Ebene. Politische Unterstützung erhielt Connected Nation durch den demokratischen Senator Richard Durbin, der mit seinem „Connect the Nation Act“, den Bundesstaaten über fünf Jahre jährlich 40 Millionen USD für das Broaband Mapping zur Verfügung stellen wollte.21 Kritische Kommentare hinterfragen den Erfolg in Kentucky, weil dieser Bundesstaat zu den Schlusslichtern der Breitbandversorgung gehörte und geringe Zuwächse zu hohen prozentualen Steigerungsraten führen. Auch wird Connected Nation eine einseitige Bevorzugung von AT&T-Angeboten und eine Diskriminierung kleinerer lokaler Anbieter vorgeworfen.22 Der Journalist Drew Clark kommt zu dem Ergebnis, dass Connected Nation 20 21 22
www.connectednation.org/findyourcounty/counties/mercer/index.php. http://www.govtrack.us/congress/bill.xpd?bill=s110-1190. Z. B. Bode, K. (2008): Connected Nations’s 134 Billion Fish Tale. Broadband Reports, 22.2.2008; Brodsky, A. (2008): Conncet Kentucky Provider Uncertain Model for Federal Legislation, 9.1.2008, www.publicknowledge.org/node/1334; sowie die Erwiderung von Mefford, B. (2008): Erwiderung vom 12. Januar 2008, http://save_access.org/node/2022.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
111
zwar wesentlich zur Erfassung von Versorgungslücken sowie potenziellem Bedarf beiträgt, aber nicht zur Förderung des Wettbewerbs vor Ort, durch den diese Lücken letztlich geschlossen werden sollen.23 Die Kritik betrifft somit nicht das Verfahren der Datengewinnung und -aufbereitung.
Der Broadband Data Improvement Act in den USA Der konkrete Erfolg von Connected Nation in den genannten Bundesstaaten hat maßgeblich den 2008 in Kraft getretenen Broadband Data Improvement Act geprägt. In den vorausgegangenen drei Jahren war intensiv über die mangelhafte Datenlage zur Bestimmung der Breitbandversorgung und der nicht versorgten Haushalte diskutiert und gestritten worden. Dabei war die Federal Communication Commission (FCC), die als nationale Regulierungsbehörde für die Daten zur Breitbandverfügbarkeit zuständig ist, zunehmend in die Kritik geraten. In Senat und Repräsentantenhaus wurden mehrere Gesetzesinitiativen gestartet, die die FCC verpflichten wollten, bessere Daten zu liefern, und sie ermächtigen sollten, sie auch von den Anbietern einzufordern. Da detaillierte Auskunftspflichten mit erheblichem Aufwand für die Anbieter verbunden sind und konkrete Daten zur technischen Verfügbarkeit in kleinräumigen Einheiten teilweise als Geschäftsgeheimnis angesehen werden, waren die Details der Meldepflicht lange Zeit umstritten. Der im Oktober 2008 von Präsident Bush unterzeichnete „Broadband Data Improvement Act“ lässt zwar noch einige dieser Details offen, schreibt jedoch eine grundlegende Erweiterung der Datenerhebung und -aufbereitung vor.24 Im Zentrum der Berichtspflichten der FCC steht eine Liste der geographischen Gebiete, in denen es keinen Anbieter fortgeschrittener Telekommunikationsmöglichkeiten laut Telecommunications Act gibt. Soweit Daten des Census Bureau vorliegen, soll für jedes dieser Gebiete die Bevölkerung, die Bevölkerungsdichte und das Durchschnittseinkommen pro Person angegeben werden. Angesichts der vielfältigen technischen Möglichkeiten und deren schneller Veränderung soll ein jährlicher Bericht darüber erstellt werden, was als „fortgeschrittene Telekommunikation“ gilt. Zusätzlich soll die FCC regelmäßig Verbraucherbefragungen in städtischen, vorstädtischen und ländlichen Gegenden bei großen und kleinen Unternehmen sowie Privathaushalten durchführen und die Art der benutzten 23 24
Vgl. http://www.broadbandcencus.com/blog/tag/drew-clark/. http://www.govtrack.us/congress/bill.xpd?bill=s110-1492.
112
Herbert Kubicek
Zugangstechniken, die entsprechenden Übertragungsraten, die genutzten Anwendungen sowie die monatlichen Ausgaben erheben. Bei Verbrauchern, die Breitbanddienste wieder abgemeldet haben, sollen die Gründe ermittelt werden. Diese Daten sollen mindestens einmal jährlich veröffentlicht werden. Der Wirtschaftsminister wird aufgefordert, gemeinsam mit der FCC darauf hinzuwirken, dass der American Community Survey des Bureau of Census so erweitert wird, dass man für jede Adresse feststellen kann, ob die dort lebenden Personen einen Computer nutzen, einen Internet-Service in Anspruch nehmen und dort einen Breitbandzugang abonniert haben. Für eine jährliche Berichterstattung zu Verfügbarkeit und Preisen sollen 75 Communities in mindestens 25 Ländern für jede von der FCC betrachtete Übertragungsrate verglichen werden. Diese Communities sollen sich so weit wie möglich im Hinblick auf Bevölkerungsdichte und demographische Profile unterscheiden. Die Erweiterung des Datenumfangs über die technische Verfügbarkeit und Preise hinaus auf Bevölkerungsdichte und Einkommenshöhe sowie PC- und Internetverfügbarkeit in geographischen Einheiten wäre ohne die positiven Erfahrungen von Connected Nation nicht in das Gesetz aufgenommen worden. Es war auch längere Zeit umstritten, ob die FCC überhaupt ihre Datensammlung ausdehnen solle oder ob nicht in erster Linie die Bundesstaaten Daten erheben und sie der FCC zur Verfügung stellen. In dem verabschiedeten Gesetz sind nun beide Wege enthalten. Neben den Berichtspflichten der FCC soll das Department of Commerce ein Förderprogramm für Initiativen der Bundesstaaten zur Verbesserung der Datenlage über Breitbandversorgung und konkreten Bedarf schaffen. Danach können Bundesstaaten zusammen mit Unternehmen und/oder Forschungsinstituten Zuschüsse für entsprechende Aktivitäten erhalten. Die Förderung durch das Department of Commerce ist an konkrete Berichtspflichten geknüpft. Eine vom Department of Commerce einzurichtende Website soll diese Informationen dann aggregieren und veröffentlichen. Dabei soll die FCC auch ihre Daten einbringen. Die nur in Grundzügen im Gesetz verankerte erweiterte Berichtspflicht der FCC wurde von dieser schon einige Monate vorher auf der Basis einer öffentlichen Konsultation konkretisiert und beschlossen. Datenerhebung durch die FCC Seit 2000 müssen Anbieter von Breitband-Internetdiensten sowie Telefongesellschaften und Kabel-TV-Anbieter der FCC melden, wie viele Kunden
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
113
sie pro Bundesstaat haben und für jedes fünfstellige Postleitzahlgebiet, ob sie dort mindestens einen Kunden haben. In den Auswertungen der FCC galt für ein Postleitzahlengebiet Breitband als verfügbar, wenn dort mindestens ein Anbieter mindestens einen Kunden mit einem Breitbandzugang hatte. Als breitbandig galten Übertragungsgeschwindigkeiten von mehr als 200 Kbit/s. Die fünfstelligen Postleitzahlengebiete (innerhalb des neunstelligen Gesamtsystems) sind insbesondere in ländlichen Gegenden sehr groß und galten daher schon bald als wenig aussagekräftig für die Verfügbarkeit. Im April 2007 führte die FCC eine Konsultation zur Änderung der Breitbanddefinition und der Bezugseinheit für den Erhebungsbogen durch. Ein Vorschlag, die Granulierung durch Bezugnahme auf die neunstellige Postleitzahl zu vergrößern, fand keine Unterstützung. Stattdessen wurde der Ansatz von Connected Nation übernommen, der die Volkszählungseinheiten zur Bezugsbasis nimmt. Dadurch sollte die Nützlichkeit der Daten für die Anbieter erhöht werden, weil so die Anzahl der Kunden mit der Bevölkerungsgröße verglichen und die Anzahl der nicht angeschlossenen Einwohner sowie das Durchschnittseinkommen einbezogen werden kann. Während Connected Nation als Analyseeinheit Census Blocks gewählt hat, begnügt sich die FCC angesichts der Kritik am zu großen Erhebungsaufwand mit der nächst höheren Aggregationsebene, dem Census Track, der durchschnittlich 4 000 Einwohner umfasst. Für die Census Tracks müssen die Anbieter erstmalig bis März 2009 die Anzahl der Kunden melden – getrennt nach Privat- und Geschäftskunden und für unterschiedliche Übertragungsgeschwindigkeiten. Der Vorschlag, zusätzlich zu den Angaben der Anbieter ein SelfReporting System für nicht versorgte Haushalte einzurichten, fand breite Unterstützung. Daher wird die FCC eine Möglichkeit anbieten, dass Haushalte selbst die Verfügbarkeit und die Übertragungsgeschwindigkeit für ihren Standort melden können. Über das Internet, aber auch per Telefon oder Briefpost, soll auch die Nicht-Verfügbarkeit gemeldet werden können. Hinsichtlich der Definition von „Breitband“ werden sieben Geschwindigkeitsklassen für Upload und Download in dem neuen Erhebungsformular unterschieden. Noch offen ist die Art der Darstellung dieser Daten. In den Anhörungen wurde von den Anbietern nicht nur der Erhebungsaufwand kritisiert, sondern auch die Sorge um die Vertraulichkeit dieser hochsensiblen Daten zum Ausdruck gebracht. Unter ausdrücklichem Verweis auf Kentucky Connect, wo die Anbieter ähnliche Daten auf freiwilliger Basis geliefert haben, bittet die FCC um Vorschläge für eine Form der Darstellung, die
114
Herbert Kubicek
politischen Entscheidern, Regulierern und Anbietern handlungsrelevante Informationen liefert, aber die Vertraulichkeit der Einzelangaben wahrt. Aktueller Stand März 2009 Nach dem Regierungswechsel wurden die Vorgaben aus dem Broadband Data Improvement Act aufgegriffen und ergänzt. Im US Konjunkturpaket, dem American Recovery and Reinvestment Act of 2009, wird ein Broadband Technology Opportunity Programm angekündigt, mit dem attraktive Breitbandanwendungen gefördert werden sollen. Die dem Department of Commerce nachgeordnete National Telecommunications and Information Agency (NTIA) ist beauftragt worden, die Vorgaben aus beiden Gesetzen unter der gemeinsamen Bezeichnung „Broadband Grant Programm“ zu konkretisieren. Sie hat im Februar 2009 damit begonnen, zu diesem Zweck Anhörungen durchzuführen.25
Konsequenzen für die deutsche Breitbandberichterstattung Die im Februar 2009 verabschiedete Breitbandstrategie der Bundesregierung benennt als eine konkrete Maßnahme den Aufbau einer Infrastrukturdatenbank durch die Bundesnetzagentur. Dafür sind auch bereits Mittel bereitgestellt worden. Ziel dieser Infrastrukturdatenbank ist es, die Nutzung von Synergien zu ermöglichen und Ausbaukosten zu reduzieren. „Dafür ist es wichtig, dass Unternehmen eine netzübergreifende Datengrundlage erhalten, um ihre Ausbauprozesse zu optimieren und nutzbare Infrastrukturen in die Planung einzubeziehen. In Ergänzung zu bereits vorhandenen informationspolitischen Maßnahmen wie den Breitbandatlas des BMWi wird die Bundesregierung eine Plattform schaffen, die Informationen über die vorhandene und nutzbare Infrastruktur sowie Informationen über relevante Baumaßnahmen bereit stellt“. Dabei wird auch auf das Vorbild einer Broadband Inventory Map in den USA verwiesen. Wie in den vorangegangenen Abschnitten ausgeführt, 25
http://www.ntia.doc.gov/frnotices/2009/broadbandmeetings_090224.pdf; Tagesordnungen und Ergebnisse werden laufend veröffentlicht unter http://www.ntia. doc.gov/broadbandgrants und von mehreren Blogs kritisch begleitet; vgl. u. a. http://www.broadbandcensus.com/blog/tag/drew-clark/ sowie http://www.publicknowledge.org/blog/4.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
115
werden dort die auf die Infrastruktur bezogenen angebotsorientierten Daten um nachfragerelevante sozioökonomische Daten mit gleichen Bezugsgrößen ergänzt. Abb. 1 sollte diese Erweiterung sichtbar machen. Wenn nun vorrangig in den Aufbau der Infrastrukturdatenbank investiert wird, sollten dabei einzusetzende Geo-Informationssysteme so ausgewählt und angelegt werden, dass in nachfolgenden Schritten die anderen Aspekte als zusätzliche Views und Layers auf denselben Geo-Koordinaten aufbauen können und die Zoomstufen einheitlich sind. Als erste Orientierung soll eine Fünf-Ebenen-Struktur dienen, die aufbauend auf denselben Geo-Koordinaten neben der Ebene der Leerrohre vier weitere Layers beinhaltet: ņ die Abdeckung von Ortsteilen mit den relevanten Breitbandtechnologien, ņ die über alle Anbieter aggregierten Anschluss- bzw. Teilnehmerzahlen pro Ortsteil oder Postleitzahlgebiet, ņ sozioökonomische Daten (Bevölkerungsdichte, Durchschnittseinkommen, Computerausstattung u. a. für Ortsteile, ņ Bedarfsanmeldung für einzelne Technologien nach Straße und Hausnummer und Anzeige der Meldungen für Ortsteile und Gemeinden. Für jede dieser Ebenen sind unterschiedliche Datenquellen zu erschließen und ein Maximum an Aktualität und Validität der Daten zu erreichen. Für die Nutzer- und Versorgungsdaten hat die bloße Anfrage auf freiwilliger Basis keine befriedigenden Rücklaufquoten erzielt. Es wird zu klären sein, ob man mit dem Gratifikationsansatz von Connected Nation in Form der Gegenlieferung von sozioökonomischen Daten einen relevanten Anreiz und deutlich höhere Rücklaufquoten erzielen kann oder ob doch wie bei der FCC eine gesetzliche Erhebungsermächtigung geschaffen werden muss. Dafür käme eine eigene gesetzliche Erhebungsgrundlage für die Bundesnetzagentur über eine entsprechende Berichtspflicht im Telekommunikationsgesetz in Frage oder ein Feststellungsverfahren für die Prüfung einer Universaldienstverpflichtung nach § 81 TKG, das nicht zwingend in ein Umlageverfahren münden muss.26 26
Vgl. ausführlicher Kubicek, H. (2008): Die Universaldienstdefinition in der Telekommunikation als Projektionsfläche für unterschiedliche Hoffnungen und Befürchtungen – Rückblick und Ausblick. in: Picot, A. (Hrsg.): 10 Jahre wettbewerbsorientierte Regulierung von Netzindustrien in Deutschland. Bestandsaufnahme und Perspektiven der Regulierung, München, S. 179-207, hier S. 202.
116
Herbert Kubicek
Schließlich ist analog zum Broadband Opportunity Program der USRegierung auch in Deutschland zu prüfen, ob spezifische Anwendungen für Menschen und Betriebe im ländlichen Raum gefördert werden sollen, die einen breitbandigen Internetzugang erfordern. Denn auch eine flächendeckende Versorgung bedeutet noch keine entsprechende Nachfrage. Der Breitbandanschluss ist für dessen Nutzer nur Mittel zum Zweck. Für die wirtschaftspolitische erwünschte Steigerung der Wirtschaftstätigkeit sowie zur Milderung des Stadt-Land-Gefälles kann es sinnvoll sein, exemplarisch bestimmte für den ländlichen Raum typische und attraktive Anwendungen zu fördern. Dabei kommt ein breites Spektrum von Anwendungen in Frage, wobei die Haushalte nicht nur als Nutzer (z. B. E-Learning), sondern teilweise auch als Anbieter (Hofverkäufe von Bauernhöfen) aktiv werden können.27
Über den Autor Prof. Dr. Herbert Kubicek, Jg. 1946, Studium der Betriebswirtschaftslehre an der Universität Köln mit anschließender Assistententätigkeit und Promotion über die organisatorische Gestaltung des Benutzerbereichs von computergestützten Informationssystemen (1974). Von 1977 bis 1987 Professor für Betriebswirtschaftslehre an der Universität Trier, seit 1988 Professor für Angewandte Informatik mit dem Schwerpunkt Informationsmanagement und Telekommunikation im Fachbereich Mathematik und Informatik der Universität Bremen sowie Geschäftsführer des Instituts für Informationsmanagement Bremen GmbH und wissenschaftlicher Direktor der Stiftung Digitale Chancen.
27
Ansätze dazu liefert u. a. ein vom Bundesministerium für Familie, Senioren, Frauen und Jugend gefördertes Projekt des Deutschen Landfrauenverbands „Landfrauen ONLINE. Das Projekt IT-Landfrauen.“ Deutschen Landfrauenverband, Berlin 2006.
Die Qualitätskette im TV-System und in den verschiedenen Ausspielformen
Dietrich Sauter, Harald Orlamünder
Geschichtliche Entwicklung Die Entwicklung im Fernsehen wurde lange Zeit von einem Gleichtakt der Endgeräteentwicklung und der notwendigen Funk-Übertragungstechnik geprägt. Das einfachste Modulationsverfahren wäre die Amplitudenmodulation gewesen; sie hätte den billigsten Fernsehempfänger ermöglicht, doch wäre damit die Sendeleistung nur schlecht genutzt worden. Der besten Lösung – der Einseitenbandtechnik mit unterdrücktem Träger – stand der Aufwand im Fernsehempfänger entgegen. Als Kompromiss fand sich die Restseitenbandmodulation mit übertragenem Bildträger. Im Laufe der Jahre wurden ständig Ergänzungen und Verbesserungen eingeführt. Dabei wurde immer auf Kompatibilität geachtet – das „alte“ Endgerät sollte von den Veränderungen (fast) nichts bemerken. Zu nennen sind hier: ņ Mehr Programme (ZDF, Dritte Programme): Das war nur über die Erschließung weiterer (höherer) Frequenzbereiche möglich (UHF). Sie waren allerdings technisch schwieriger zu beherrschen (komplexe HF-Technik, geringe Reichweite, starke Reflexionen usf.). ņ Einführung von Farbe: Hier wurde über den Kunstgriff der Frequenzverkämmung von Farbsignal und Helligkeitssignal erreicht, dass das Frequenzspektrum des Signals sich nicht verbreiterte. Die leichte Qualitätsreduktion des Schwarz-Weiß-Signals wurde hingenommen. ņ Einführung von 16:9: Auch dieser letzte große Schritt beim analogen Fernsehen ist rückwärtskompatibel – die zusätzliche Information wird in den bestehenden Kanal gepresst. Der „alte“ Fernseher zeigt ein in der Höhe reduziertes Bild.
118
Dietrich Sauter, Harald Orlamünder
Erwartung des Kunden Der Fernseh-Kunde ist heute eine extrem hohe Zuverlässigkeit und Verfügbarkeit gewohnt; das muss auch ein neuer Verbreitungsweg (z. B. IPTV) garantieren. Das Fernsehsystem wurde in der Vergangenheit meist ausgehend vom Wiedergabegerät definiert, also vom Fernseher selbst. Was alles auf ihm dargestellt werden konnte, wurde auch aufgenommen und prozessiert. Diese Regel ist bemerkenswert, da nur dann auch farbrichtige Bilder übertragen werden können. Allerdings sehen wir heute eine große Vielfalt an neuen Ausspielgeräten, die wenig mit den traditionellen Fernsehern gemein haben (Laptops, Handys, PDAs usf.) und diese Regel natürlich nicht mehr beachten. In den einzelnen Phasen der Entwicklung des Fernsehbildes ist es aber wichtig, den gesamten Workflow im Auge zu behalten. Und schließlich besteht das alte Paradigma des Gleichschritts der Möglichkeiten des Endgerätes und der Verbreitung nicht mehr: Bezüglich der Bildqualität preschen die Endgeräte vor; in den Läden stehen hochauflösende Fernseher, gespeist von HDTV-Quellen – das führt zur Enttäuschung daheim mit dem Standard-Fernsehsignal von der Antenne. Fazit: das TV-Signal muss besser werden!
Fortschritte in der Technik Über die Jahre haben wir ständige Verbesserungen in der Technik gesehen, die auch dem Fernsehen zugute gekommen sind. Digitalisierung in der Übertragungstechnik Wie in der Telekommunikation fand die Digitaltechnik in der Übertragungstechnik ihren ersten Einsatz. Vorteile sind die Unempfindlichkeit gegenüber Störungen und weitere Möglichkeiten des Netzbetriebes. Digitalisierung des Fernsehsignals Der erste Einsatz digitalisierter Fernsehsignale fand im Studio statt, der Teilnehmer erhielt noch lange nur analoge Signale. Waren die ersten Codiertechniken noch unkomprimiert (Puls Code Modulation, PCM) und benötigten damit eine hohe Bandbreite, begann 1988 die „Moving Pictures
Die Qualitätskette im TV-System
119
Experts Group“ (MPEG) mit der Entwicklung komprimierender Codierverfahren. Erst sie ermöglichten es, über beschränkte Bandbreiten digitale Videosignale zu übermitteln, letztendlich auch bis zum Kunden. Im Einsatz sind MPEG-1, MPEG-2 und MPEG-4. Man kann gespannt sein, was hier noch kommt. Der Vorteil von MPEG ist seine gute Skalierbarkeit (klarer Zusammenhang zwischen Bitrate und Qualität). Ausgefeilte Modulationsverfahren in der Übertragungstechnik Fortschritte in der Mikroelektronik erlauben immer komplexere Modulationsverfahren. So benutzen DSL-Anschlüsse heute eine Multiträgertechnik (Discrete Multi Tone, DMT), wobei jeder Träger QAM-moduliert wird (Quadratur Amplituden Modulation); dabei werden bis zu 32 000 Zustände unterschieden. Ähnlich positiv sind die Entwicklungen im Funk. So nutzt DVB-T eine Mehrträgertechnik (hier Orthogonal Frequency Division Multiplexing, OFDM, genannt), allerdings aufgrund der Störproblematik des Funkkanals mit einer QAM niedrigerer Stufenzahl. Einzug der Internet-Technik Der allgemeine Konsens ist: die Zukunft ist digital und viele Netze werden die IP-Technik nutzen – nicht unbedingt das „Internet“. Allerdings bringt so ein Paketmodus neue Herausforderungen, denen es zu begegnen gilt, z. B.: Paketverlust, Paketverzögerung und Schwankung der Paketverzögerung, allgemein (nicht ganz richtig) als „Jitter“ bezeichnet. All das führt dann schließlich zu komplexeren Teilnehmereinrichtungen (Set-Top-Box, TV-Gerät), was aber heute kein Problem mehr darstellt, da eine immer höhere Prozessorleistung und ein höherer Integrationsgrad helfen, diese Probleme zu lösen.
Die TV-Kette Das Fernsehen unterscheidet sich in einem Punkt grundlegend von der typischen Kommunikation des Telefons: während dort die Gesprächspartner für die Qualität der Inhalte selbst verantwortlich sind, das Netz nur die technische Übertragung der Signale bewerkstelligt, erwartet der Fernsehzuschauer ein in allen Teilen qualitativ hochwertiges Programm. Natürlich soll auch hier nur der technische Aspekt berücksichtigt werden, nicht der
120
Dietrich Sauter, Harald Orlamünder
künstlerische. Aber das geht beim Fernsehen über die reine Übertragung hinaus, denn schon bei der Produktion muss auf die Qualität geachtet werden, die letztendlich der Kunde sieht – und in einem HDTV-System sieht man einfach mehr Details! Daher wird nachfolgend die gesamte TV-Kette betrachtet mit den jeweiligen Komponenten und den Anforderungen. Produktion Szene-Set-Bühnenbild In der Darstellung der Fernsehbilder vor allem bei HDTV spielt die Quelle – das Bühnenbild, das Licht und die Maske der Mitwirkenden – eine entscheidende Rolle. Bei HDTV-Aufnahmen wird ein realistisches Bühnenbild verlangt, das Licht ist aufwendiger, der übertragbare Kontrastumfang ist höher als bei Standard-Defintion-TV. Und die Maske erlebt eine echte Herausforderung: Herkömmliche Schminke reicht nicht mehr aus, Fettschminke muss in der Qualität einer 35-mm-Film Maske verwendet werden. Weitere Verfahren wie „Airbrush“ sind im Kommen und revolutionieren das Schminken.1 Kameras Objektive und Kameras, Sensoren, Farbräume, Kontrast Das Farb-Fernsehsystem ist ein additives System: das Bild wird aus den Primärfarben Rot, Grün und Blau zusammengestellt. Die eingesetzten elektronischen Bildsensoren sind aber im gesamten sichtbaren Spektrum und darüber hinaus empfindlich. Das heißt, das Ausgangssignal liefert zwar einen Beitrag zur Helligkeit, nicht aber zu den einzelnen Farbinformationen. Sie werden nun auf zweierlei Weise gewonnen: durch eine Ein-ChipKamera mit entsprechenden Filtern oder durch eine Drei-Chip-Kamera. Das Ein-Chip-Prinzip hat auf dem Sensor einen Mosaik- oder ein Streifenfilter, der für die einzelnen Pixel Farbfilter darstellt. Die Farbinformation liegt also örtlich nebeneinander und ineinander verschachtelt auf dem Chip. In der Praxis wird der Bayer-Pattern oder das Streifenfilter verwendet. Beim Bayer-Pattern wird die Hälfte der aktiven Chip-Fläche mit der Farbe Grün belegt. Rot und Blau machen je ein Viertel der Sensorpixel aus. Das entspricht dem menschlichen Sehvermögen (VȜ-Kurve). Für jeden 1
Voinier, I. Maske: ein notwendiges Über, IRT-Symposium Newsroom IV NDR-Hamburg 25.-26. November 2009.
Die Qualitätskette im TV-System
121
Pixel fehlt beim Mosaikfilter aber die nicht ausgefilterte Farbinformation und muss aus der Umgebung mit erheblichem Aufwand errechnet werden. Beim Streifenfilter ist über den gesamten Sensor in der Reihenfolge Rot, Grün, Blau eine längs angelegte Maske aufgebracht. Will man die gleiche Farbauflösung wie bei einer Drei-Chip-Kamera erreichen, muss die Anzahl der Pixel auf das Dreifache der gewünschten Auflösung (PanavisionGenesis 1920 x 3) gesteigert werden. Für die Drei-Chip-Kamera wird der Lichtstrom in die Farben Rot, Grün und Blau durch Prismen mit dichroitischen Flächen aufgeteilt. Diese Methode ist historisch gesehen die ältere Technik, viele Fernsehröhrenkameras arbeiteten nach diesem Prinzip. Die anfallende Datenmenge ist etwa dreimal so hoch, liefert aber direkt die gewünschten vollen Farbinformationen. Für die Drei-Chiplösung sind spezielle Objektive notwendig, da sich neben der heute verwendeten kleineren Aufnahmefläche auch der Strahlenweg verlängert, so dass die vorhandenen sehr guten Filmobjektive nicht verwendet werden können. Die Farbsignale können direkt gewonnen werden, so dass ein aufwendiges Prozessing entfällt. Die Ein-Chip-Lösung hingegen wird dort bevorzugt, wo große Chipflächen eingesetzt und hohe Bildraten erwartet werden. Für die elektronischen Filmkameras ist jedoch ein deutlicher Trend hin zu Einchip-Kameras erkennbar.2 Schärfentiefe der elektronischen Kameras Die Schärfentiefe hängt im Wesentlichen von drei Faktoren ab: der Brennweite, der Blende und der Aufnahmefläche (Unschärfekreis). Die maximale Schärfentiefe wird erreicht mit einem Weitwinkelobjektiv, einer kleinen Blende (hoher Wert) und bei einer Entfernung, die auf „Unendlich“ eingestellt ist. Die minimale Schärfentiefe ergibt sich dann umgekehrt mit einem Teleobjektiv bei großer Blendenöffnung (kleiner Wert) und der Entfernungseinstellung im Nahbereich. Die Schärfentiefe der HDTV-Kameras ist gegenüber den üblichen Filmkameras größer. Durch die kleinere Abbildung wird der Unschärfekreis auch kleiner, aber die geringere notwendige Brennweite erhöht die Tiefenschärfe. Telezentrische Objektive, wie sie bei 2/3’’-Kameras eingesetzt werden, haben bildseitig eine höhere Schärfentiefe. Ein deutlicher operativer Mangel bei HDTV-Kameras ist die Defokussierung; die Unschärfe ist bei den HDTV-Kameras deutlicher zu sehen und 2
Popp, H.: Symposium HDTV-Kameras, 12.-13. Mai 2007 im Institut für Rundfunktechnik, München.
122
Dietrich Sauter, Harald Orlamünder
wirkt vor allem auch auf großen Bildschirmen sehr viel störender. Die Transparenz der Varioobjektive nimmt bei längerer Nutzung deutlich ab. In der Praxis werden Abfälle von einer halben Blende je Betriebsjahr beobachtet. Die Folge ist eine deutlich höhere dann aufzubringende Lichtleistung. Kameras der Premium-Klasse Speziell für das 2K-(4K)-Kino wurden Kameras entwickelt, die mit einer nativen hohen Auflösung schon am Chip diese Aufgabe erfüllen können. Die Kameras F23, F35 von Sony, Arriflex D20/D21, Panavision-Genesis, Dalsa-Origin, Dalsa Evolition, Viper und RedOne werden dieser Klasse zugeordnet. Die Vorteile der Premium-Kameras liegen klar auf der Hand: bekannt gute Film-Objektive, ein stabiles Auflagemaß und der bei den DoPs sehr geschätzte optische Sucher, auch wenn nicht alle Produkte alles realisiert haben. Das Wunderkind RedOne wurde schon im September 2007 erwartet3: Eine Ein-Chip-Kamera für alle Formate mit einem eigenen Aufzeichnungsformat.4 Der Workflow ist allerdings grundlegend anders als bei herkömmlichen Verfahren, so dass hier mit einer vollständig anderen Arbeitsweise gerechnet werden darf, die sehr viele Unwägbarkeiten birgt.5 HDV-Kameras HDV nutzt die gleichen Kassetten wie mini-DV, und es wird auch mit der gleichen Videodatenrate von max. 25 MBit/s gearbeitet. HDV-Kameras werden vor allem von Videojournalisten eingesetzt. Die Intimität der kleinen Kameras fordert aber Kompromisse bei der Qualität. Der Ton wie das Licht und auch der Schnitt werden vom Redakteur / Kameramann verantwortet. Kompromisse müssen sein, werden aber oft durch die Story gerechtfertigt.6
3
4 5 6
Schlierf, H.; ARD.ZDF medienakademie: HD-Objektive, Bregenz, 26.-27. Februar 2008. Sauter, D.: Das HD Event, Bregenz, 26.-27. Februar 2008. Geißler, J. / D. Sauter (2008): Red One & Co, in: CUT 9/2008. Frohwein, A. (2007): HD für Einzelkämpfer, in: CUT, Sommer.
Die Qualitätskette im TV-System
123
Perspektiven Die Drei-Chip-Kameras werden sicher noch verbessert werden, jedoch sind sowohl bei den Objektiven und bei den Farbteilern Kompromisse einzugehen. Die kleinen Flächen der Chips erfordern sehr viel bessere Objektive, die der Kunde nur selten auch bezahlen will. Bei den Ein-Chip-Kameras macht die erforderliche hohe RealzeitRechenleistung für die Farbinformation Probleme, so dass nicht die aufwendigsten und besten Algorithmen Verwendung finden, sondern mit der Bildfrequenz durchführbare Rechnungen eingesetzt werden müssen. Die hohe Schärfentiefe der Drei-Chip-Kameras wird bei den Dokumentarfilmern geschätzt, bei künstlerischen Kameramännern ist sie nicht so beliebt.7 Die Datenrate der meisten Aufzeichnungsmedien ist noch zu gering, damit können die hohen Auflösungen nicht aufgezeichnet werden. Die angebotenen Kompressionsformate mögen für den Heimgebrauch ausreichen, sind aber für den Profibereich unzureichend, und auch „long GOP“ – also eine Gruppe von Bildern innerhalb einer Bildsequenz eines MPEGSignals – ist keine Lösung, wenn das Produkt nachbearbeitet werden muss. Aber auch hier ist alles im Fluss. Die Premium-Aufnahmen werden daher fast unkomprimiert aufgezeichnet.8 Die hohen Qualitätsanforderungen werden nur erreicht werden, wenn bei der Aufnahme möglichst viele Fehler vermieden werden. Hier kann sehr viel Geld gespart werden, wenn der Grundsatz „we fix it in the post“ nicht allein eine Ausrede für mangelnde Vorbereitung ist. Das Aufzeichnungsformat 720p50 von ARD, ZDF, ORF, SRG und anderen europäischen Rundfunkanstalten ist deshalb zwingend notwendig, auch wenn manche Firmen es als „arme Leute HDTV“ abqualifizieren (man beachte 1080i hat nur 540 Zeilen im Zeitsegment). Aufzeichnungsformate Die vielfältigen Aufzeichnungsformate9, die heute angeboten werden, erfüllen bis auf wenige nicht die Anforderungen, die die Postproduktion an eine weitere und intensive Nachbearbeitung stellt. So werden bei einigen 7 8
9
Projekt „Tanzfilm“ der HFF-Potsdam (ARRI D20 und Sony 1500 gemischt). Fröhlich, J. / Baier, M.: Workflows in der HD-Produktion, Das HD Event, Bregenz, 26.-27. Februar 2008. Sauter, D. Videoformat, NESTOR-Kompetentnetzwerk Langzeitzarchivierung, 2009.
124
Dietrich Sauter, Harald Orlamünder
Aufzeichnungsformaten die Farbtiefe aber auch die horizontale Auflösung reduziert. Wichtig für eine gute Produktion ist, dass der Standard, in dem man aufgezeichnet hat, möglichst nicht verlassen wird. Eine Reduzierung von zehn Bit auf acht Bit erzwingt Fehler und ist daher zu vermeiden. Bei den Consumer-Formaten ist ein Wechsel des Algorithmus besonders kritisch, da die Bitrate meistens sehr gering ist. Ein Wechsel des Bildformates von progressiv nach interlace oder psf ist hingegen weniger kritisch. Das gilt nicht für den umgekehrten Weg, von interlace nach progressiv und sollte auf jeden Fall unterlassen werden. Postproduktion In der Nachbearbeitung gelten die gleichen Regeln wie bei der Aufnahme. Bei vielen Geräten wird jedoch oft eine Transkodierung vorgenommen, die der Benutzer nicht von vornherein bemerkt. Diese ungewollte Kaskadierung durch unbekannte Transformationen stellt einen erheblichen Risikofaktor dar. Immer mehr Anbieter von Off-Line-NachbearbeitungsSystemen integrieren die nativen Bildaufnahmecodecs in die SystemArchitektur, so dass eine Kaskadierung entfällt. Play-Out und Kodierung Bei der Produktion mit HDTV gibt es eine Vielfalt an Abtastrastern (und Kompressionsverfahren) und damit eine erhöhte Gefahr, Qualität zu verlieren. Nur das Bildformat 720p50 gelangt zum Zuschauer, alles andere muss transkodiert werden. Mit dem Format 720p50 spart man Datenrate bei der Ausstrahlung. Die Vorgeschichte, also die Produktionsart spielt eine wesentliche Rolle bei der Qualität der Ausstrahlung. Kaskadierung ist daher noch stärker als bei SDTV zu vermeiden. Archivierung, Langzeitarchive Die Langzeitarchivierung von Medien erfordert Speichermedien, die möglichst lange gelagert werden können, ohne dass sich die Eigenschaften elementar verändern. Die meisten der heutigen Träger erfüllen diese Anforderung nicht. Darum müssen Medien automatisch überprüft und bei Bedarf ausgetauscht und damit die Inhalte kopiert werden. In der Informationstechnik verwendete Träger werden deshalb in der Regel etwa alle sieben Jahre kopiert bzw. geklont. Bei häufiger Benutzung
Die Qualitätskette im TV-System
125
der Träger sind auch kürzere Zyklen nötig. Bei der analogen Aufzeichnung von Videosignalen haben sich die Aufzeichnungsformate alle fünf Jahre verändert. Die Lebensdauer des Speichermediums beträgt aber dennoch etwa 15 Jahre. Die Kosten der Langzeitarchivierung werden von fast allen verdrängt; vielleicht ist von unserer Generation in 50 Jahren weniger dokumentarisch verfügbar als aus dem Mittelalter.10 Diversifizierung der Verbreitungswege Die Verbreitungswege, die durch die Digitalisierung neu geschaffen werden können, sind bei weitem nicht so ergiebig, wie gemeinhin angenommen wird. In vielen Fällen wird eine optimale aber nicht realistische Versorgung propagiert. Die Motive der Mobilfunker, die die digitale Dividende nutzen wollen, liegen eigentlich offen auf der Hand. Die sonstigen noch freien Frequenzen werden nicht erwähnt. Werden bei der Übertragung die Grenzen der Bandbreite erreicht, so sinkt für jeden Teilnehmer die Anschlussrate, was für Firmen nicht wirklich förderlich ist. Will jeder im Internet Video schauen, dürften die heutigen und auch zukünftigen Bandbreiten nicht ausreichen, eine annehmbare Streaming-Qualität zu erreichen. Hier werden aber immer noch Versprechungen gemacht, die nicht einhaltbar sind. Die Hälfte des Kabels ist immer noch analog und wird meist über Satellit analog versorgt. Wie kann da ein Fortschritt eintreten, wenn die öffentlich-rechtlichen Rundfunkanstalten weiter analoge Transponder betreiben müssen? Diese erheblichen Mehrkosten verhindern auch die Einführung von HDTV. IPTV ist in aller Munde, nur leider nicht sehr kundenfreundlich, da die Standards fehlen. Wer den Anbieter wechselt, braucht ein neues Equipment. Die Qualität ist in den meisten Leitungen für HDTV auf max. zehn MBit/s begrenzt. Auch hier zeigen sich deutlich die Vorteile von Satellit und Antenne. Vergleicht man die Verbreitungswege für das Fernsehsignal, so zeigt sich eine stetig wachsende Vielfalt. Dabei können verschiedene Sortierkriterien angelegt werden: Signaltyp (analog oder digital), Medium (Funk, Kabel oder Glasfaser), Exklusivität (nur für TV-Verteilung oder im Mix mit anderen Diensten). Im Folgenden werden die Verbreitungswege gelistet mit kurzen Hinweisen zur Technik, Geschichte und Qualität.
10
Sauter, D.: HD-Archive, Das HD Event, Bregenz, 16.-18. März 2009.
126
Dietrich Sauter, Harald Orlamünder
Terrestrische Funkverteilung Die terrestrische ist der traditionelle Verbreitungsweg, mit dem der Siegeszug des Fernsehens 1952 begann. Mit DVB-T hat er 2008 den Schritt von der analogen zur digitalen Verbreitung vollzogen, einhergehend mit einer Vergrößerung der Programmvielfalt, denn Fortschritte in der VideoCodiertechnik einerseits und in der Modulationstechnik andererseits erlauben es, im Spektrum eines traditionellen Fernsehsignals mehrere digitale Fernsehprogramme unterzubringen. Über die Qualität des Fernsehsignals gehen die Meinungen auseinander. Ein Funkkanal ist generell empfindlich gegenüber Störungen, und die hohe Komprimierung des Fernsehsignals zeigt solche Störungen sehr deutlich (Artefakte). Kabelfernsehen Dem Wunsch, die entstandenen Antennen-Gemeinschaftsanlagen zu größeren Netzen zusammenzuschließen, stand das Monopol der Deutschen Bundespost entgegen. Der Ausweg war die Errichtung eines Deutschlandweiten Breitband-Kabelnetzes durch die Deutsche Bundespost. Nach der Liberalisierung im Telekommunikationssektor wurde dieses Netz verkauft und wird heute von wenigen großen und einer Vielzahl kleiner Kabelgesellschaften betrieben und versorgt 22 Mio. Haushalte. Die Verbreitung erfolgt in gleicher Art und Weise wie terrestrisch – analog in Restseitenbandmodulation, was den Empfang mit jedem Fernsehgerät erlaubt. Im oberen Teil des Frequenzspektrums werden auch digitale Programme angeboten. Die weitere Digitalisierung wurde und wird im Kabel aber nur zögerlich vollzogen. Das Problem liegt in der Bereitstellung der notwendigen Set-Top-Box für den digitalen Empfang. Die Qualität des Signals im Kabel ist in der Regel gut, vorausgesetzt das Netz ist korrekt aufgebaut und auch die Netzebene 5 (Antennendose bis Endgerät) benutzt Qualitätskomponenten. Satellit Die stärkste Konkurrenz zum Kabel ist die Verbreitung via Satellit. Die Investitionskosten für Parabolantenne und Satelliten-Empfänger sind gering und es entstehen keine laufenden Kosten (es sei denn, man nutzt ein Pay-TV-Angebot). Das in Europa am weitesten verbreitete ASTRA-System begann mit einer analogen Ausstrahlung, allerdings in Frequenzmodulation (FM) – auf
Die Qualitätskette im TV-System
127
dem Satelliten-Transponder sah man keine Notwendigkeit, Spektrum zu sparen. Dem gegenüber stand die gute Qualität der FM. Inzwischen nimmt auch hier die digitale Verbreitung zu, alleine frei empfangbar sind mehrere Hundert Programme. Die Qualität hängt von zwei Faktoren ab: dem Komprimierungsgrad (und damit der Bandbreite) für ein Fernsehprogramm und den Witterungsbedingungen. Der erste Faktor liegt in der Hand des Programmanbieters und ist oftmals sichtbar. Viele Programme wurden inzwischen verbessert, so hatte die ARD im Jahr 2008 in einer „Qualitätsoffensive“ einigen ihrer Programme mehr Bandbreite spendiert und damit die Qualität verbessert.11 Der zweite Faktor ist kaum beeinflussbar, allenfalls eine größere Antenne bietet mehr Systemreserve. IPTV Das Fernsehen über das Internet-Protokoll eine neue Spielart der Programmverteilung. Die Verbreitung ist zwar noch gering, man kann aber von einem steten Wachstum ausgehen. Technisch gesehen wird ein breitbandiger Internet-Zugang verwendet. Jeder Programmwunsch muss einer Instanz im Netz gemeldet werden, die dann den TV-Datenstrom dem Kunden zuführt. Datenschützer haben hier schon Bedenken angemeldet: das Netz weiß, was der Kunde anschaut. Die TV-Inhalte kommen in der Regel von einem Server, der in der Verantwortung des Zugangsnetz-Betreibers liegt, denn nur er kann die notwendige Qualität gewährleisten. Das ist einer der Hauptunterschiede zum WebTV, dem Abruf von TV-Inhalten „irgendwo“ im Internet. Aber IPTV bietet mehr Möglichkeiten als die reine Programmverteilung: Da der Breitband-Zugang einen Rückkanal aufweist, sind Interaktive Dienste möglich, vom Abruf von Filmen, dem „Video-on-Demand“ (VoD), bis zu interaktiven Spielen. Da die Übertragung über ein Paketnetz erfolgt, ist die Bereitstellung einer guten Qualität eine Herausforderung an die Technik, aber beherrschbar. Ein Problem stellen die langen Umschaltzeiten dar. Zusätzlich zu den durch das MPEG-Verfahren sowieso schon längeren Umschaltzeiten, erfolgt der Programmwechsel bei IPTV nicht lokal im Endgerät wie beim traditionellen Fernsehen, sondern durch eine Signalisierung zu einem Server, eine dortige Verarbeitung und Aktivierung eines Datenstroms zum Teilnehmer. Aber auch hier gibt es schon pfiffige technische Lösungen.
11
http://www.ard-digital.de/19674_1.
128
Dietrich Sauter, Harald Orlamünder
Interessant ist, dass die ITU im Jahr 2006 eine „Focus Group“ zu IPTV eingerichtet hat, die in einem umfangreichen Dokument zu allen Aspekten von IPTV Stellung nahm.12 Ziel ist, IPTV soweit zu standardisieren, dass die notwendige Set Top Box frei im Handel gekauft werden kann – ein Ziel von dem die heutigen IPTV-Lösungen noch weit entfernt sind. Zum Thema Qualität wurden einige interessante Zahlen festgelegt13, von denen einige nachfolgend gelistet sind: ņ Bitraten für MPEG-2-Main Profile at Main Level (MP@ML): LiveTV SD: 2,5 MBit/s, VoD und Premium SD: 3,18 MBit/s, LiveTV HD: 15 MBit/s. ņ Bitraten für MPEG-4 AVC (Main Profile at Level 3.0: LiveTV SD: 1,75 MBit/s, VoD und Premium SD: 2,1 MBit/s, LiveTV HD: 10 MBit/s. ņ Fehlerraten: für SD: max 1 Fehler/Stunde, für HD: max. 1 Fehler/ 4 Stunden. ņ Verzögerungszeit im Netz: max. 200 ms. ņ Jitter im Netz: max. 50 ms. FTTB/FTTH FTTH und FTTB sind derzeit stark in der Diskussion. Es ist allgemein anerkannt, dass der Glasfaser die Zukunft gehört. Die offene Frage ist „nur“: wer soll das Verlegen bezahlen. Aber darauf kann hier nicht eingegangen werden. Aus Sicht der TV-Verteilung könnte das Thema der Glasfaser ins Haus (FTTB) oder in die Wohnung (FTTH) als Unterkategorie im Kapitel IPTV behandelt werden, denn die Glasfaser bietet, wie ein schneller DSLZugang, eine breitbandige Anbindung des Kunden an die IP-Infrastruktur eines Netzbetreibers – und damit alle Möglichkeiten für IPTV. Allerdings hat die Glasfaser zwei Vorteile: erstens ist die mögliche Bandbreite sehr viel höher, so dass einem Kunden mehr und bessere (HDTV) 12
13
Siehe: http://www.itu.int/ITU-T/IPTV/index.phtml Die Ergebnisse der Focus Group sind inzwischen in die ITU-T SG13 überführt worden und werden dort in Form einer „Global Standards Initiative“ (GSI) weiter geführt (http://www. itu.int/ITU-T/gsi/iptv/). ITU-T Recommendation G.1080: Quality of experience requirements for IPTV services.
Die Qualitätskette im TV-System
129
Programme angeboten werden können. Noch interessanter ist aber die Möglichkeit, neben der bidirektionalen Kommunikation zusätzlich eine reine Verteilung von Informationen zu bieten. Dazu wird eine weitere Wellenlänge mit einem großen Frequenzband analog moduliert. Damit lassen sich die Standard-Fernsehprogramme wie seither verteilen, ohne Ressourcen im IP-Netz zu belegen. Diese Technik wird als „RF Overlay“ bezeichnet. Aus Sicht der technischen Qualität ist die Glasfaser unschlagbar, sie ist allen anderen Medien überlegen. Mobile-TV, „Handy-TV“ Das Fernsehen für Handgeräte hat sich bis heute nicht durchsetzen können. Eine vergebene Lizenz wurde zurückgegeben, da der kommerzielle Betrieb nicht startete. Bevor auf die möglichen Gründe eingegangen wird, müssen die technischen und die programmlichen Möglichkeiten analysiert werden. Für die Verbreitung der Fernsehsignale auf Handgeräte gibt es zwei prinzipiell unterschiedliche Verfahren. Die erste Möglichkeit nutzt eine rundfunkmäßige Verteilung von digitalen TV-Programmen. Mehrere Techniken konkurrieren: DVB-T, DVB-H (eine DVB-Variante für „Handhelds“), DVB-SH (eine Erweiterung von DVB-H unter Einbeziehung von Satelliten) und DMB (Digitale Media Broadcast, eine Erweiterung des digitalen Rundfunk DAB). Ein Mobilfunk-Endgerät benötigt also zusätzlich einen entsprechenden Empfänger. Dabei handelt es sich dann nicht um eine Integration der Dienste, sondern schlicht um ein multifunktionales Endgerät. Die zweite Variante benutzt den Mobilfunkkanal für die Verbreitung. Bei einem digitalen, breitbandigen Mobilfunk ist damit eine vollständige Integration der Dienste möglich. Nachteil ist die schlechte Ausnutzung der Ressourcen, denn ein TV-Programm an mehrere Nutzer benötigt für jeden Nutzer eigene Übertragungskapazität. Wenn also jeder über Mobilfunk Videos anschauen will, so dürften die heutigen Bandbreiten nicht ausreichen, eine annehmbare Qualität zu erreichen. Zwar wird auch hier die verfügbare Bandbreite ständig erhöht, aber es dürft noch einige Zeit dauern, bis dieses Ziel erreicht ist. Ein völlig anderes Thema betrifft die angebotenen Inhalte. War zuerst an eine Verbreitung der Standard-Fernsehprogramme gedacht, so wird immer klarer, dass das Mobile-TV zugeschnittene Angebote benötigt, die sowohl auf die Beschränkungen im Endgerät (geringe Bildschirmgröße) als auch auf die voraussichtlichen Nutzungen (in der Regel nur kurze Zeitspannen) Rücksicht nimmt. Vor diesen Hintergründen ist das Scheitern des ersten Versuchs erklärbar. Es ist aber damit zu rechnen, dass das Mobile-TV kommen wird, wo-
130
Dietrich Sauter, Harald Orlamünder
bei der Spielfilm in voller Länge auch in Zukunft in voller Schönheit auf einem großen Bildschirm genossen werden wird. Das Mobile-TV wird aber für kurze Informationen, Nachrichten usw. seinen Platz finden. Web-TV Dieses heute schon oft genutzte Medium bietet durch die Nutzung des „qualitätslosen“ Internet eben auch keine Qualität und wird daher nicht weiter betrachtet. Endgeräte Beim Fernsehzuschauer ist heute der Flachbildschirm Standard. Die Eigenschaften dieser Flachdisplays haben sich erheblich verbessert: So ist mit der 100-Hz-Technik der Schärfeeindruck der LCDs verbessert worden. Auch Plasmadisplays haben bei der Farbwiedergabe zugelegt. Für den Produktionsbereich erfüllt allerdings bisher noch kein Videomonitor der modernen Flachdisplaytechnik alle Anforderungen an einen Referenz- (Klasse 1) oder Kontroll-Monitor (Klasse 2). Ein Einsatz der Flachdisplays im Studiobereich kann damit erst nach genauer Abwägung des Einsatzgebietes und der Displayeigenschaften empfohlen werden. Die neuen Spezifikationen der EBU tragen hoffentlich dazu bei, die Qualität weiter zu verbessern. Bei den Displays der Laptops, der Handys und der PDAs wird weder die notwendige richtige Auflösung noch die Farbqualität erreicht.
Die Zukunft Lineare Programme bleiben erhalten, mehr noch durch die Bandbreiteneinsparung durch die Digitalisierung werden weitere lineare Anbieter auftauchen. Das propagierte „Auslaufmodell Fernsehen“ wird durch technische Neuerungen, wie den zeitversetzten Videorekorder (PVR) noch lange bestehen. Der Zuschauer kann auch über diesen Weg sein eigener „Programmdirektor“ sein. Der interaktive Teil ist stark begrenzt, wie die Vergangenheit zeigt, und nimmt auch dann nicht zu, wenn die heute Jungen ins Alter kommen. Hier steht Unterhaltung im Vordergrund, nicht Action. Inhalte sind nicht interaktiv konzipiert, außer man versteht unter Interaktivität das ausschließliche drücken von Knöpfen für Quizshows.
Die Qualitätskette im TV-System
131
Die Verbreitungswege nehmen weiter zu, wodurch aber auch die Wiedergabequalität sehr unterschiedlich sein kann. Die Metadaten sind der Schlüssel für das Wiederfinden der Inhalte im Archiv oder im allgemeinen Programmangebot. TV-Anytime ist schon lange in aller Munde, die notwenigen Metadaten sind aber ein Stiefkind. Deshalb werden elektronische Programmführer im Internet angeboten, die notwendige Verknüpfung mit den linearen Programmen ist nur rudimentär vorhanden. Es werden immer noch zu viele konkurrierende Modelle diskutiert. Die Internet-Technik wird weiter um sich greifen und vermehrt auch den TV-Bereich durchdringen. Dabei ist strikt zu unterscheiden zwischen dem WebTV ohne jegliche Qualitätsgarantie und einem IPTV-Dienst, der durch technische Maßnahmen dem Kunden die gewohnte Qualität liefern wird.
Über die Autoren Dietrich Sauter Prof. Dietrich Sauter, Dipl.-Ing., geb. 1943, studierte Elektrotechnik an der Technischen Hochschule München. Von 1974 bis 1983 war er Leiter des Rechenzentrums des Instituts für Rundfunktechnik (IRT), von 1983 bis 1996 Leiter der Datenverarbeitung und dann bis 2008 Leiter des Referats „Entwicklungsplanung und Öffentlichkeitsarbeit“ im IRT. Er ist Mitglied in der GI-Fachgruppe Echtzeitsysteme und PEARL sowie im Beirat des Studiengangs „Film- und Fernsehszenenbild“ an der Hochschule für Fernsehen und Film in München. Er ist zudem Honorarprofessor und Lehrbeauftragter an der Hochschule für Film und Fernsehen „Konrad Wolf“ in Potsdam/Babelsberg sowie für die ARD und das ZDF Korrespondent der Fachzeitschrift für „Fernsehen, Film und elektronische Medien“ (FKT). Harald Orlamünder Harald Orlamünder, geb. 1952, Studium der Nachrichtentechnik Universität Stuttgart, 1979 Mitarbeiter im Forschungszentrum der Standard Elektrik Lorenz AG (SEL) in Stuttgart (heute: Alcatel-Lucent Deutschland AG) mit Aufgaben im Bereich neuer Mikrorechner und Multiprozessorsysteme. 1985 Wechsel in den Bereich Netzstrategie und Standardisierung, später Abteilungsleiter Breitband-Netzgestaltung, -Netzevolution und -Netzübergänge. In dieser Zeit war er aktiver Teilnehmer an der internationalen Standardisierung (ITU, ETSI). Daran schlossen sich drei Jahre im Bereich
132
Dietrich Sauter, Harald Orlamünder
„Zentrale Unternehmensentwicklung“ an, in denen Themengebiete jenseits der reinen Telekommunikation auf Markt und Umsetzbarkeit untersucht wurden. Ab 2006 beschäftigte er sich mit den neuen Techniken zur Fernsehverteilungen (IPTV, Triple-Play). Erneut Teilnahme an der internationalen Standardisierung (ITU). Er ist Autor zahlreicher Veröffentlichungen und Bücher, leitet eine VDE/ITG-Fachgruppe und ist Mitglied in VDE/ITG und IEEE.
Zukunft der Mobilkommunikation – Wohin gehen wir?
Thomas Haustein
Der wachsende mobile Kommunikationsbedarf Kommunikation ist Grundlage der Interaktion zwischen Menschen und ermöglicht den Austausch von Informationen zwischen einem Sender und einem Empfänger. Klassische Kommunikationsformen mittels Sprache, Gebärden oder Skizzen beschränken den Abstand zwischen Kommunikationspartnern auf die natürliche Hör- oder Sichtweite. Der Austausch von Informationen über deutlich größere Distanzen oder die Aufbewahrung von Informationen über längere Zeiträume bedurfte der Verwendung von Informationsmedien, wie zum Beispiel Steintafeln, die beschrieben werden konnten, sowie einer Schrift, die mittels Konventionen die auszutauschende Information kodiert. Die Verwendung beständiger Materialen wie Stein ermöglichte es, die aufgezeichneten Informationen über lange Zeit, selbst über viele Generationen von Menschenleben aufzubewahren. Einen Durchbruch im Austausch von Informationen brachte die Verwendung von beweglichen oder mobilen Informationsmedien wie Papier. Ein Schriftstück wie ein Brief ermöglichte den Austausch von Informationen über weite Entfernungen, benötigte aber ein Transportsystem, etwa die Post; zudem mussten Sende- bzw. der Empfangsort vor dem Informationsaustausch bekannt sein. Dieser Umstand änderte sich grundlegend mit der Erfindung der Datenübertragung über Funkwellen. Durch die allseitige Ausbreitung der Funkwellen können mit entsprechenden Antennen und Sendeleistungen große Bereiche versorgt werden. Rundfunk und später Fernsehen waren die populärsten Anwendungen dieser Rundfunktechnik. Der nächste Schritt zur mobileren Nutzung der Kommunikationsmittel waren Funkgeräte, mit denen zwei oder mehr Nutzer miteinander kommunizieren konnten. Zu Zeiten der analogen Funktechnik bedeutete das aber, dass
134
Thomas Haustein
mehrere parallele Gespräche per Hand z. B. in der Frequenz voneinander getrennt werden mussten, um gegenseitige Störungen zu vermeiden. Die Standardisierung fest gepaarter Frequenzbereiche, die Einführung der digitalen Datenübertragung über Funk und die Miniaturisierung der Endgeräte eröffnete neue Möglichkeiten der drahtlosen mobilen Kommunikation. Die alltägliche Nutzung schnurloser Kommunikation ist zu einem festen Bestandteil der Informationsgesellschaft geworden. Die drahtlose Kommunikation ermöglicht es, sich beim Telefonieren frei im Empfangsbereich z. B. einer DECT Basisstation zu bewegen. Unter Verwendung eines zellularen Mobilfunknetzes wie GSM oder UMTS wurde mittlerweile eine fast flächendeckende Verbindung realisiert. Die Möglichkeit der Kommunikation von quasi jedem Ort zu fast jeder Zeit hat die Art und Weise der Interaktion und zu Arbeiten in der Informationsgesellschaft stark verändert und unterstützt den täglich zunehmend flexiblen Umgang mit der Ressource Zeit. Das letzte Jahrzehnt des 20. Jahrhunderts wurde durch die Verbreitung und Verfügbarkeit der mobilen Sprachübertragung dominiert und brachte eine neue Industrie mit rasantem Wachstum hervor. Analog folgt nun unaufhaltsam der mobile Datenverkehr mit immer höherem Datenaufkommen. E-Mail und Video-Chat auf dem Handy und mobiler Internetzugang sind gängige Applikationen auf modernen Hochleistungshandys, die mit zunehmend mehr Speicher und Prozessorleistung ausgestattet sind und somit in der Lage sind, übliche PCProgramme auch dort laufen zu lassen. Portable Computer wie Laptops sind mit einer Vielzahl Funkschnittstellen wie WLAN, UMTS oder Bluetooth ausgerüstet und ermöglichen die drahtlose Verbindung zu verschiedenen Funknetzen und Geräten. Während die Ausrüstung von Laptops mit mobilem Internet den Bedarf an verfügbarer Datenrate im zellularen Mobilfunk immens erhöht, erhöht sich gleichzeitig die Dichte von WLAN Stationen. Die Anzahl der über Funkschnittstellen kommunizierenden Endgeräte übersteigt mittlerweile die der Nutzer um ein Vielfaches. Allein das verdeutlicht die immense Bedeutung der mobilen Funktechnik für den zunehmenden Datenverkehr. Es ist ein gesellschaftliches Anliegen, den breitbandigen Internetzugang weiter auszubauen und so das Fundament für die Entstehung neuer Dienste und Branchen in der Informationsgesellschaft zu schaffen. Die Regierungen sowohl der Industriestaaten als auch der so genannten Emerging Economies haben das frühzeitig erkannt und unterstützen diesen Prozess mit langfristiger und gezielten Förderungen in Forschung, Entwicklung und den Ausbau notwendiger Dateninfrastruktur. Langfristiges Ziel sollte es sein, die Möglichkeiten, die sich durch den Zugang zum Internet ergeben, für jeden und möglichst jederzeit zu eröffnen.
Zukunft der Mobilkommunikation – Wohin gehen wir?
135
Funkfeldabdeckung und Interferenzbegrenzung zellularer Systeme Mobilkommunikation ist, obwohl für den Nutzer oft unsichtbar, weit mehr als die bloße Verwendung eines schnurlosen Telefons, wann immer man kommunizieren möchte. Um eine flächendeckende Versorgung des mobilen Funknetzes zu ermöglichen, werden Funkbasisstationen derart positioniert, dass ein dichtes Netz von Funknetzzellen entsteht, wobei die verwendeten Basisstationen in der Regel durch Kabel mit dem Telefonnetz bzw. Internet verbunden sind. Eine derartig zellulare Architektur mit einem entsprechenden Datennetzwerk und entsprechenden Protokollmechanismen ermöglicht es, dass Teilnehmer durch einen so genannten Handover-Mechanismus ohne Gesprächsunterbrechung von einer Funkzelle zur nächsten übergeben werden. Steigende Nutzerzahlen im Mobilfunk führen dazu, dass die verfügbaren Frequenzressourcen eines Mobilfunkbetreibers schnell zum begrenzenden Faktor für die Anzahl der gleichzeitig versorgten Nutzer oder die zur Verfügung gestellte Datenrate wird. Besonders deutlich wird das bei Funkzellen, bei denen sich z. B. viele Teilnehmer innerhalb von Gebäuden aufhalten. Moderne Gebäude sind oft mit Wärmeschutzverglasung ausgestattet, die zum Teil das Funkfeld stark dämpft, besonders im Bereich oberhalb von zwei GHz. Klassische Verfahren wie Repeater helfen zwar, den zusätzlichen Pfadverlust auszugleichen, schaffen aber keine zusätzlichen Funkressourcen. Vieldiskutierte Ansätze zur Schaffung neuer lokal verfügbarer Funkressourcen sind so genannte Femto-Zellen oder die Verwendung von Relay-Techniken. Während Femtozellen idealerweise einen separaten Zugang zum Backbone haben („local IP-Breakout“), müssen die durch sie verwalteten Funkressourcen mit den Outdoor-Basisstationen koordiniert werden, um gegenseitige Störungen zu vermeiden. Besonders bei starker Abschattung des Funkfeldes von außen können im Innern des Gebäudes Ressourcen der Outdoor-Basisstation wieder verwendet werden, wodurch quasi neue Ressourcen in der zusätzlichen und gut isolierten Zelle entstehen. Die Verwendung von Femto-Basisstationen stellt besonders an die Fähigkeiten zur Selbstorganisation nach Aufstellung und erster Inbetriebnahme, zum Teil durch den Kunden selbst, hohe Anforderungen. Die Möglichkeiten der klassischen Netzplanung durch den Netzwerkbetreiber sind hier begrenzt, und eine Einbindung der zusätzlichen Femto-Basisstation in das bestehende Funkumfeld muss störungsfrei und nach Möglichkeit ohne personellen
136
Thomas Haustein
Einsatz erfolgen können. Techniken der Self-Organizing-Networks (SON) gewinnen mehr und mehr an Bedeutung und werden als ein wichtiger Schlüssel zur Kostenreduktion beim Ausrollen der Netze und der Optimierung im Betrieb angesehen. Alternativ zur Verwendung von Femto-Zellen mit separatem Anschluss ans Backbone stehen besonders für die Phasen des initialen Netzausbaus, für z. B. 3GPP LTE Relaying, Techniken zur Diskussion. Dabei wird ähnlich einer Femto-Basisstation eine zusätzliche kleine Basisstation am Ort schlechter Funkfeldversorgung oder einem Hot-Spot installiert. Die Verbindung zum Backbone findet über Funk zur Basisstation statt, wobei so genanntes Self-Backhauling im eigenen Funkspektrum des Operators besonders auch aus dem Blickpunkt der hierarchischen Organisation der Relay-Technik interessant ist. Der Link zwischen Basisstation und Relayknoten kann durch geeignete Wahl des Aufstellortes und durch Verwendung von Richtantennen optimiert werden, und durch die deutliche Nähe des Relayknotens zu den Endnutzern ist die Funkfelddämpfung innerhalb der Relayzelle deutlich geringer als direkt von der Basisstation zu den Nutzern. Mit derselben Technik können auch Outdoor-Basisstationen an eine benachbarte Basisstation angeschlossen werden, falls nicht an allen Standorten ausreichend hochratige Verbindungen zum Backbone bestehen. Das kann den Aufbau des Netzes beschleunigen, und Investitionen in die Verlegung von Glasfaser zu allen Standorten können schrittweise je nach Datenratenbedarf getätigt werden. Wenn man sich vor Augen führt, dass nahtloser Übergang von einer Funkzelle zur nächsten bedeutet, dass sich die Funkfelder benachbarter Basisstationen überlappen, wird sofort deutlich, dass die Verwendung ein und derselben Ressource in Zeit oder Frequenz zu gegenseitiger Störung der Mobilfunkteilnehmer führt. Diese so genannte Interzellinterferenz wird schnell zum limitierenden Faktor im zellularen Mobilfunk, da hier Leistungserhöhung jeder einzelnen Basisstation keine Abhilfe schaffen kann. Analog zu vielen quer durcheinander sprechenden Menschen in einem großen Raum erhöht jeder seine eigene Lautstärke, die wiederum für benachbarte Gespräche in gleichem Maße die Störung oder Interferenz erhöht. Also führt bei so verkoppelten Kommunikationssystemen die Erhöhung des Signalpegels nicht zur Verbesserung des Signal-zu-InterferenzVerhältnisses, das für die Detektierbarkeit des Signals entscheidend ist. Klassische Methoden mit Interzellinterferenz umzugehen, sind reduzierte Frequenzwiederbenutzung, d. h. benachbarte Zellen verwenden nicht dieselbe Frequenzressourcen, was zu einer effektiven Reduktion der verfügbaren Funkbandbreite pro Funkzelle in GSM führte. Die Separation der
Zukunft der Mobilkommunikation – Wohin gehen wir?
137
einzelnen Nutzersignale innerhalb einer Funkzelle erfolgt in der zweiten Mobilfunkgeneration durch Zuweisung von dedizierten Frequenzbändern für die Aufwärts- und Abwärtsstrecke und die zugewiesene Zeitschlitze. Diese Zuteilung ausschließlich orthogonaler Ressourcen ermöglicht zum Teil hohe Reichweiten, begrenzt aber auch die Kapazität des GSMFunknetzes. Sollen mehr Nutzer versorgt werden, müssen aber mehr kleinere Funkzellen installiert werden. Hier setzt die Wirtschaftlichkeit schnell Grenzen bei der Skalierung zu immer kleiner werdenden Zellen. Ausgestattet mit mehr Bandbreite pro Basisstation und basierend auf CDMA Technik setzte man in der dritten Generation des Mobilfunks (UMTS) auf die Benutzung der verfügbaren Bandbreite für jeden Nutzer und verwendet zur Unterscheidung der Nutzersignale so genannte Codes, die so gewählt werden, dass sie optimale Kreuz- und Autokorrelationseigenschaften aufweisen. Durch die verwendete Bandbreite und die Mehrwegeausbreitung entstehen allerdings Kreuzinterferenzen zwischen den verwendeten Codes, die mit zunehmender Codezahl ebenfalls schnell in das Dilemma der Interferenzbegrenzung führen. Die so genannte Long-Term-Evolution von UMTS, oft kurz als LTE bezeichnet, verwendet das Verfahren des Orthogonalen Frequenz Multiplex (OFDM), womit die Probleme des breitbandigen Vielwegekanals technisch leicht zu handhaben sind und die verwendeten schmalbandigen Frequenzressourcen (OFDM-Subträger) innerhalb einer Zelle nicht miteinander interferieren. Zur Steigerung der spektralen Effizienz innerhalb jeder Funkzelle werden zum räumlichen Multiplex Multiple-Input MultipleOutput- kurz MIMO-Techniken eingesetzt. Sie erlauben es, dieselbe Zeitund Frequenzressource mehrfach zu benutzen und mit einem entsprechenden MIMO Empfänger wieder zu separieren. Wenn jedoch benachbarte Funkzellen dieselben Funkressourcen unkoordiniert verwenden, wird die Performanz des zellularen Gesamtsystems schnell wieder durch die Interzell-Interferenz begrenzt. Ansätze zur autonomen Inter-Cell-InterferenceCoordination (ICIC) ohne aktive Kommunikation zwischen benachbarten Basisstationen brachten bisher nicht die erhofften Verbesserungen zur Systemkapazität. Deutlich viel versprechender zeigen sich kooperierende Ansätze zwischen benachbarten Basisstationen oder Gruppen von benachbarten Basisstationen. Betrachtet man einmal die Abwärtstrecke, geht es hier um die Versorgung eines oder mehrerer Nutzer mit Datensignalen, die kohärent von mehreren Basisstationen gemeinsam abgestrahlt werden. Derartige Joint-Transmission Strategien stehen mittlerweile auf breiter Diskussionsgrundlage und werden in Standardisierungsgremien für LTE-Advanced un-
138
Thomas Haustein
ter dem Begriff CoMP (Cooperative Point-to-Multipoint) als starke Kandidaten auf dem Wege zur Erfüllung der ambitionierten ITU-Anforderungen von einem GBit/s Maximalrate pro Zelle angesehen. Zur Realisierung derartiger Joint-Transmission-Konzepte bedarf es ausreichender Informationen über den instantanen Funkkanal zwischen den Basisstationen und den Terminals. Liegt diese Kenntnis vor, z. B. über Kanalfeedback seitens der Nutzer, kann ein Joint-Precoder errechnet werden und an allen beteiligten Basisstationsantennen kohärent angewendet werden. Der effektive Kanal unter Einsatz des Precoders erlaubt es maximal so viele unabhängige Datenströme gleichzeitig auf den selben Ressourcen, aber dennoch untereinander interferenzfrei zu übertragen, wie das kooperierende System gemeinsame Sendeantennen hat. Unter idealer Kenntnis des Funkkanals ermöglicht diese Technik zellulare Systeme mit derselben spektralen Effizienz zu betreiben wie isolierte Funkzellen. Diese herausfordernden Techniken sind theoretisch gut verstanden und bereits in Einzelzellen erfolgreich umgesetzt worden. Eine Umsetzung im zellularen Kontext steht jedoch noch aus und wird bei Einführung in LTE-Advanced zu neuartigen Anforderungen an die Kommunikationsmöglichkeiten zwischen beteiligten Basisstationen führen.
Kanalangepasste Funkübertragung und effizienter Mehrnutzerzugriff Neben der grundsätzlichen Optimierung der Linkkapazität pro Funkzelle durch Auswahl der Wellenform, Bandbreite und Antennenzahl ermöglicht eine an die Kanalgüte der Ressourcen angepasste Datenübertragung einen optimalen Durchsatz besonders in Szenarien mit variabler Bandbreite pro Nutzer, frequenzselektiver Anpassung des Mehrantennenmodus an den verfügbaren Rang des Kanals und detektierbarer Interferenz aus anderen Zellen. Die Prinzipien der kanaladaptiven Übertragung wurden akademisch langjährig untersucht und finden jetzt in verschiedenen Standards wie LTE, IEEE 802.11n, IEEE 802.16 ihren Einzug. Wesentlich ist hierbei eine sinnvolle Auswahl der verfügbaren Modulations- und Codierstufen sowie so genannter Retransmissions-Verfahren, um fehlerhafte Datenpakete schnell auf den unteren Übertragungsschichten nachfordern zu können. Moderne hybride Retransmissions-Verfahren (H-ARQ) erlauben es, die nachgeforderte Information ebenfalls fein granular zu steuern. Zur effizienten Ausnutzung dieser Optimierungsmöglichkeiten bedarf es eines variablen Feedbacks seitens der Terminals für die Abwärtsstrecke, sowie
Zukunft der Mobilkommunikation – Wohin gehen wir?
139
weiterer Indikatoren, um z. B. die Mobilität des Terminals zu klassifizieren. Da selbst schnelle Linkadaptions-Regelschleifen im Millisekundenbereich Verzögerungen zwischen Kanalmessung und Anwendung der Kenntnis der Kanalgüte erleiden, kann die für statische und quasistatische Kanäle gewonnene Durchsatzsteigerung bereits bei moderaten Geschwindigkeiten degradieren – es sei denn, die Übertragungsstrategien werden entsprechend angepasst. Besonders bei breitbandiger Übertragung bieten sich Verfahren an, die einen Großteil der verfügbaren Frequenzdiversität ausnutzen können oder adaptiv räumlichen Multiplex und räumliche Diversität abtauschen. Im Übergangsbereich zwischen niedriger und hoher Geschwindigkeit bieten sich Kanalprädiktionsverfahren an, die die durch die Regelschleife entstehende Verzögerungszeit durch Interpolation aus der deterministischen Kanalvergangenheit effektiv reduzieren können. In diesem Sinne geht es eher um eine Vorhersage der effektiven Kanalgüte eines Links auf einer Ressource oder einiger Ressourcengruppe als um eine Vorhersage des zukünftigen Kanalzustands zwischen einzelnen Antennenpaaren. Die Kohärenzzeit des mobilen Funkkanals liegt abhängig von der Trägerfrequenz im Millisekundenbereich und bei hohen Geschwindigkeiten im Submillisekundenbereich. Somit setzt die Physik hier klare Grenzen in der Kanalvorhersage. Die wirklichen Gewinne der Prädiktionsverfahren werden im Bereich der Vorhersage der effektiven Kanäle inklusive Vorkodierung und Dekodierung in Frequenz, Raum und Zeit sowie der dabei verwendeten Modulations- und Codierverfahren erwartet. Die Lösung dieses Optimierungsproblems ist für den Einzelnutzer möglich, ist aber auf den Mehrnutzerfall nicht geradlinig anwendbar, besonders wenn es um einen Mix von moderat statischen und hoch mobilen Nutzern geht. Die Forschung in diesem Bereich soll eher wertvolle Hinweise auf Strategien der Linkadaption im Mehrnutzerfalle geben, die dann unter Berücksichtigung der dafür notwendigen Feedbackinformationsbits in der Aufwärtsstrecke und der benötigen Rechenkapazität in zukünftige Standards mit eingehen werden. Betrachten wir nun die zusätzlichen Anforderungen durch den gleichzeitigen Mehrnutzerzugriff auf das geteilte Medium Funkkanal. Während im Heimbereich für einen einzelnen oder einige wenige Nutzer der im WLAN-Standard IEEE 802.11a/g definierte Funkkanalzugriff über ein Protokoll der Kollisionsvermeidung mit zufälligem Neustart des nächsten Zugriffs sowie Regeln wie Listen-before-Talk durchaus akzeptable Datenraten erreichbar sind, führt eine Erhöhung der Nutzerzahlen auf einige Dutzend bis einige Hundert Nutzer pro Access-Point schnell zum Kollabieren des Zugriffs auf den Funkkanal. Nutzer blockieren sich gegenseitig
140
Thomas Haustein
und das verwendete Verfahren kann nicht durch eine geordnete Funkressourcenvergabe am Access-Point aufgelöst werden. Daher werden für Systeme mit hoher Nutzeranzahl pro Access-Point oder Basisstation Mehrnutzerzugriffsverfahren benötigt, die einen optimierten Zugriff auf das Medium zulassen. Hierbei spielt nicht nur der gleichzeitige Zugriff mehrerer Nutzer innerhalb eines Übertragungsrahmens eine Rolle, sondern wünschenswerterweise auch die Unterstützung der Anpassung der Datenrate pro Nutzer an seine Kanalkapazität und im Zusammenhang mit allen anderen Nutzern an den Lastzustand der Funkzelle. Dabei sind Mechanismen wie Mehrnutzerdiversität im Breitbandkanal ausnehmend wichtig, um die Kanalkapazität bestmöglich auszunutzen. Hierbei wird, wie beschrieben, von den Nutzern die Kanalgüte frequenzselektiv gemeldet. Unter Ausnutzung der Tatsache, dass die Funkkanäle verschiedener Nutzer meist unkorelliert sind, können jedem Nutzer seine besten Ressourcen zugewiesen werden und gleichzeitig mehrere Nutzer entsprechend einer gewählten Scheduling-Strategie versorgt werden. Die an der Basisstation durchgeführte Allokation der Ressourcen in Zeit, Frequenz und Raum wird im Allgemeinen als Mehrnutzer-Scheduling bezeichnet und trägt entscheidend zur Performanz des Gesamtsystems bei. Im Folgenden sollen einige herausfordernde Randbedingungen für derartige Scheduler aufgeführt werden. Zum einen sollen mehrere Nutzer, die gleichzeitig Daten in der zu ihnen gehörigen Warteschlange an der Basisstation anfordern, in geordneter Weise bedient werden, so dass möglichst jeder bedient wird und gleichzeitig die Gesamtkapazität des Mehrnutzerkanals gut genutzt wird. Dabei spielen Parameter wie Datenrate pro Nutzer, Burstiness der Datenübertragung und Latenz eine wesentliche Rolle. Die optimale Scheduling-Policy kann aus Sicht der Basisstation und aus Sicht der einzelnen Terminals durchaus unterschiedlich bewertet werden, je nachdem welche Performanz-Metrik gewählt wird. Aus Sicht des einzelnen Nutzers ist es wünschenswert, stets die für den aktuellen Kanalzustand maximal mögliche Datenrate bei minimaler Latenzzeit bereitgestellt zu bekommen. Aus Sicht der Basisstation bzw. des Mobilfunk-Providers zeigt sich ein ganz anderes Bild. Während in der Vergangenheit häufig noch Kosten pro Datenvolumen in Rechnung gestellt werden konnten, machte es für einen Operator durchaus Sinn, den Zelldurchsatz und damit den Umsatz zu maximieren. Dieser eher opportunistische Ansatz der Ressourcenvergabe führte zwar zu einer Maximierung des Systemdurchsatzes, benachteiligt aber systematisch Nutzer mit schlechteren Funkkanälen. Um neue Maße wie Fairness bei der Zuteilung von Ressourcen einzuführen, stehen eine Reihe von Scheduling-
Zukunft der Mobilkommunikation – Wohin gehen wir?
141
Algorithmen zur Verfügung. Einfache Ansätze wie Round Robin oder Proportional Fair Scheduling erfüllen das Ziel des fairen Zugangs zum Übertragungsmedium in erster Linie durch eine faire Verteilung der verfügbaren Ressourcen, mit einfachen Worten: bei zehn Nutzern, bekommt jeder Nutzer etwa ein Zehntel der verfügbaren Ressourcen. Das Resultat gibt allen Nutzern gleiche Zugriffschancen und teilt die verfügbare Kanalkapazität pro Nutzer ebenfalls durch zehn. Betrachten wir nun die neuesten Entwicklung in der Mobilkommunikation. Der aktuell verabschiedete LTE-Standard basiert auf „All IP-based Technology“, d. h. Daten und Sprache werden nicht mehr separat behandelt, weder im Netzwerk noch auf der Luftschnittstelle. Es muss vielmehr durch den Scheduler sichergestellt werden, dass Sprachpakete, mit nur einigen KBit/s Datenrate aber strengen Latenzanforderungen, stets und sicher mit den Nutzerterminals ausgetauscht werden, während nicht Echtzeit erfordernde Datenpakete durchaus höhere Latenz erlauben. Der notwendige Mechanismus der Dienstgütegarantie oder Quality-of-Service (QoS) wird zum wesentlichen Bestandteil zukünftiger Mobilfunknetze werden. Mobile Nutzer werden gleichzeitig auf mehrere Dienste gleichzeitig zugreifen, z. B. Skype, Internet-Browsing und Musik und Video-Downloads, ganz analog zum Nutzerverhalten daheim mit DSL. Während beim DSL Anschluss meist eine feste Bandbreite für jeden Nutzer zur Verfügung steht, kann diese Bandbreite einfach zwischen den aktuellen Diensten aufgeteilt werden unter Berücksichtigung simpler Priorisierungsvorschriften für z. B. VoIP. Im Mobilfunk müssen Ressourcen sowohl zwischen Nutzern als auch zwischen Diensten mit verschiedenen QoS Anforderungen derart verteilt werden, dass die vom Mobilfunkbetreiber garantierten QoS Dienste für möglichst viele Nutzer erfüllt werden können. Dabei kommt der beschriebenen Metrik Fairness eine neue und besondere Bedeutung zu. Wenn Fairness zuvor mehr als ein fairer Anteil an Ressourcen verstanden wurde, ist Fairness unter Berücksichtigung von verschiedenen QoS-Klassen in erster Linie so zu verstehen, dass möglichst viele Nutzer gleichzeitig mit der geforderten Datenrate und Latenz versorgt werden. Eine Lösung erscheint leicht, wenn man garantierte Ratendienste gegenüber Echtzeitdiensten priorisiert, doch führt eine zu hohe Summendatenratenforderung für Echtzeitdienste wieder zu dem Dilemma: wer mit welcher Rateanforderung soll letztendlich bedient werden und wer nicht. Hintergrund der Diskussion ist auch ein robustes Scheduler-Design, das immun ist gegen böswilliges Verhalten einzelner Terminals, die z. B. eine Echtzeit Video Conferencing Call fordern können und die dazugehörige QoS anfordern, in Wirklichkeit aber einen FTP-Download realisieren. Derartige
142
Thomas Haustein
Täuschungsstrategien sind mögliche Techniken, um den Durchsatz und die Priorität des Zugriffs auf den Funkkanal aus Sicht eines einzelnen Nutzers zu erhöhen und gegebenenfalls ein Endgerät als performanter gegenüber anderen erscheinen lässt. Zur Lösung dieses Interessenkonfliktes und um sicherzustellen, dass z. B. VoIP Services stets versorgt werden können, kann das Maß der angemessenen Ratenforderung eingeführt werden. Eine angemessene Rate liegt z. B. vor, wenn ein Nutzer eine Rate fordert, die einer ressourcenfairen Nutzung seines Funkkanals entspricht. Ein Scheduler kann dann prinzipiell garantieren, dass jedem Nutzer mindestens diese angemessene Rate zugewiesen wird. Ob ein Nutzer letztendlich sogar mehr Raten zugewiesen bekommen kann, hängt dann von der Anzahl der anderen Nutzer und deren Ratenforderungen ab. Somit berücksichtigt die Metrik der angemessenen Ratenforderung sowohl die Güte des eigenen Funkkanals als auch die aktuelle aktive Nutzerzahl in der Funkzelle. Mit Einführung eines neuen Performanzmaßes der Maximierung der Anzahl der bezüglich ihrer Rate zufrieden gestellten Nutzer – „Happy Users“ – kann gezeigt werden, dass derartige Scheduling-Strategien sicherstellen, dass niedrig-ratige aber sehr wichtige Dienste wie VoIP auch für Nutzer am Zellrand garantiert werden können und Nutzer mit unrealistischen Datenratenforderungen stets eine angemessene Rate im oben beschriebenen Sinne zugewiesen bekommen. Zudem begrenzt ein derartiges SchedulerDesign die Manipulation der erreichbaren Raten pro Nutzer auf eine ressourcenfaire Rate und erhält die Systemstabilität. Falls einzelne Nutzer Datenratenanforderungen unterhalb der angemessenen Rate stellen, können die restlichen Ressourcen zur Erfüllung von höheren Datenraten bei anderen Nutzern gebraucht werden. Das Verfahren ist sogar solidarisch im Sinne des gemeinsamen Ziels der Erfüllung von QoS Anforderungen bei möglichst vielen Nutzern. Aus der Beobachtung der zugewiesenen Rate können Nutzerterminals implizit ihre aktuell verfügbare angemessene Ratenforderung ableiten und individuell verschiedene Dienst priorisieren oder, falls möglich (wie z. B. bei skalierbarer Videokodierung), in der Rate skalieren. Das ermöglicht autonome Dienstgüteskalierung so, dass für den Nutzer der Dienst stets verfügbar ist, sich lediglich die Qualität z. B. des Videostroms an die aktuell für den Nutzer verfügbare Datenrate anpasst. Aktuelle Aktivitäten im Bereich der Video-Kodierung haben in der Rate skalierbare Video-Codecs im Standard H.264 festgeschrieben, das einen wesentlichen Beitrag zur Verfügbarkeit von Offline und Online TV- und Videodiensten auch für die mobile Kommunikation darstellt. SchedulerDesign in der eben beschriebenen Art wird zusätzlich zu Informationen aus der physikalischen Schicht, auch Informationen aus höheren Übertra-
Zukunft der Mobilkommunikation – Wohin gehen wir?
143
gungsschichten bis hin zur eigentlich Applikation verarbeiten können, um somit eine schichtübergreifende Gesamtoptimierung der Funkübertragung zu gewährleisten, damit möglichst viele Nutzer gleichzeitig mit verschiedenen Applikationen und den dazu gehörenden QoS Anforderungen versorgt werden können.
Cognitive Radio Ansätze – Paradigmenwechsel im Umgang mit Frequenzen Wenn wir uns vor Augen halten, dass die Versorgung mit Breitbanddatenzugängen zum Internet den steigenden Anforderungen eines stetig steigenden Datenverkehrs Schritt halten muss, wird schnell klar, dass die Techniken, die in den vorhergehenden Absätzen beschrieben wurden, zwar die Möglichkeit der optimalen Nutzung vorhandener Funkressourcen eröffnen, die Erhöhung der Gesamtzahl an Ressourcen aber z. B. durch noch mehr Antennen nicht beliebig erhöhen können. Ansätze wie Neuzuweisung der Frequenzbereiche durch die Regulierungsbehörde, um beispielsweise im Bereich unterhalb 800 MHz, einem bisher für den digitalen Fernsehfunk reservierter Bereich von 72 MHz Bandbreite, Mobilfunklösungen zur Versorgung ländlicher Bereiche mit Breitband-Internet über Funktechnologie zu ermöglichen, werden in Deutschland im Rahmen der Digitalen Dividende umgesetzt. Da durch die Verwendung des digitalen Fernsehfunks signifikant weniger Funkspektrum benötigt wird als das der klassischen Analogtechnik, kann das gewonnene Funkspektrum, das besonders für großflächige Versorgung geeignet ist, auch anderen Diensten als dem Fernsehfunk zugänglich gemacht werden. Eine weitere interessante und weltweit viel diskutierte, weiter gehende Lösungsvariante des Problems stellen Cognitive Radio (CR) Konzepte dar. Hierbei geht es um die Verwendung oder Wiederverwendung von örtlich oder zeitlich ungenutztem Funkspektrum durch ein zweites Funksystem, das zusätzliche Ressourcen benötigt. Da Funkfrequenzvergabe nationales Hoheitsgebiet ist, erfordert das aufwendige Abstimmungsprozesse weltweit und am Ende können die Bänder für bestimmte standardisierte Funkschnittstellen in verschiedenen Ländern unterschiedlich sein, wodurch Endgeräte mit Mehrbandfähigen HF-Frontends ausgestattet werden müssen, um weltweiten Einsatz zu ermöglichen. Die bisherige Politik der Vergabe von bestimmten Frequenzbreichen für bestimmte Funksysteme und dann weiter an bestimmte Dienstanbieter, wie digitales Fernsehen, Radio oder Mobilfunk, hat den Vorteil, dass das Frequenzspektrum exklusiv genutzt werden kann und eine gegenseitige Störung von verschiedenen
144
Thomas Haustein
Diensten oder Dienstanbietern durch die Frequenzseparation ausgeschlossen ist. Diese Exklusivität des rar verfügbaren Spektrums führte zu teilweise sehr hohen Kosten bei der Frequenzversteigerung im Vorfeld wie z. B. bei der Versteigerung der UMTS-Lizenzen. Als klarer Nachteil stellte sich weltweit heraus, dass bestimmte Frequenzbereiche nur selten und nicht vollständig genutzt werden, wobei internationale Studien herausfanden, dass etwa 80 bis 90 Prozent der verfügbaren Funkressourcen in Zeit und Frequenz nicht genutzt werden. Eine logische Konsequenz dieser Beobachtung ist der Vorschlag, eine Wiederbenutzung von ungenutztem Funkspektrum durch ein zweites Funksystem zuzulassen, wenn das primäre Funksystem entweder inaktiv ist oder nicht alle Funkressourcen zur Bereitstellung seines Dienstes verwendet. Derartige Ansätze, zusammengefasst unter dem Begriff Cognitive Radio, werden auf mittlere Sicht einen wesentlichen Beitrag zur besseren Ausnutzung des verfügbaren Funkspektrums für die mobile Kommunikation leisten. Die Koordination der Benutzung des Funkspektrums zwischen Primär- und Sekundärfunksystemen stellt dabei eine neue Herausforderung dar und wird seit 2004 international in der Cognitive Radio Working Group IEEE 802.22 bearbeitet. Dabei geht es um standardisierbare Regeln und Randbedingungen, unter denen die Einführung von Cognitive Radio Konzepten möglichst weltweit möglich ist, ohne die hohe Dienstgütegarantie eines exklusiven Spektrums für primäre Dienste zu kompromittieren. Aus technischer Sicht stellen Cognitive Radio Konzepte verschiedene neue Anforderungen an die Basisstationen und mobile Endgeräte. Die bereits vorhandene Vielfalt an implementierten Funkstandards, z. B. WLAN, UMTS, DVB-T oder Bluetooth, in ein und demselben Endgerät zeigt, dass parallele Benutzung verschiedener Funkstandards allerdings auf festen Frequenzen bereits State-of-the-Art ist. Die Bereitstellung neuer frequenzagiler HF-Frontends mit abstimmbaren Filtern ermöglicht die Verwendung ein und derselben Funktechnologie beispielsweise LTE auch in anderen Frequenzbereichen. Somit wäre die Einführung aus Sicht der verfügbaren HF-Hardware bereits auf kürzere Sicht möglich. Eine weitere Anforderung ergibt sich aus der Forderung, dass das Sekundärfunksystem das primäre System nicht oder nur innerhalb vereinbarter Grenzwerte durch Interferenz stören darf. Um das zu gewährleisten, benötigen die Basisstation und die Nutzer des Sekundärsystems zuverlässige Möglichkeiten des Spectrum Sensings, das eine ständige oder regelmäßige Beobachtung des Funkspektrums im Bereich der Cognitive Radio (CR) Anwendung garantiert, damit das CR das primäre System nicht durch Interferenz beeinträchtigt. Unter Berücksichtigung bekannter Probleme wie Hidden-Terminal-Problem oder
Zukunft der Mobilkommunikation – Wohin gehen wir?
145
Near-Far-Effekte müssen Lösungen erarbeitet werden, die eine Einführung der CR-Technologie ermöglichen. Aktuell werden dazu z. B. so genannte Coexistence-Beacons diskutiert, mit denen sich primäre und sekundäre Funksysteme authentifizieren und sich daraus bestimmte Parameter über Frequenzbelegung, Art der Funkschnittstelle usw. ableiten lassen. Alternativ werden auch ortsbezogene Datenbankeinträge über die pro Ort verwendete spektrale Belegung in Erwägung gezogen. Sie erfordern aber Kenntnis über den genauen Ort, GPS oder Triangularisierung innerhalb eines bestehenden Mobilfunknetzes und sind somit anfällig bei Nichtverfügbarkeit oder Manipulation der Ortskoordinaten. Eine Kombination von datenbankgestützten ortsbezogenen Informationen und dem Cognitive Spectrum Sensing sieht hierbei sehr viel versprechend aus. Zusätzlich zur verlässlichen Feststellung, welche Frequenzressourcen durch primäre Funksysteme nicht benutzt werden, stellen Protokolle zur Organisation der Koexistenz verschiedener CR-Systeme innerhalb desselben Frequenzbereichs eine wichtige Basis dar, um den Zugang zu den „neuen“ Ressourcen geordnet zwischen verschiedenen Funktechnologien und Dienstanbietern zu organisieren. Hier werden smarte Algorithmen und Verfahren zur Selbstorganisation (SON-Mechanismen) eine entscheidende Rolle spielen und die bisherige Art und Weise, mit Funkressourcen umzugehen, entscheidend verändern.
Über den Autor Dr.-Ing. Thomas Haustein, geb. 1968, studierte Physik an der Technischen Universität Dresden und Technischen Universität Berlin. Er diplomierte zum Thema Frequenzkonversion in Edelgasen zur Erzeugung von abstimmbaren Laserquellen im vakuum-ultravioletten Frequenzbereich. Nach dem Studium wechselte er in die Nachrichtentechnik mit dem Schwerpunkt echtzeitfähige Basisbandsignalverarbeitung für die drahtlose Kommunikation, insbesondere Mehrantennen-Mobilfunksysteme und kanalgüteangepasste Funkverbindungsoptimierung. Nach seiner Promotion an der Technischen Universität Berlin, im Jahre 2006, setzte er seine Forschungsarbeiten bei der Nokia Siemens Networks GmbH & Co. KG, ehemals Siemens AG im Bereich Future Radio Systems, fort. Seit 2009 leitet er die Abteilung Broadband Mobile Communication Systems & Networks am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut in Berlin. Er ist Autor zahlreicher Veröffentlichungen auf nationalen und internationalen Fachtagungen sowie in Fachzeitschriften und hält mehr als 30 Schutzrechte.
The Internet Architecture – Is a Redesign Needed?
Anja Feldmann
Introduction The Internet realizes William Gibson’s vision of Cyberspace: “A consensual hallucination experienced daily by billions of legitimate operators, in every nation …” As such it has changed the way that humans interact and provides the crucial foundation for a multitude of businesses. It has redefined expectations about how interactions between humans, computers and humans, and between computers function. Without question, almost all major industrial sectors take advantage of the Internet. This includes software companies such as Microsoft, SAP, and Google, as well as more traditional manufacturing companies (including the auto-motive industry), service providers (including banks and insurance companies), as well as the entertainment industry. While the Internet is currently viewed as widely successful for some of its participants, namely the users and the service providers such as Google, it also suffers from ossification in the underlying infrastructure.1 The ossification has multiple causes, among them the fact that since the Internet works quite well as it is, Internet Service Providers (ISPs) that operate the Internet have no incentive to change their ways. Indeed, users often demand high availability, which implies that ISPs tend to follow the principle: “Never touch a running system”. Moreover, ISPs suffer from a lack of business perspective due to the predominant charging modi for Internet access: flat rates for users and a combined price model consisting of a base rate and usage-based component for content providers. An additional complication is that traffic grows at a higher rate than that at which the network equipment cost decrease. 1
Clark, D. D. (1988): The design philosophy of the darpa internet protocols, in: Proc. ACM SIGCOMM.
148
Anja Feldmann
As a consequence, there is an ongoing debate within the ISP community over whether ISPs should become pure bit-pipe providers or if they should offer value-added services.2 In addition, some service providers have found that some application support inside the network can be useful for their applications and are investing in network infrastructure, e. g., Google.3 Indeed, over the last 20 years most of the innovations, e. g., novel applications, have taken place at the edge of the network while the core is almost untouched. However, the time has come to support novel applications with services inside network, e. g., via network based enablers, and to revisit the Internet architecture to add native support for security, mobility, quality of service, manageability, and debuggability, etc.4 To circumvent the difficulty of changing successful networks, the concept of overlays has proven to be very useful.5 For example, the Internet got started as an overlay on top of the phone network. However, overlays only enable changes at the edge. Thus, overlays by themselves are not sufficient to overcome the ossification of the network and enable innovation within the network. Therefore, many believe that it is necessary and timely to rethink the fundamental assumptions and design decisions, and start from scratch: via a Clean-Slate Design approach. In the following, Section 2, we briefly review the design goals and principles of the current Internet architecture and discuss why they hinder new solutions. To overcome these barriers a number of research efforts have been started to redesign the Internet, see Section 3. We give an overview over ongoing research initiatives in Section 4 and conclude with a summary and an outlook in Section 5.
2
3
4
5
Networks converging but financing uncertain, http://www.itmatters.com.ph/ ovum.php?id=102108a. Gill, Z. L. P. / A. Mahatini (2008): The Flattening Internet Topology: Natural Evolution, Un-sightly Barnacles or Contrived Collapse? Feldmann, A. (2007): Internet clean-slate design: what and why?, in: ACM CCR, 37, 3. Ratnasamy, S. / S. Shenker / S. McCanne (2005): Towards an evolvable internet architecture, in: Proc. ACM SIGCOMM.
The Internet Architecture – Is a Redesign Needed?
149
Review of the Current Internet Design To understand the origin of the challenges that the Internet is facing we have to understand what the Internet is. The Internet: What Is It? For the billions of users it is the applications: the Web, file sharing, chat, IP telephony, to name just a few. For the application developers and network operators it is the Internet protocol suite. For others it is the networking elements that make up the network. For another group it is building, operating, and maintaining the Internet infrastructure. Another group focuses on how to achieve commercial success in the Internet age. One key insight is that there is diversity everywhere: users are from all age groups – from kinds to grandparents, with different levels of expertise – from novice to expert users, with all kinds of devices – from the coffee make to the super computer, at all levels of bandwidth connectivity – from satellite modems to fiber, etc. This wide spectrum reflects the huge success of the Internet, but it also hints at the complexity and diversity of a system, which has grown from interconnecting merely a few supercomputers to interconnecting the world. Challenges Faced by the Internet Despite its success the Internet has failed to address the following challenges: ņ Security: Cybercrime, e. g., and cyberwar are real.6 Indeed, everyone including users, application developers, and network and service providers are worried about the lack of security in the Internet. ņ Mobility: The Internet offers hardly any support for application developers that target mobile applications and services. ņ Reliability, availability, scalability: Given the Internet’s crucial role in society it should be highly reliable and resilient so that it is al6
U. S. D of Justice, Computer Crime & Intellectual Property Section, http://www. usdoj.gov/criminal/ cybercrime/index.html; Franklin, J. et al. (2007): An inquiry into the nature and causes of the wealth of internet miscreants, in: Proc. ACM Computer and Communications Security.
150
Anja Feldmann
ways available in a seamless manner. However, even today the author experienced a network failure, which impacted not only the Internet connectivity but also the VoIP service necessary to contact the system administrator. Luckily, mobile phones do not yet use the same network. Indeed, our toolset for debugging the Internet is very limited, e. g., with respect to tools for root cause analysis. ņ Quality of Service: How and where to integrate different levels of quality of service into the network architecture and its impact on users and applications is still unclear. In this context we refer to the debate about network neutrality.7 ņ Economics: Moreover, there is the question of how network and service operators can continue to make a profit. These challenges are widely acknowledged and a lot of work has gone into developing solutions. For example, solutions for the routing scalability problem are developed within the research community8 as well as within the IETF context9. However, at best these are partial solutions to individual challenges. Moreover, they have not yet been deployed within the current Internet. To understand why we have to understand why the principles underlying the current Internet architecture hinder possible solutions. Why the Internet Fails to Fulfill the Challenges The current Internet architecture10 was designed to fulfill the following design goals: interconnect existing networks, survivability, support multiple types of services, accommodate a variety of physical networks, to allow distributed management, to be cost effective, to allow host attachment with a low level of effort and to allow resource accountability. This has resulted in the following design principles for the Internet: layering, packet switch7 8
9
10
E. g. Network neutrality faq, http://www.timwu.org/network_neutrality.html. E. g. Meisel, H. M. et al. (2008): Towards a New Internet Routing Architecture: Arguments for Separating Edges from Transit Core, in ACM Workshop HotNets: Hot Topics in Network; Vogt, C. (2008): Six/One Router: A Scalable and Backwards Compatible Solution for Provider-Independent Addressing, in: Proc. MobiArch. Internet Research Task Force – Routing Research Group, http://tools.ietf.org/ group/irtf/trac/wiki/RoutingResearchGroup. Clark (Fn. 1).
The Internet Architecture – Is a Redesign Needed?
151
ing, a network of collaborating networks, intelligent end-systems, as well as the end-to-end argument. The Internet, which adheres to these design principles, does not only fulfill the design goals but also meets a lot of needs of our society. However, when comparing the list of design goals with the list of challenges we can point out a huge gap. For example, consider security. The Internet is build on the concept of a trusted and cooperating system which is in contrast to a secure system which is build on distrust and allows for non-cooperating parties. In the current Internet naming system IP addresses have two meanings: they identify end-points at the transport layer, the identifier, and also specify the position of the system within the network, the locator. Most suggestions for enabling mobility thus either break the routing hierarchy or require the use of another IP address. The first threatens scalability. The latter either requires changes at all servers or a decoupling of addressing for the purpose of routing and addresses as used by applications, or a fundamentally new approach to naming. Network management is also still unresolved. IP has enabled us to build very fast routers for forwarding packets. However, the number of protocols that determine where to forward the packets to is still increasing and by now corresponds to an inverted hourglass. As a consequence we still do not understand how to set up a “control plane” in such a manner so that the network operates reliably, is easily manageable, debuggable, and still scales well. Moreover, network management is a topic that spans all network layers including the political. ISPs as well as service providers are continuously searching for opportunities to either increase revenue or to reduce costs, i. e., by investing in new technology (CAPEX) or by decreasing operational costs (OPEX). To understand the order of magnitude of the investment cost consider that AT&T plans to invest 17–18 Bn $ in 200911 compared to a revenue of 124 Bn $ in 200812 and Deutsche Telekom invested 8.7 Bn EUR compared to revenues of 62 Bn EUR in 200813. As such even a modest reduction in the
11
12
13
AT&T Reports Fourth-Quarter and Full-Year Results, http://www.att.com/gen/ press-room?pid =4800&cdvn=news&newsarticleid=26597. AT&T Reports Fourth-Quarter and Full-Year Results, http://www.att.com/gen/ press-room?pid =4800&cdvn=news&newsarticleid=26502. Annual Report DTAG 2008, http://www.download-telekom.de/dt/StaticPage/ 62/37/50/090227 _DTAG_2008_Annual_report.pdf_623750.pdf.
152
Anja Feldmann
investments of, e. g., 1 percent, can result in several billions of savings per year. As such both need to explore alternative business opportunities. Design for Tussles Another difficulty facing the Internet is that there are tussles among the various players. Let us revisit two examples from the paper “Tussle in Cyberspace: Defining Tomorrows Internet”.14 The goal of the Internet is to provide universal interconnection. Therefore, ISPs must interconnect. However, they are also competitors and therefore may not want to interconnect. Indeed, sometimes the Internet connectivity can suffer when ISPs de-peer other ISPs in order to renegotiate the terms of the connection.15 Another tussle relates to the interests of music fans that may want to exchange recordings vs. the rights owner that want to stop them. The music fans want to have their privacy protected while the rights owner wants to identify their actions. Among the tussles that directly relate to the Internet architecture are (i) anonymity, accountability and security, (ii) bulk data transfer and real-time communication, (iii) performance and functionality. As such any future Internet architecture has to be able to accommodate various parties with diverging interests.
Internet Architecture – Redesign There are two principal ways in which to evolve or change a system: ņ Incremental: a system is moved from one state to another with incremental patches. ņ Clean-slate: the system is redesigned from scratch to offer improved abstractions and/or performance, while providing similar functionality based on new principles. In the past 30 years the Internet has been very successful using an incremental approach. However, due to its success, ISPs now tend to follow the principle: “Never touch a running system”. Only a small number of opera14
15
Clark, D. D. et al. (2005): Tussle in cyberspace: defining tomorrow’s internet, in: ACM/IEEE Trans. on Networking. NANOG: North American Network Operator Group, http://www.nanog.org.
The Internet Architecture – Is a Redesign Needed?
153
tors are still willing or able to experiment on the current architecture. Therefore, the Internet suffers from ossification of the underlying infrastructure. Yet, some applications will benefit from support inside the network and service providers are starting to acquire their own network resources to enable this.16 Therefore, it might be time to explore a clean-slate approach consisting of: out of the box thinking, the design of alternative network architectures, and experimentation with the architecture in order to evaluate the ideas and to improve them as well as to give them a realistic chance of deployment either in a new system or incrementally on/in today’s network. Why now? The current set of design principles are intrinsic to the current Internet architecture and therefore hard to challenge and hard to change. Nevertheless, users demand answers for the challenges and tussles, individually and together, which are hard to address given these design principles. Furthermore, advances in technology have made new capabilities available: virtualization techniques, optical components, wireless networks, fast packet forwarding hardware, and significant computational resources. The Clean-Slate Approach Since the community does not know what a new architecture will look like, out of the box thinking is necessary. In fact, the ability to rethink the network and service architecture is likely to result in a different architecture – both for the forwarding plane and the control plane. Particular drivers include the current state of technology, a different set of design goals, different priorities, and, therefore, an alternative placement of functionality to resolve the tussles. However, a new network architecture is not sufficient in itself to address the network management questions, as network management includes the processes surrounding the network. Accordingly, it is important to give researchers a chance to experience the complexity of managing such networks themselves to induce them to explore alternatives. To evaluate any new architecture it has to be built and deployed. This is crucial to convince others that it is the appropriate solution. It is almost impossible to get a new idea adopted that has not yet been tried at scale and under realistic conditions. Therefore, we need an experimental facility to uncover real world constraints that researcher would otherwise tend to ignore. The purpose of the 16
Gill/Arlitt/Mahanti (Fn. 3).
154
Anja Feldmann
experimental facility is to explore yet unknown architectures. As such it has to be large enough and include different technologies. But most importantly, the success criteria of each experiment remain to be determined. While the experimental facility should attract real users and their traffic it cannot, however, be a production network, as the services are experimental and may fail. Some experiments may even break their part of the infrastructure. The experimental facility should enable parallel experiments with totally different networking architectures, e. g., different naming schemes, different layering approaches, and different forwarding strategies to co-exist and operate in parallel. At the same time, new services should be able to explore the new capabilities and should be made available to users who opt-in. Clean-Slate vs. Incremental While there are two principal ways in which a system can evolve they are not exclusive. Rather they go hand in hand. While clean-slate approaches are investigated the incremental improvements do not end. Moreover, innovative services and applications, which may be developed within the clean-slate process, may become mature enough to be commercially deployed on the existing Internet. An alternative is that the research community creates a new network architecture, which eventually replaces today’s architecture. Another possibility is that the insights gained from the process are taken up by commercial players and fitted back into today’s network architecture. The most “conservative” outcome may be that we learn that the current Internet architecture is the “best” possible solution. The most “radical” outcome is that the experimental facility, which allows multiple sub-system architectures and network services to co-exist, may become the blueprint for the future Internet. Virtualization: An Enabler to Overcome Internet Ossification Lets briefly examine the possibilities offered by virtualization techniques. In the last few years it has even become possible to virtualize full systems on commodity hardware using platforms such as Xen17 or VMware and this has revamped the server business. Router vendors, e. g., Cisco and Juniper, offer router virtualization and existing techniques such as MPLS, 17
Barham, P. et al. (2003): Xen and the art of virtualization, in: Proc. ACM Symposium on Operating System Prinicples.
The Internet Architecture – Is a Redesign Needed?
155
GMPLS, and VPNs offer some coarse-grained link virtualization. Overlays such as P2P networks over the Internet, e. g., a Bittorrent, can also be seen as a virtual network. But they suffer from the lack of sufficient isolation, as they usually cannot rely on dedicated network resources. VPNs, e. g., realized via MPLS, can also be seen as virtual networks. However, they suffer from a lack of programmability on the network nodes, which is required to run service-tailored networks or even other network protocols than IP. Even at the time of this writing, a significant part of the current Internet infrastructure either already supports or has the potential to support a basic form of network virtualization – at the link layer, e. g., MPLS is widely deployed and used. This opens the door to explore the potential business opportunities that virtualization can offer while overcoming the Internet ossification. The first observation is that it is possible to treat the current Internet as one future virtual network. Which implies that one does not have to “change the running system”. The next observation is that service providers can potentially operate their own virtual network according to their needs, e. g., to add a value added service. Note, a virtual network here may imply operating a non-IP network, which may require low-level access to each “slice” of each network device. We also point out that each of these virtual networks can be built and operated according to different design criteria, e. g., they could optimize a specific network metric like throughput, latency, or security. This is possible as long as the virtual networks are properly isolated, which requires (among other things) corresponding Quality-of-Service (QoS) support in the underlying network (the so called “substrate”). For example, one network might be optimized for anonymity while another one may be optimized for accountability. Virtual networks offer the added benefit to the service provider that their resources (e. g., node or link resources as well as the topology) can be increased gradually as the popularity of the service increases or decreased as the popularity declines. They offer the benefit of resource migration and resource aggregation to the network infrastructure provider. Network virtualization also appears to be the technique of choice on which to build experimental facilities. Nevertheless, network virtualization creates a tussle among service and infrastructure providers on who should operate and who should manage such virtual networks. The service providers are currently experts in operating a service but may not yet have the expertise in managing large-scale networks. Infrastructure providers usually do not own a global network infrastructure. In contrast, a single infrastructure provider may find it diffi-
156
Anja Feldmann
cult, due to overlapping business interests, to operate a global virtual network. As such, we may need additional business and management roles.
Research Initiatives Today the networking community faces the grand challenge of designing the networking environment for the next 10-20 years by re-designing the current Internet. To this end, we are observing that a number of research initiatives have been started in Germany (BMBF G-Lab), in Europe (EU Autonomic Communications Initiative, EU Future Internet Research and Experimentation (FIRE) initiative, as well as a number of research projects within the EU-IST Research Framework 7 (FP7) and the USA (GENI/FIND). In Asia, Korea started the Future Internet Forum18, currently consisting of 5 working groups: architecture, wireless, service, testbed and policy. Similar, in Japan, NICT19 and PIF20 focus on New Generation Networks and developing ultra-high-speed networking infrastructure. In addition, efforts such as the COST strategic action ARCADIA, the EIFFEL Think Tank21, and the Future Internet Initiative22 are aligning groups within Europe and are establishing ties to the projects in the other countries. The G-Lab project23, funded by the BMBF, consists of a Germany-wide research and experimental facility used to investigate the interplay between new technologies and the requirements of emerging applications. G-Lab focuses on providing a base to assess mechanisms, protocols and applications for a future Internet that are developed within studies focusing on specific aspects. Simultaneously, G-Lab provides an experimental facility to experiment and test mechanism and protocols at scale in a real environment. “Pluralism of networks” is a key and desirable concept, as it is anticipated that the Internet may not follow a single road.
18 19
20 21 22 23
Future internet forum, http://www.fif.kr. National institute of informations and communications technology, http:// www.nict.go.jp. Photonic internet forum, http://www.scat.or.jp/photonic/english/index.html. Eiffel: Evolved internet future for european leadership, http://www.fp7-eiffel.eu/. The future-internet-initiative, http://www.future-internet.eu. G-lab, http://www.german-lab.de.
The Internet Architecture – Is a Redesign Needed?
157
In Europe, several future Internet projects started as part of the 7th Framework Program (FP7).24 Two large integrated projects focus specifically on the future network architecture: Trilogy25 and 4WARD26. The goal of Trilogy is re-architect the Internet with a unified and flexible Internet control architecture. Unification is motivated by the fact that the three fundamental building blocks of the Internet – reachability, resource control and socio-economic control – have so far been considered independently or in pairs. However, these blocks must be unified to enhance flexibility while preserving the simplicity of the architecture. Moreover, the architecture must be designed to evolve at run time and therefore be built for choice. 4WARD aims at building an architecture that incorporates network virtualization, in-network storage, in-network management and abstractions for active paths. 4WARD wants to improve the ability to design interoperable and complementary families of network architectures. As such, it plans to enable the co-existence of multiple networks on common platforms through network virtualization, to enhance the utility of networks by making them self-managing, to increase their robustness and efficiency by leveraging diversity, and to improve application support by an information-centric paradigm in place of the old host-centric approach. In the USA, NSF is working on the Global Environment for Networking Innovations (GENI) initiative.27 GENI is as a NSF Request for Major Research Equipment to the U. S. congress, aiming to build an open, largescale, realistic experimental facility for evaluating new network architectures. GENI28 is to offer a shared, global facility designed to catalyze research on network architectures, services, and applications. The enabling technology for GENI is virtualization. Moreover, the National Science Foundation (NSF) has initiated the Future InterNet Design (FIND) research program29 within the NSF NeTS program which poses the following questions: What are the requirements for the global network of 15 years from now what should that network
24 25 26 27 28
29
See Fn. 22 for an overview. Triology: Architecting the future internet, http://www.triology-project.org. Fp7 4ward project, http://www.4ward-project.eu. GENI: Global environment for network Innovations, http://www.geni.net. L. P. (ed.) (2006): GENI design principles, in: Tech. Rep. 06-08, GENI Design Document; Clark, D. D. et al. (2006): GENI research plan, in: Tech. Rep. 0628, GENI Design Document. Future INternet Design (FIND), http://www.nsf.gov/pubs/2007/nsf07507.htm.
158
Anja Feldmann
look like and do? And: How would we re/conceive tomorrows global network today, if we could design it from scratch? Thus, FIND has a strong focus on defining an architecture for the Future Internet. Furthermore, it plans to encourage research teams to reach consensus on broad architectural themes. Detailed information about the projects is available on the NeTS/FIND Web site30 and regarding the earliest project in a summary by D. D. Clark31.
Summary and Outlook The community can benefit in many different ways from the process of searching for a new network architecture. For example, applications and services will be able to take advantage of the enhanced capabilities such as security and mobility provided by the new network. It should ease access to information and also enable applications, which we cannot even imagine today. Furthermore, new economic models may reshape the market place and thus business models. Players who react fast will have an advantage compared to competitors. Indeed, in the current Internet, we have service providers (e. g., Google) and ISPs. Hereby, an ISP offers customers access to the Internet by relying on its own infrastructure, by renting infrastructure from someone, or by any combination of the two. Service providers offer services on the Internet. In essence, ISPs provide a connectivity service, very often on their own infrastructure, even if they also rent out part of that infrastructure to other ISPs. For example, AT&T and Deutsche Telekom are mainly ISPs while Google and Blizzard are SPs. Despite this “dual-actor landscape”32, there are already three main business roles at play in the current Internet: (Physical) Infrastructure Provider, which own and manage their physical infrastructure substrate; connectivity provider, which provide bit-pipes and end-to-end connectivity to endusers; and service provider, which offer application, data and content services to end-users. However, the distinction between these roles has often 30 31 32
See Fn. 29. Clark, D. D. (2006): Summary of 2006 FIND proposals. Feamster, N. / L. Gao / J. Rexford (2007): How to lease the internet in your spare time, in: ACM CCR, 37, 1; Zhu, S. R. Y. / R. Zhang-Shen / J. Rexford (2008): Cabernet: Connectivity architecture for better network services, in: ACM CoNext Workshop on Rearchitecting the Internet.
The Internet Architecture – Is a Redesign Needed?
159
been hidden inside a single company. For example, the division inside an ISP that is responsible for day-to-day operation of the network is rarely the one that is planning and specifying the evolution of the network. When considering a Future Internet that is based on network virtualization and thus enables the concurrent existence of several, potentially service-tailored, networks, a new level of indirection and abstraction is introduced, which leads to the re-definition of existing, and addition of new, business roles, namely virtual network providers which are responsible for assembling virtual resources into virtual topologies and virtual network operators that are responsible for the installation and operation of the virtual networks.33 This opens on the one hand new business opportunities and on the other hand can isolate control functions. As such the resulting architecture may be less complex and therefore easier to manage and maintain than the current one. In the current Internet it is very easy to design new applications, e. g., new online games, at the application layer. While some are using P2P concepts, e. g., Skype, most still rely on the client-server paradigm. After all, P2P applications are plagued by some fundamental issues, such as overlay/underlay topological and routing mismatch34, inefficiencies in locating and retrieving resources, bandwidth asymmetry. As the popularity of such applications increases, e. g., World of Warcraft, they run into scalability and/or networking problems. For example the servers of some gaming application are hosted in some parts of the Internet with insufficient connectivity to the users of some other ISPs. One solution to overcome the networking as well as scalability problems is for the game operator to utilize the full capabilities of a future Internet architecture including its ability to utilize cloud-computing resources. With such capabilities an application designer can for example (a) use specialized network protocols optimized for the specific application; (b) integrate virtual hosting services of computing and storage resources across many ISPs; (c) delegate the tasks of dynamically moving his servers close to locations with many users to the service operators; (d) utilize network based enablers, e. g., to locate close by users. Therefore, a Clean Slate approach to the future Internet architecture promises to the network operators a renewed look at the network management aspect. By operating an experimental facility, new network manage33
34
Schaffrath, G. et al. (2009): Network virtualization architecture: Proposal and initial prototype, in: Proc. ACM SIGCOMM VISA Workshop. Seetharamann, S. / M. Ammar (2006): On the Interaction between Dynamic Routing in the Native and Overlay Layers, in: Proc. IEEE INFOCOM.
160
Anja Feldmann
ment and control capabilities will be developed. It is highly likely that these will also change the way that today’s enterprise networks, and even today’s Internet, are managed and therefore reduce daily operating overhead. Moreover, it has the potential to change the way that the control plane is handled in the long run and therefore have an impact on the operating and investment costs in the network itself as well as on network operation. To the application developer and service provider it promises the ability to overcome the ossification of the Internet and therefore access to the interior of the network. This is likely to create novel business opportunities as well as novel applications.
Über die Autorin Anja Feldmann, Ph. D., ist Professorin in den Deutsche Telekom Laboratories, einem An-Institut der TU Berlin. Von 2000 bis 2006 führte sie die Netzwerk Architektur Gruppe, zunächst an der Universität des Saarlandes, dann an der TU München. Zuvor (1995 bis 1999) war sie Mitglied des Networking and Distributed Systems Center bei AT&T Labs in Florham Park, New Jersey. Sie hat mehr als 50 Artikel publiziert, engagierte sich in mehr als 40 PCs, u. a. war sie Co-Chair der Sigcomm 2003, Co-PC-Chair der Sigcomm 2006 und IMC 2009. Sie ist Mitglied des wissenschaftlichen Beirates von Inria und dem Swiss Center on Mobile Information and Communication Systems sowie des technischen Beraterkreises von Endace. Anja Feldmann studierte Informatik an der Universität Paderborn sowie an der Carnegie Mello University in Pittsburgh, USA, wo sie 1995 promovierte. Ihre gegenwärtigen Forschungsinteressen sind Verstehen des jetzigen Internet und New Network Architectures.
Teil II: Personalisierung und Verantwortung
Teil II: Personalisierung und Verantwortung
163
Je mehr Handlungen über das Internet vollzogen werden, desto stärker drängt sich die Frage auf, nach welchen Werten sie beurteilt und verantwortet werden müssen. Das Bundesverfassungsgericht hat ein neues Grundrecht auf Schutz der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme aus den geschriebenen Grundrechten der Menschenwürde und der freien Entfaltung der Persönlichkeit abgeleitet. Es tritt neben das Grundrecht auf informationelle Selbstbestimmung und auf Schutz des Telekommunikationsgeheimnisses. Wolfgang Hoffmann-Riem, bis März 2008 Richter am Bundesverfassungsgericht und Berichterstatter im Verfahren zur Online-Durchsuchung erläutert in seinem Beitrag die Risiken, gegen die das neue Grundrecht Schutz gewährleisten soll, und beschreibt den Inhalt und die Schranken der neuen Grundrechtsgewährleistung. Meinungs- und Informationsfreiheit erfahren durch das Internet neue, bisher ungeahnte Entfaltungsmöglichkeiten. Sie sind zugleich aber die Grundlage für einen Missbrauch dieser Grundrechte durch die Verbreitung strafbarer oder schädlicher Inhalte. Per Christiansen von AOL Deutschland beleuchtet in seinem Beitrag das Problem der legitimen Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten im Internet. Er konzentriert sich auf die Frage, welche der potenziell zu sperrenden Seiten bei begrenzten Kapazitäten aus welchen Gründen zu sperren sind. Wie die grundrechtsförderliche Wirkung des Web 2.0 gewahrt und die grundrechtsgefährdenden Auswirkungen begrenzt werden können, untersucht Alexander Dix, der Berliner Beauftragte für Datenschutz und Informationsfreiheit, in seinem Beitrag am Beispiel von sozialen Netzwerken und Bewertungsportalen. Er analysiert sowohl die geltende Rechtslage als auch notwendige Ergänzungen des Persönlichkeits- und Datenschutzes. Verantwortung für eigenes Handeln im Internet wird durch die Unsicherheit erschwert, wer im Internet handelt und sicher identifiziert werden kann. Das ist für viele Kommunikationsvorgänge nicht akzeptabel. Der neue elektronische Personalausweis (ePA) wird einen Identitätsnachweis bieten, der sowohl in Onlineanwendungen und in lokalen Verarbeitungsprozessen eine einheitliche, verbindliche Übermittlung von Identitätsmerkmalen ermöglicht. Martin Schallbruch, IT-Direktor des Bundesinnenministeriums, erläutert Funktionsweise und Verwendungsmöglichkeiten des ePA.Für eine sichere Kommunikation im Internet sind nicht nur ein verlässlicher Identitätsnachweis sondern zusätzlich sichere Kommunikationsformen erforderlich. Eine verlässliche Infrastruktur für sichere Kommunikationsdienste sollen künftig Bürgerportale bieten: Plattformen für die elektronische Kommunikation, die eine Anmeldung, ein Postfach, einen
164
Teil II: Personalisierung und Verantwortung
Versanddienst (De-Mail), einen Authentifizierungsdienst, einen Verzeichnisdienst und einen Speicherplatz bieten, die alle ausreichend sicher sind und zusammen eine Infrastruktur für rechtssicheres Handeln im Internet bieten. Alexander Roßnagel, Professor für öffentliches Recht mit dem Schwerpunkt Recht der Technik und des Umweltschutzes, stellt das Konzept der Bürgerportale vor. Er war als Berater des Innenministeriums an seiner Erarbeitung beteiligt. An dieses Konzept der Bürgerportale knüpfen Carsten Busch von der Hochschule für Technik und Wirtschaft in Berlin und Friedrich Holl von der Fachhochschule Brandenburg an. Sie haben für die Konzipierung von Bürgerportalen eine Usability- und Akzeptanzstudie durchgeführt. In verschiedenen Projektstufen wurden über einen Methoden-Mix Aspekte von Akzeptanz und Nutzerfreundlichkeit eines De-Mail-Angebots getestet. Im Internet hinterlässt jeder Nutzer permanent Spuren, die ihm auf unterschiedlichen Wegen zugeordnet werden können. Die meisten Netznutzer möchten jedoch ihre informationelle Selbstbestimmung im Internet so selbstverständlich gewahrt wissen wie in der körperlichen Welt. Verschiedene Anonymisierungsdienste erlauben dies bereits. Der Beitrag von Sandra Steinbrecher, Andreas Pfitzmann und Sebastian Clauß, alle Informatiker an der TU Dresden, systematisiert und diskutiert grundsätzliche Anforderungen an Kommunikationssysteme und an die Verknüpfung von digitalen und physischen Identitäten.
Das Grundrecht auf Schutz der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme
Wolfgang Hoffmann-Riem
Verkoppelung von Risiken und Chancen beim kommunikativen Verkehr in der Netzwelt Der Wandel in der Netzwelt verlangt auch Reaktionen im Recht, sei es Wandel durch veränderte Auslegung und Anwendung vorhandener Normen, sei es durch Veränderung der Normen selbst.1 Für die grundrechtliche Prägung elektronischer Kommunikation hat sich ein erster durchgreifender Wandel durch veränderte Auslegung des Persönlichkeitsgrundrechts eindrucksvoll schon im Volkszählungsurteil des Bundesverfassungsgerichts von 1983 manifestiert, als es das Recht auf informationelle Selbstbestimmung kreierte.2 Es ist seitdem aus der deutschen Rechtsordnung nicht mehr wegzudenken und nicht nur im Datenschutzrecht i. e. S., sondern insgesamt im Bereich staatlicher und privater Überwachung, Registrierung u. a. folgenreich geworden, so beispielsweise auch in der Rechtsprechung des BVerfG zu den für präventive und repressive Aufgaben geschaffenen Sicherheitsgesetzen.3 1983 hatte die Furcht vor dem Überwachungsstaat im Zentrum politischer Proteste gestanden, obwohl es seinerzeit „nur“ um die anonyme Erfassung 1
2 3
Die folgenden Ausführungen verwenden zu wesentlichen Teilen Auszüge aus meinem in der Juristenzeitung 2008, S. 1010 ff. abgedruckten Beitrag zu der neuen grundrechtlichen Konkretisierung; dem Mohr Siebeck Verlag sei für die Einwilligung hierzu gedankt. BVerfGE 65, 1. Vgl. etwa BVerfGE 115, 320 ff. (Rasterfahndung) sowie BVerfGE, NJW 2008, S. 1505 ff. (automatische Erfassung von Kfz-Kennzeichen).
166
Wolfgang Hoffmann-Riem
von Daten zu statistischen Zwecken ging, keineswegs um personenbezogene Überwachungen. Die Computertechnologie stand noch in den Anfängen. Mögliche Gefährdungen von Freiheit durch den Daten sammelnden und verarbeitenden Staat, nicht aber die Chancen zu ungeheuren Erweiterungen kommunikativer Handlungschancen standen im Vordergrund der politischen Diskussion. Heute sehen wir eher die vielen Chancen, die der Computer im alltäglichen Leben sowie in der Wirtschaft ermöglicht (Ubiquitous Computing).4 Immer mehr Personen nutzen den Computer als Archiv, zum Schreiben, Rechnen und Verwalten, für Computerspiele, zum Chatten oder als Videothek. Telearbeit, Outsourcing, Callcenter u. ä. würden ohne Computer und deren vielfältige Vernetzung nicht funktionieren.5 Viele der heute genutzten Technologien und Dienste waren zur Zeit des Volkszählungsurteils unbekannt, etwa ISDN, RFID, WLAN, UMTS, ebenso Dienste wie E-Commerce, E-Government, Navigationssysteme. Auch Ermittlungsmethoden wie Kfz-Scanning oder die Online-Durchsuchung waren allenfalls in der Fantasie angekommen. Heute schaffen „intelligente Haushalte“ Möglichkeiten selbst zur Fernsteuerung von Backofen und Heizung. Die Rede ist nicht nur vom Internet der Personen, sondern auch vom „Internet der Dinge“6, also der vernetzten Kommunikation unterschiedlicher Geräte „miteinander“. Insbesondere das weltumspannende Internet erlaubt den Zugriff auf Informationen aller Art, darunter auch auf Software, die viele neue Dienstleistungen ermöglicht. „Cloud Computing“7 steht für den Zugriff auf Soft4
5
6
7
Zum Ubiquitous Computing s. statt vieler Kühling, J.: Datenschutz in einer künftigen Welt allgegenwärtiger Datenverarbeitung, in: Die Verwaltung, 40, 2007, S. 153-172, sowie die Beiträge in Roßnagel, A. / T. Sommerlatte / U. Wienand (Hrsg.) (2008): Digitale Visionen – Zur Gestaltung allgegenwärtiger Informationstechnologien, Berlin u. a., sowie in Mattern, F. (Hrsg.) (2007): Die Informatisierung des Alltags – Leben in smarten Umgebungen, Berlin u. a. Zu den vielfältigen Veränderungen etwa auch bei Dienstleistungen und Bürokommunikation vgl. statt vieler Rolf, A. (2008): Mikropolis 2010. Menschen, Computer, Internet in der globalen Gesellschaft, Marburg. Vgl. etwa Ullinger, H.-J. / M. ten Hompel (Hrsg.) (2007): Internet der Dinge, Berlin; Fleisch, E. / F. Mattern (Hrsg.) (2005): Das Internet der Dinge – Ubiquitous Computing und RFID in der Praxis, Berlin; vgl. auch Fn. 4. . Vgl. dazu David Chappel & Associates (2008): A Short Introduction to Cloud Platforms. An Enterprise-oriented View, San Francisco. Die „Wolke“ (cloud) steht als Metapher für die undurchsichtige, in ständiger Bewegung befindliche komplexe Infrastruktur, auf die netzbasierte Kommunikation zugreift, ohne dass die Nutzer sie näher kennen oder gar kontrollieren kann.
Das Grundrecht auf Schutz der Vertraulichkeit
167
ware im globalen Netz, ohne dass der Nutzer merken muss und kann, welche Software ihm wo „zu Diensten“ ist und welche seiner Handlungen und damit auch Gewohnheiten durch sie mit erfasst werden. Diskutiert wird heute nicht nur über Möglichkeiten des Missbrauchs durch den Staat, sondern auch durch Private, angeheizt durch Skandale – wie etwa bei der Telekom oder der Bundesbahn8 – oder durch den Blick auf die Datenfülle, die Google anhäuft und für kommerzielle Zwecke verwertet9. Chancen und Risiken: Das Spannungsfeld bleibt, auch wenn sich die Erscheinungsformen ändern. Auch andere Freiheitsrechte kennen ein solches Spannungsfeld: Sie ermöglichen Entfaltung, sind aber immer wieder gefährdet. Um beides in der richtigen Balance zu halten, kennen moderne Verfassungen Grundrechte und sie ermöglichen gerichtlichen Schutz der Betroffenen.
Vielfältige Gefährdungspotenziale Für den Schutz vor Eingriffen des Staates in die Netzwelt, aber auch vor Freiheitsverletzungen durch Private sind verschiedene Grundrechte grundsätzlich einschlägig, so die Grundrechte des Persönlichkeitsschutzes, der Kommunikationsfreiheit, des Schutzes der Wohnung, des Telekommunikationsgeheimnisses u. ä.10 In besonderer Weise betroffen ist die Freiheit kommunikativer Entfaltung als eine Freiheit, die im Zusammenwirken mit anderen, also in einer sozialen Beziehung genutzt wird. Soweit Kommunikation technologisch gestützt abläuft und weitere Akteure am Erfolg dieser Kommunikation beteiligt sind, muss mit spezifischen Gefährdungen gerechnet werden. Um sie abzuwehren, setzt effektiver Grundrechtsschutz und insbesondere Persönlichkeitsschutz auch den Schutz der technologischen Kommunikationsinfrastrukturen und deren konkreter Nutzung voraus. 8
9
10
Zu dem so genannten Telekom-Skandal s. Süddeutsche Zeitung v. 29. Mai 2008, S. 2, sowie vom 30. Mai 2008, S. 1 und Scherer, J.: Die „TelekomAffäre“: Neue Chancen für das Telekommunikationsgeheimnis?, in: MMR, 11, 2008, S. 433-434. Zur heimlichen Überprüfung von 173 000 Mitarbeitern bei der Bundesbahn s. Süddeutsche Zeitung, Nr. 23 v. 20. Januar 2009, S. 5. Dazu s. statt vieler Maurer, H.: Google – Freund oder Feind?, in: Informatik Spektrum, 30, 4, 2007, S. 273-278. Zu den Anwendungsfällen solcher anderen Grundrechte vgl. BVerfG NJW 2008, S. 825 ff. sowie Bäcker, in: Brink, S. / R. Rensen (Hrsg.) (2009): Aktuelle Rechtsprechung des Bundesverfassungsgerichts, 2009 (i. E.).
168
Wolfgang Hoffmann-Riem
Ein solcher Schutz hat nicht nur die Seite des technischen Funktionierens, sondern auch die soziale der Interaktion zu berücksichtigen. Beides kann normativ beeinflusst werden, etwa durch Sicherungen der Zugangsfreiheit, der Manipulationsfreiheit und generell durch Schutz vor einseitigem Machtgebrauch oder gar -missbrauch. Die verschiedenen Dimensionen der Funktionsfähigkeit verweisen auf unterschiedliche Gefahrenpotenziale und Gefährdete sowie auf unterschiedliche, die Funktionsfähigkeit sichernde oder gefährdende Akteure. Deshalb sind mehrdimensionale Konzepte des Freiheitsschutzes gefragt, die sich nicht nur auf die Abkehrfunktion von Grundrechten beschränken können.
Ausweitung des Schutzbedarfs – Ausweitung des Grundrechtsschutzes Das Bundesverfassungsgericht hat 1983 die seinerzeit mit der Volkszählung verknüpften Gefährdungen zum Anlass genommen, um das „Grundrecht auf informationelle Selbstbestimmung“ als Ausprägung des Persönlichkeitsgrundrechts aus Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG anzuerkennen. Es ging dabei von der Vorstellung eines autonomen Bürgers aus, der grundsätzlich selbstbestimmt über die Preisgabe, den Zugang und die Weiterverwendung von Daten entscheiden können sollte. Nur bei entgegenstehenden, hinreichend rechtsstaatlich begrenzten Eingriffsermächtigungen sollte davon abgewichen werden dürfen. Von dieser Prämisse der Selbstbestimmung ist daher auch das Datenschutzrecht maßgebend geprägt worden. 2008 hat das Bundesverfassungsgericht in seinem Urteil zur Online-Durchsuchung allerdings eine weitere Ausprägung dieses allgemeinen Grundrechts anerkannt11: Es geht um Persönlichkeitsschutz durch Gewährleistung der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme auch insoweit, als er nicht allein über das Grundrecht auf informationelle Selbstbestimmung gewährleistet werden kann. Aufgrund der Allgegenwart von Computern und ihrer Vernetzung kann Freiheitsschutz nämlich nicht mehr allein darauf setzen, dass der Einzelne dafür in Selbstbestimmung eigenständig sorgen kann. Deshalb kennt modernes Datenschutzrecht schon lange nicht nur Möglichkeiten zur Abwehr einzelner Datenzugriffe, sondern auch ergänzende Schutzmechanismen,
11
BVerfG, Urteil vom 27.2.2008, 1 BvR 370/07 u. a., NJW 2008, 822.
Das Grundrecht auf Schutz der Vertraulichkeit
169
etwa durch System- und Technikgestaltung.12 Da der einzelne Computernutzer jedoch nicht Herr der System- und Technikgestaltung ist, ist er darauf angewiesen, darauf zu vertrauen, dass die informationstechnischen Systeme so funktionieren, wie er es erwarten darf. Zu seinen Schutzinteressen gehören die Vertraulichkeit und Integrität der informationstechnischen Systeme, denen er sich anvertraut: Die Erwartung der Vertraulichkeit der computergestützten Information zielt insbesondere auf Schutz vor Einblicken des Staates oder Dritter; der Nutzer erwartet aber auch die Integrität dieser Systeme, insbesondere Schutz vor dem Eindringen Dritter oder vor Störungen und Manipulationen, etwa vor Verfälschungen, vor Ergänzungen durch weitere Daten oder durch Software, die den Umgang mit den Daten manipulieren kann. Einen darauf bezogenen Schutz hat das BVerfG in der Entscheidung zur Online-Durchsuchung insbesondere als Schutz gegen die Infiltration informationstechnischer Systeme behandelt. Ermöglicht eine Infiltration eines informationstechnischen Systems nicht nur, auf bestimmte Kommunikationsvorgänge oder einzelne Daten zuzugreifen, sondern auch auf alle weiteren im Kommunikationssystem „abgelegten“ oder über ihn erschließbaren (etwa beim Provider verfügbaren) Daten, so kann eine kaum im Einzelnen und evtl. auch typisiert nicht vorhersehbare Vielzahl und Vielfalt von Lebensumständen und persönlichen Charakteristika erfasst werden. Die „persönlichkeitsbezogene“ Streubreite des Zugriffs auf das informationstechnische System erhöht das Gefährdungspotenzial nachfolgender informationstechnischer Eingriffe und vermindert die Möglichkeit zur Gegenwehr durch eigenbestimmte Maßnahmen. Allein dadurch, dass der Einzelne sich gegen konkrete Datenabrufe und die Verwertung dieser Daten rechtlich wehren kann, kann Schutz gegenüber derartig breit gestreuten Gefährdungen nicht mehr effektiv gesichert werden. Der Schutz der Vertraulichkeit und Integrität informationstechnischer Systeme wäre allerdings unzureichend, wenn er nur auf die Abwehr (nicht gerechtfertigter) staatlicher Eingriffe gerichtet wäre, auf die sich die Entscheidung zur Online-Durchsuchung begrenzen konnte. Wichtig sind vielmehr auch Vorkehrungen zur Gewährung von Schutz durch den Staat, sei es durch Erfüllung der in Grundrechten enthaltenen subjektiven Schutzansprü-
12
Zum Systemschutz und zu seinen unterschiedlichen Facetten s. statt vieler Albers, M. (2008): Umgang mit personenbezogenen Informationen und Daten, in: Hoffmann-Riem, W. / E. Schmidt-Aßmann / A. Vosskuhle (Hrsg.): Grundlagen des Verwaltungsrechts, Bd. II (GVwR II), München, § 22, Rn. 102 ff.
170
Wolfgang Hoffmann-Riem
che und gegebenenfalls entsprechender Schutzpflichten13, sei es in Ausgestaltung der objektiv-rechtlichen Vorgaben der Grundrechte14. Schutzdimensionen außerhalb des rein abwehrrechtlichen Schutzes der Grundrechte treten umso eher in das Zentrum grundrechtlicher Garantien, je mehr die realen Voraussetzungen der Freiheitsausübung der Bürger einerseits durch den Staat, andererseits durch Private oder im Zuge von Kooperationsakten zwischen Staat und Privaten15 geschaffen und erhalten werden, aber gegebenenfalls auch von ihnen in Frage gestellt werden. Die bisher vom Bundesverfassungsgericht getroffenen Entscheidungen zu diesem Grundrecht beziehen sich auf Gefährdungen, die durch Datenerhebungen bewirkt werden, einerlei ob sie punktuell oder fortlaufend, im Einzelfall oder massenhaft durchgeführt werden. Die grundrechtlich gebotenen Schutzvorkehrungen begrenzen sich allerdings nicht auf Maßnahmen der Erhebung, Speicherung, Verwendung und Weitergabe der auf sie bezogenen, individualisierten oder individualisierbaren Daten16, sondern erstrecken sich auch auf (organisatorische, verfahrensmäßige, systemische u. ä.) Voraussetzungen dafür, dass derartige Erhebungen und nachfolgende Maßnahmen den grundrechtlichen Vorgaben entsprechen oder gegebenenfalls unterbleiben. Hier wird deutlich, dass der Schutz informationeller Selbstbestimmung schon auf der Ebene der Grundrechtsgefährdung ansetzt und deshalb durch Maßnahmen zur Verringerung solcher Gefährdungen bewirkt werden kann. Auch wo Schutzvorkehrungen – wie etwa Maßnahmen zum Systemdatenschutz17 – der Datenerhebung vorgelagert sind, handelt es sich um Maßnahmen zur Vorbeugung gegen Datenbeeinträchtigungen – es geht dann insbesondere um Kontextsteuerung und -gestaltung. 13
14
15
16
17
Zu Schutzpflichten allgemein s. etwa BVerfGE 39, 1, 42; 46, 160, 164; 56, 54, 73; 115, 118, 152. Zutreffend etwa Stögmüller, T.: Vertraulichkeit und Integrität informationstechnischer Systeme in Unternehmen, in: CR, 7, 2008, S. 435-439; s. auch Hornung, G.: Ein neues Grundrecht, in: CR 5, 2008, S. 299-306; Kutscha, M.: Mehr Schutz von Computerdaten durch ein neues Grundrecht?, in: NJW, 15, 2008, S. 1042,-1044; Sachs, M. / T. Krings: Das neue Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme, in: JuS, 2008, S. 486-490. Allgemein dazu s. – statt vieler – Schulze-Fielitz, H.: Grundmodi der Aufgabenwahrnehmung, in: GvR I, 2006, § 23, insbesondere Rn. 64 ff., 91 ff. Zu entsprechenden Schutzanliegen vgl. BVerfGE 65, 1, 43; 67, 100, 143; 84, 239, 279; 103, 21, 33; 115, 166, 190; 115, 320, 341 ff. Vgl. Fn. 12.
Das Grundrecht auf Schutz der Vertraulichkeit
171
Allerdings: Datenschutz durch Systemgestaltung ist nicht identisch mit einem Schutz des informationstechnischen Systems (wie auch immer es konkret gestaltet ist) vor dem Zugriff auf das System selbst und den in der Folge ermöglichten Datenzugriffen und -verwendungen. In dem Urteil zur Online-Durchsuchung ist das Gericht von der Prämisse ausgegangen, dass der bisher für das Grundrecht auf informationelle Selbstbestimmung konzipierte Schutz nicht ausreicht, um auch das für den Persönlichkeitsschutz wichtige Vertrauen in die Funktionsfähigkeit der zur Kommunikation eingesetzten eigenen informationstechnischen Systeme hinreichend zu schützen. Der grundrechtliche Schutz vor der Erhebung und weiteren Nutzung personenbezogener Daten greift zu kurz, wenn er nicht auch Schutz vor dem Zugriff auf das informationstechnische System selbst umfasst, das zur kommunikativen Entfaltung genutzt wird, auf dessen ungestörte Funktionsweise regelmäßig vertraut wird und bei dessen Infiltration oder gar Manipulation Gefahren für den Persönlichkeitsschutz entstehen, die über den Schutz der erhobenen Daten selbst nicht hinreichend abgewehrt werden können. So bewirken die Infiltration eines komplexen informationstechnischen Systems mit der Möglichkeit zur Manipulation seiner Funktionsweise oder der Einbau von Software zur Veränderung der von dem System verarbeiteten personenbezogenen Daten und übermittelten Kommunikationsvorgänge eigenständige Gefahrenquellen. Die wirkungsvolle Abwehr solcher Persönlichkeitsgefährdungen fordert eine (Vor-)Verlagerung des Schutzes in den der eigengenutzten18 Infrastruktur. Durch Infiltrationsmaßnahmen wird diese für Fremdbestimmung geöffnet. Schutzbedarf gegenüber solchen Infiltrationen besteht schon, bevor ein Zugriff auf bestimmte Daten erfolgen kann oder erfolgt19, setzt sich aber fort, wenn es zu einem solchen Eingriff kommt.
18
19
Das Bundesverfassungsgericht benutzt demgegenüber den Begriff der „eigenen“ informationstechnischen Systeme. Das könnte den irrigen Eindruck erwecken, als ginge es um sachenrechtliche o. ä. Zuordnungen. Das Attribut „eigengenutzt“ verdeutlicht, dass es nicht um die rechtliche Stellung des Betroffenen im Hinblick auf bestimmte Systemkomponenten oder gar das gesamte System geht, sondern um den funktionalen Kontext der Nutzung zu eigenen, nämlich auf die eigene Selbstentfaltung gerichteten Zwecken. Zutreffend Petri, T.: Unzulässige Vorratssammlung nach dem Volkszählungsurteil? Die Speicherung von TK-Verkehrsdaten und Flugpassagierdaten, in: DUD, 11, 2008, S. 446.
172
Wolfgang Hoffmann-Riem
Spezifische Gefahrenlagen bei dem Zugriff auf informationstechnische Systeme Dem Risiko, dass aufgrund solcher Infiltrationen auf leichtere Weise als bisher bestimmte Daten erhoben werden können, könnte in vielerlei Hinsicht zwar auch durch einen Ausbau des bisherigen Grundrechts auf informationelle Selbstbestimmung – ergänzend auch durch Art. 10 bzw. 13 GG – begegnet werden.20 Dem Bundesverfassungsgericht schien es allerdings vorzugswürdig, auf die Wurzeln des Grundrechts auf informationelle Selbstbestimmung zurückzugehen und das dadurch in den Blick genommene allgemeine Grundrecht auf Persönlichkeitsschutz weiter auszudifferenzieren. Die Besonderheit der Gefährdungslage und damit eine mögliche Rechtfertigung einer eigenständigen Grundrechtskonkretisierung seien im Folgenden an einzelnen Hinsichten illustriert.
20
Das ist die von weiten Teilen der Literatur immer noch präferierte Position. Aus der zur Entscheidung des BVerfG eher kritisch eingestellten Literatur s. etwa Britz, G.: Vertraulichkeit und Integrität informationstechnischer Systeme, in: DÖV, 2008, S. 411-415; Sachs, M. / T. Krings: Das neue „Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme, in: JuS, 2008, S. 482-485; Eifert, M.: Informationelle Selbstbestimmung im Internet, in: NVwZ, 2008, S. 521-523; Kutscha, M.: Mehr Schutz von Computerdaten durch ein neues Grundrecht?, in: NJW, 2008, S. 1042-1044; Volkmann, U.: Anmerkung zum Urteil des BVerfG vom 27. 2. 2008, 1 BvR 370/07 und 1 BvR 595/07 – Online-Durchsuchung, in: DVBl, 2008, S. 590 ff.; Lepsius, O. (2008): Das Computer-Grundrecht: Herleitung – Funktion – Überzeugungskraft, in: Roggan, F. (Hrsg.): Online-Durchsuchung, Berlin, S. 21-56; Bull, H. P.: Meilensteine auf dem Weg des Rechtsstaates, in: Jahrbuch Öffentliche Sicherheit 2008/2009, S. 317-331; Hoeren, T.:Was ist das „Grundrecht auf Integrität und Vertraulichkeit informationstechnischer Systeme“?, in: MMR, 2008, S. 365-366. Im Grundsatz und vielen Einzelheiten zustimmend etwa Hornung, G.: Ein neues Grundrecht, in: CR, 2008, S. 299-306; Hirsch, B.: Das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme, in: NJW, 2008, S. 822, unter Verweis auf NJOZ 2008, S. 2902; Lorenz, A.: Verfassungsrechtliche Anforderungen an Gesetze zur heimlichen Online-Durchsuchung, in: StRR, 2008, S. 141-143; Stögmüller (Fn. 14); Jäger: Verfassungsmäßigkeit der sog. Online-Durchsuchung und der Internetaufklärung durch staatliche Behörden, in: Juris-itr, 12, 2008, S.; Petri, T.: Das Urteil des Bundesverfassungsgerichts zur „Online-Durchsuchung“, in: DUD, 2008, S. 443; Böckenförde, T.: Auf dem Weg zur elektronischen Privatsphäre, in: JZ, 2008, S. 925-939; Bäcker, in: Brink/Rensen (Fn. 9).
Das Grundrecht auf Schutz der Vertraulichkeit
173
a) Eine mit dem traditionellen Grundrechtsschutz nicht ohne erhebliche Weiterungen erfasste besondere Gefährdungslage wird dadurch geschaffen, dass durch die Infiltration die technische Hürde grundsätzlich – also nicht nur im Einzelfall – überwunden wird, die sonst einer Ausspähung oder Überwachung entgegensteht. Ist die Hürde übersprungen, entfällt der systembezogene Schutzwall, der sonst bei Eingriffen in das Recht auf informationelle Selbstbestimmung je neu überwunden werden müsste und gegen den gegebenenfalls Rechtsschutzmöglichkeiten bestehen. Auch wenn die infiltrierende Stelle nur an bestimmten Daten interessiert ist21, ist es für sie praktisch nicht ausgeschlossen, auch andere Daten zu erlangen und auf andere Kommunikationsvorgänge zuzugreifen. Bei der Infiltration informationstechnischer Systeme bleiben insbesondere Risiken, dass unübersehbare Datenmengen zugänglich werden und in der Folge etwa Persönlichkeitsbilder einer bisher unbekannten Breite und Dichte geschaffen werden und dass der Betroffene das Gefahrenpotenzial gar nicht abschätzen und sich häufig nicht wirkungsvoll wehren könnte: Die auf das informationstechnische System bezogene Schutzlücke ließe sich auf der Ebene des Schutzes gegen konkrete Datenerhebungen und -verwertungen vielleicht theoretisch, nicht aber praktisch effektiv schließen. b) Auch ist mit der Möglichkeit der Infiltration des Systems das Risiko der (praktisch kaum erkennbaren) Verfälschung einzelner erfasster Daten und deren Kombination mit anderen verbunden, die insoweit z. B. ein verfälschtes Persönlichkeitsprofil entstehen lassen können. Gegen solche Verfälschungen22 kann der Betroffene sich praktisch nicht mehr wehren, wenn einmal eine mit derartigen Möglichkeiten verbundene Infiltration erfolgt ist.
21
22
So sind Sicherheitsbehörden regelmäßig nur an der gezielten selektiven Übermittlung spezifischer für sie relevanter Daten interessiert. Ein von ihnen installierter Trojaner funktioniert am besten, wenn er nur einzelne Daten überträgt, und zwar genau die für die behördliche Aufgabe wichtigen (z. B. Namen von Kommunikationspartnern, abgespeicherte E-Mail-Inhalte etc.). Dennoch ist durch die Infiltration die Hürde grundsätzlich übersprungen. Dass die die Infiltration vornehmende Sicherheitsbehörden an solchen Verfälschungen regelmäßig nicht interessiert sein dürften, sei nur der Vollständigkeit halber erwähnt.
174
Wolfgang Hoffmann-Riem
c) Ein besonderes Problem stellt auch der Zugriff auf die vom informationstechnischen System – meist ohne nähere Kenntnis des Betroffenen, vielfach ohne Kenntnisnahmemöglichkeit – im jeweiligen Kommunikationsprozess generierten persönlichkeitsrelevanten Daten. Probleme entstehen auch hier dadurch, dass die Schutzmöglichkeit des Betroffenen – auch die Möglichkeit zu wirksamen ex-post Schutz – faktisch begrenzt ist. Dagegen hilft es nicht, wenn der Betroffene, wie zum Teil befürwortet wird, auf die Möglichkeit zu vorbeugendem Selbstschutz verwiesen wird. So gibt es für den Nutzer zwar gewisse Möglichkeiten, die Schaffung der im Kommunikationsvorgang generierten Einzeldaten – etwa von Cookies – oder Datensammlungen – etwa von Caches – technisch zu unterbinden, aber nur begrenzte: Stets setzen sie sowohl ein besonderes Gefahrenbewusstsein als auch vielfach beträchtlichen technischen Sachverstand voraus, zum Teil – so bei Flash Cookies – ist es schwierig, sie überhaupt zu finden.23 Ferner ist bedeutsam, dass Unterbindungen etwa von Cookies oder Caches meist nur um den Preis nicht unerheblicher Funktionseinbußen zu erreichen sind: In vielerlei Hinsicht sind sie auch für den Betroffenen selbst „nützlich“. Er vertraut letztlich darauf, auch sie unbeschwert nutzen zu können. d) Die behördliche Infiltration und – soweit zur Ausspähung erforderlich – die Manipulation des informationstechnischen Systems soll insbesondere dazu führen, dass der von den Betroffenen gegebenenfalls durchgeführte und ihm als Ausprägung der Idee informationeller Selbstbestimmung angeratene – etwa durch Verschlüsselung oder Nutzung von Passworten versuchte – Selbstschutz grundsätzlich (nicht nur im Einzelfall) unterlaufen wird. Der Schutz durch das Grundrecht auf informationelle Selbstbestimmung wird durch die staatliche Infiltration mit dem spezifischen Ziel der Überwindung von Selbstschutzmöglichkeiten in seinen Grundprämissen ausgehebelt: Der Grundrechtsschutz wird seiner konzeptionellen Grundlage „beraubt“.
23
Flash Cookies – so genannt nach der Software „Flash Player“, mit der sie erstellt werden – können im Vergleich zu „normalen“ Cookies erheblich schwerer angezeigt und gelöscht werden, mit den Standardeinstellungen des Betriebssystems Microsoft Windows XP etwa sind sie auf der Festplatte nicht einmal sichtbar. Innerhalb des Browsers können sie gar nicht lokalisiert werden, da sie Browser-unabhängig verarbeitet und gespeichert werden.
Das Grundrecht auf Schutz der Vertraulichkeit
175
e) Es besteht auch ein Bedarf an Schutz vor dem Risiko, dass (etwa private) Dritte sich die durch staatliche Behörden erfolgte Infiltration des informationstechnischen Systems zunutze machen und beispielsweise die infiltrierte Software ihrerseits zu Ausspähungen des Systems oder zu deren Manipulationen nutzen, also die Infiltration wie eine Art staatlich gelegtes Kuckucksei für eigene Zwecke umwidmen, ohne dass der Betroffene dies ahnen und sich wirkungsvoll schützen kann. Der grundrechtliche Schutz gegen staatliche Eingriffe – hier die Infiltration – ist verfassungsrechtlich umfassender, leichter und vor allem effektiver durchsetzbar als der Schutz gegen Private im Zuge mittelbarer Drittwirkung der Grundrechte. f) Die Infiltration und die dadurch ermöglichte, gegebenenfalls lang andauernde und die unterschiedlichsten Kommunikationsakte erfassende und sie gegebenenfalls dynamisch verknüpfende Überwachung ist nicht auf deren Adressaten als Betroffenen begrenzt, sondern bezieht einen grundsätzlich vorher nicht übersehbaren Kreis von Dritten als Kommunikationspartner des Betroffenen ein. Das ist zwar auch bei anderen Zugriffen auf Kommunikation – etwa durch Abhören oder polizeiliche Beobachtung – der Fall. Soweit in dem informationstechnischen System Daten aller Art abgelegt oder generiert werden, die sich auf Dritte beziehen, kann die hier mögliche personenbezogene Streubreite jedoch qualitativ über die hinaus gehen, die mit dem gezielten Eingriff in konkrete Kommunikationsakte, verbunden ist, etwa das Belauschen bestimmter Gespräche.
Das Verhältnis des Grundrechts auf informationelle Selbstbestimmung zu dem auf Schutz der Integrität und Vertraulichkeit eigengenutzter informationstechnischer Systeme Angesichts solcher zum Teil neuer oder in der Qualität und Intensität neuartiger Gefährdungen ist das Bundesverfassungsgericht davon ausgegangen, dass der Schutz der Integrität und Vertraulichkeit der eigengenutzten informationstechnischen Systeme und der Schutz vor der Erhebung und Verwertung der infolge einer Infiltration erlangten Daten in einer systembezogenen „besonderen“ Ausprägung des allgemeinen Grundrechts auf Persönlichkeitsschutz zu entwickeln ist, die nicht auf Fiktionen selbstbestimmten Persönlichkeitsschutzes angewiesen ist. Vielmehr muss das Be-
176
Wolfgang Hoffmann-Riem
dürfnis nach Schutz des Vertrauens24 in den Vordergrund gestellt werden, das auf die Funktionsfähigkeit des informationstechnischen Systems bezogen ist. Eine solche Ausweitung der Blickrichtung erleichtert es, die neue Qualität der Gefährdung und des auf Systemvertrauen ausgerichteten Schutzbedarfs schon auf der Schutzbereichsebene in den Blick zu nehmen und die Notwendigkeit besonderer Anforderungen an Schranken zu erkennen sowie auf die Gefährdung ausgerichtete Schutzvorkehrungen zu entwickeln. Da es in dem Kontext der Entscheidung allerdings um Persönlichkeitsschutz ging, hat das Gericht kein apersonales Technikgrundrecht konkretisiert.25 Das Gericht entwickelt die Konkretisierung des Grundrechts vielmehr vom Persönlichkeitsschutz her und begrenzt das Schutzrecht daher auch auf die zur Persönlichkeitsentfaltung eingesetzten eigenen informationstechnischen Systeme. Das Bemühen des Gerichts um eine eigenständige Grundrechtskonkretisierung kann auch als eine Reaktion darauf gedeutet werden, dass die Dimensionen der Gefährdung des Vertrauens in die eigenen Kommunikationsinfrastrukturen und entsprechende Schutzbedürfnisse in der rechtswissenschaftlichen Literatur bisher nur punktuell – wenn überhaupt – thematisiert worden sind und dass es keine, jedenfalls keine näher ausdiskutierten oder gar in Rechtsprechung und Literatur anerkannten Konzepte gab und gibt, wie der Schutz der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme ohne Inkonsistenzen und Lücken in das Grundrecht auf informationelle Selbstbestimmung eingebaut werden kann. Angesichts fehlender Vorarbeiten in der Literatur erstaunt es, dass ein Großteil der die neue Entscheidung analysierenden Autoren ohne nähere 24
25
Grundsätzlich zum Vertrauen und seinen Dimensionen s. die Beiträge in Klumpp, D. / H. Kubicek / A. Roßnagel / W. Schulz (Hrsg.) (2008): Informationelles Vertrauen für die Informationsgesellschaft, Berlin, Heidelberg. Auf die vielen Facetten des Begriffs des Vertrauens und auf Theorien über die Vertrauensbildung kann hier nicht eingegangen werden. Zu unterschiedlichen disziplinären Sichtweisen s. Möllering, G. (2007): Grundlagen des Vertrauens: Wissenschaftliche Fundierung eines Alltagsproblems, in: Max-Planck-Institut für Gesellschaftsforschung, Jahrbuch 2007/2008, S. 73-78. Es handelt sich insofern auch um Funktionsschutz, vgl. Hornung, G.: Ein neues Grundrecht. Der verfassungsrechtliche Schutz der „Vertraulichkeit und Integrität informationstechnischer Systeme“, in: CR, 5, 2008, S. 299-306. Der Funktionsschutz ist aus grundrechtlicher Sicht als Mittel zum Persönlichkeitsschutz zu verstehen. So aber die Befürchtung von Eifert, M.: Informationelle Selbstbestimmung im Internet – Das BVerfG und die Online-Durchsuchungen, in: NVwZ, 2008, S. 521-522.
Das Grundrecht auf Schutz der Vertraulichkeit
177
Ausdifferenzierung behauptet, der Schutz hätte allein durch das Grundrecht auf informationelle Selbstbestimmung bewirkt werden können.26 Das überrascht umso mehr, als vor der Entscheidung in der Literatur und den bei Gericht eingereichten Schriftsätzen stattdessen versucht wurde, den Schutzbedarf anders, nämlich insbesondere über Art. 13 GG27 – oder auch Art. 10 GG – zu befriedigen. Weiterer dogmatischer Ausarbeitung bedarf allerdings die Abgrenzung zwischen dem Recht auf informationelle Selbstbestimmung und dem Integritäts- und Vertraulichkeitsschutz eigener informationstechnischer Systeme. Als Grundsatz gilt: Gegen Datenerhebungen (und weitere Datenverarbeitungen)28 ohne Infiltration informationstechnischer Systeme und gegen die Schaffung entsprechender Ermächtigungen schützt weiterhin das Grundrecht auf informationelle Selbstbestimmung.29 Soweit zur Durchführung von Datenerhebungen u. a. aber das informationstechnische System infiltriert, ausgespäht und gegebenenfalls manipuliert wird, greift die neue grundrechtliche Schutzdimension. Dieser grundrechtliche Schutz der Vertraulichkeit und Integrität des informationstechnischen Systems betrifft nicht nur die Infiltration (und gegebenenfalls Manipulation) als solche, sondern umfasst im Interesse der Effektivität des Grundrechtsschutzes auch die Erhebung und Verwertung der Daten und Informationen, die (nur) infolge der Infiltration erlangt werden:30 Die dementsprechend erhöhten 26 27 28
29
30
Vgl. Fn. 21. Vgl. die Nachw. bei Böckenförde (Fn. 20); s. auch Fn. 10. Die Verwertung durch dritte Stellen, also nach Weitergabe, ist aber nach allgemeinen Grundsätzen nur zulässig, wenn auch für diese Stellen die Voraussetzungen erfüllt sind, die einen solchen Eingriff rechtfertigen. Es ist verfehlt, den Einleitungssatz des BVerfG unter C I (NJW 2008, S. 824 sowie auf S. 827) dahin gehend zu deuten, die neue Schutzdimension sei gegenüber dem Recht auf informationelle Selbstbestimmung „subsidiär“, so aber etwa Petri (Fn. 19), S. 444. Das Bundesverfassungsgericht sagt vielmehr, dass die neue Grundrechtsausprägung dort greift, wo eine Schutzlücke zu diagnostizieren ist. Im Übrigen gilt hinsichtlich möglicherweise verbleibender Konkurrenzen der allgemeine Grundsatz, dass die grundrechtlichen Schranken derjenigen Ausprägung des Persönlichkeitsrechts zu entnehmen sind, die vor der größeren Gefährdung schützt und deshalb strengere Anforderungen stellt. Allgemein zu solchen Konkurrenzregeln s. Jarass, H. D. / B. Pieroth (2007): Grundgesetz für die Bundesrepublik Deutschland, 9. Aufl., München, Rn. 18, Vorbemerkung vor Art. 1 m. w. Hinw. Diese Schutzerstreckung auf das durch den Grundrechtseingriff „Erlangte“ ist nichts Ungewöhnliches. So schützt Art. 13 GG nicht nur vor dem Eindringen in
178
Wolfgang Hoffmann-Riem
Hürden des Persönlichkeitsschutzes erstrecken sich auf den Umgang mit den durch die Infiltration zugänglichen persönlichkeitsbezogenen Daten. Der Vollständigkeit halber sei hinzugefügt, dass auch diese neue Grundrechtsgewährleistung nicht schrankenlos ist.31 Neben rechtsstaatlichen Anforderungen an die hinreichende Klarheit und Bestimmtheit der Ermächtigung ist insbesondere der Grundsatz der Verhältnismäßigkeit zu beachten32, der angesichts des besonderen Gefährdungspotenzials dazu führt, dass regelmäßig strengere Anforderungen zu beachten sind als bei gewöhnlichen Datenerhebungen. Ferner sind besondere Vorkehrungen zum Schutz des absolut geschützten Kernbereichs privater Lebensgestaltung geboten.33 Auf diese Problematik sei hier nicht weiter eingegangen. Hier sollte es nur darum gehen, die Prämissen zu verdeutlichen, auf denen die neu formulierte Grundrechtsgewährleistung beruht.
Schlussbemerkung Schutzziel ist weiterhin Persönlichkeitsschutz im Interesse selbstbestimmter Entfaltung. Die Entwicklung der Computertechnologie, der Netzkonstellationen, vieler neuer Dienste und darauf aufbauender Infiltrations- und Manipulationsmöglichkeiten haben jedoch neue Gefährdungspotenziale entstehen lassen, auf die eine grundrechtliche Antwort zu suchen ist. Das Bundesverfassungsgericht hat ein verfassungsrechtlich fundiertes Bedürfnis nach einer besonderen Sicherung der für die Freiheit persönlicher Entfaltung unter den gegenwärtigen Bedingungen besonders wichtigen Vertraulichkeit und Integrität komplexer eigengenutzter informationstechnischer Systeme bejaht. Das ist eine Herausforderung an Rechtswissenschaft und -praxis, durch weitere Feinarbeit und Ausdifferenzierungen die Weichen so zu stellen, dass der Persönlichkeitsschutz dem aktuellen Wandel in der Netzwelt gerecht wird.
31 32 33
die Wohnung, sondern auch die durch das Eindringen erlangten Informationen oder Gegenstände, vgl. BVerfGE 109, 279, 374 unter Verweis auf BVerfGE 100, 313, 360 (letzteres zu Art. 10 GG). Zu den Schranken s. BVerfG, NJW 2008, S. 827 ff. Dazu s. BVerfG, NJW 2008, S. 829 ff. BVerfG NJW 2008, S. 833 ff.
Das Problem der legitimen Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten im Internet
Per Christiansen
Einleitung In der seit Jahren andauernden Diskussion um den Königsweg zur Bekämpfung von strafbaren oder schädlichen Inhalten im Internet nimmt das Access-Blocking bei weitem den größten Raum ein, also die dauerhafte Sperrung des Zugangs zu einer Website durch den Zugangsprovider. Kunden können die gesperrte Seite dann ohne technische Umgehungslösung nicht mehr aufrufen. Diese Maßnahme würde ihnen zwangsauferlegt, kann also – anders als beispielsweise lokale Filtersoftware – nicht an- oder ausgeschaltet werden. Access-Blocking wird von vielen als Wunderwaffe gegen schädliche und illegale Inhalte angesehen. In der Tat ist die Vorstellung faszinierend und erschreckend zugleich: Soweit technische Lösungen zum Blocking bestehen, kann der Provider gewissermaßen mit einem Mausklick Millionen von Kunden von Teilen des Internet trennen. Sperrungen werden meist dann gefordert, wenn weder ein Vorgehen gegen den Verantwortlichen für die strafbaren oder schädlichen Inhalte, noch ein Vorgehen gegen den Hostprovider, der die Website auf seinen Systemen speichert und einfach löschen könnte, mit vertretbarem Aufwand Erfolg verspricht. Das ist meist bei Seiten der Fall, die im Ausland gespeichert und dem Zugriff der nationalen (Ermittlungs-)Behörden entzogen sind. Sich in der Bekämpfung von strafbaren Inhalten darauf zu fokussieren, die Zugangsprovider zur Sperrung von Websites zu veranlassen, stellt jedoch insofern ein Problem dar, als man damit eine Ersatzlösung über die Provider als Intermediäre zur Regel macht, anstatt die Probleme im Vorgehen gegen die eigentlich Verantwortlichen anzupacken: die Schwierigkeiten in der internationalen Zusammenarbeit der Ermittlungsbehörden.
180
Per Christiansen
Der Ruf nach Sperrungen durch Zugangsprovider ist dennoch verständlich. Prima facie scheint es ein viel einfacherer Weg zu sein. Der Zugangsprovider ist zumeist im Inland juristisch erreichbar. Auch wird die kaum greifbare „Wolke“ IP-basierter Internetkommunikation beim Zugangsprovider mit technischen Mitteln in gewissem Maße beherrschbar, da sie an diesem Punkt „durch einen Flaschenhals“ geführt wird. Die mit Sperrungen verbundenen juristischen und regulatorischen Fragen sind bislang kaum ausgelotet worden. Die Diskussion über das Pro und Contra1 ist auf politischer Ebene in einen Zustand geraten, in dem sich unversöhnliche Extrempositionen gegenüberstehen. Oft wird argumentiert, das Bestehen des einen oder anderen Wirtschaftszweiges (insbesondere der Kulturverwertungsindustrie) oder des Internet oder die kulturelle Bandbreite der Welt hänge von einer Weichenstellung in der Frage des AccessBlockings ab. Entsprechend werden die Verfahren, die immer mal wieder gegen Access-Provider angestrengt werden, erbittert geführt und kontrovers diskutiert.2 Man erinnere sich an den Zündel-Fall3, die Sperrungsverfügungen in Nordrhein-Westfalen4, die Massenabmahnung der GEMA5 oder zuletzt die aus kommerziellem Interesse getriebenen Verfahren der Firma Kirchberg Logistik auf Sperrung von pornographischen Angeboten im Ausland6. Keines dieser Verfahren und Diskussionen konnte das Access-Blocking als Standardmaßnahme gegen schädliche Inhalte in Deutschland etablieren. In 1
2
3
4
5 6
Vgl. schon Sieber, U.: Die rechtliche Verantwortlichkeit im Internet, in: MMRBeilage 2/1999, 1, S. 2 ff. Gercke, M.: Die Bedeutung der Störerhaftung im Kampf gegen Urheberrechtsverletzungen – Möglichkeiten und Grenzen des auf die Störerhaftung gestützten Vorgehens gegen Urheberrechtsverletzungen im Internet, in: ZUM, 8/9, 2006, S. 593-599. Vgl. dazu Wetzel, J.: Antisemitismus im Internet, in: BPJS Aktuell Sonderausgabe, 1999, S. 16, 20. VG Düsseldorf, CR 2005, 885; VG Düsseldorf, CR 2003, 384; OVG Nordrhein-Westfalen, CR 2003, 361; VG Köln, CR 2006, 201; VG Arnsberg, CR 2005, 301; VG Minden, CR 2003, 384; vgl. auch Hornig, M.: Möglichkeiten des Ordnungsrechts bei der Bekämpfung rechtsextremistischer Inhalte im Internet, in: ZUM, 11, 2001, S. 846-857. http://www.heise.de/newsticker/meldung/61331. http://www.heise.de/newsticker/Arcor-muss-YouPorn-nicht-mehr-sperren/meldung/106513; LG Frankfurt a. M.: Urteil v. 08.02.2008 – 3-12 O 171/07; LG Kiel: Urteil vom 23.11.2007 – 14 O 125/07.
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
181
anderen europäischen Ländern hingegen gehen Provider zunehmend dazu über, teilweise in branchenweiten freiwilligen Übereinkünften, kinderpornographische Websites zu sperren.7 Technisch gibt es – das haben die Verfügungsverfahren gezeigt – im Prinzip drei Arten des Access-Blocking: DNS-Manipulation, IP-Blocking oder Filterung in Proxy-Caches. Letzteres Verfahren kommt immer weniger in Betracht, weil Provider im Zuge der Verbreitung von Breitbandverbindungen mehr und mehr auf Proxy-Caches verzichten. Da sich die Systeme der Access-Provider erheblich voneinander unterscheiden, sind der Implementierungsaufwand dieser Verfahren, deren Effektivität im Einsatz sowie negative Nebeneffekte (wie das Over-Blocking, d. h. die Sperrung von eigentlich nicht betroffenen Inhalten) bei den jeweiligen Providern unterschiedlich. Das oft vorgebrachte Argument, ein Blocking sei „technisch unmöglich“, bedeutet nur, eine Implementierung sei auf den bestehenden Systemen ohne unverhältnismäßigen Zusatzaufwand und Aufbau zusätzlicher Infrastruktur nicht möglich. Viele Provider haben jedoch in gewissem Umfang Ressourcen zum Blocking. Erst bei Überschreiten der Ressourcen werden wesentliche Investitionen notwendig. Jede Form des Access-Blockings kann umgangen werden.8 Das zu akzeptieren ist für die Auseinandersetzung mit dem Access-Blocking entscheidend. Beispiele dafür, wie leicht die Mechanismen eines AccessBlockings umgangen werden können, sind zahlreich. Als die GEMA 2005 zahlreiche Provider abmahnte und zur Einrichtung eines Blockings von detailliert bezeichneten Seiten aufforderte, die das Raubkopieren von Musik in P2P-Netzen maßgeblich erleichtern9, lieferte binnen einer Woche nach Bekanntwerden eine Google-Suche zum Suchbegriff „GEMA“ in acht der ersten zehn Suchtreffer Anleitungen zur Umgehung des Blockings (DNSManipulation) oder Verweise auf Software, die das automatisch bewerkstelligt. In der Bewertung dieses ganz typischen Effekts wird häufig übersehen, dass die Internet-Nutzer technisch gar nicht verstehen müssen, wie Blocking funktioniert und wie es umgangen werden kann. Es reicht, wenn sie – überspitzt formuliert – wissen, „wo sie klicken und was sie tippen 7
8
9
Beispielsweise in Norwegen; vgl. auch das Cleanfeed-System der British Telecom. Sieber (Fn. 1); die hier wirkenden Kräfte zur Umgehung von Sperren beleuchtet aus theoretischer Sicht Hornig (Fn. 4). Vgl auch Gercke, M.: Zugangsprovider im Fadenkreuz der Urheberrechtsinhaber, in: CR, 2006, S. 210-216; Nordemann, B. / A. Dustmann: To Peer Or Not To Peer, in: CR, 2004, S. 380 ff.
182
Per Christiansen
müssen“. Zumeist sind bald Tools verfügbar, die lediglich einmal installiert werden müssen und danach unsichtbar im Hintergrund agieren. Neben der – im Detail zu differenzierenden – Frage, wie effektiv Sperrungen überhaupt sind, stellen sich für die Zugangsprovider wichtige Probleme: Würde er sich durch die Einrichtung von Sperrungen einem berechtigten Vorwurf der Zensur aussetzen? Wer trägt die kommerziellen Folgen von Fehlentscheidungen über zu sperrende Inhalte und von OverblockingEffekten? Würde er nicht stets in einen Interessenkonflikt zwischen zwei Parteien hineingezogen werden, zu deren Lösung er weder im Stande noch legitimiert wäre? Wäre das nicht stets mit einem Haftungsrisiko für ihn verbunden? Diese Fragen werden eigentlich immer wieder diskutiert, wenn es einen neuen Anlass gibt, Sperrungsmaßnahmen von Zugangsprovidern einzufordern. Unlösbar sind sie nicht. Dieser Beitrag will in dieser Diskussion gedanklich einen Schritt weiter gehen und mit einem Blick aus der Praxis heraus eine Situation beleuchten, in der Zugangsprovider tatsächlich in gewissem Umfang Websites sperren würden. Dann stellte sich für einen Zugangsprovider ein Verteilungsproblem, wenn die Menge der potentiell zu sperrenden Seiten die Ressourcen zur Sperrung übersteigt. Dieses Problem wird regelmäßig von Anspruchstellern nicht gesehen, die jeweils nur ein konkretes eigenes Interesse verfolgen. Provider hingegen sind einer Vielzahl von Ansprüchen ausgesetzt, die unmöglich alle erfüllt werden können und deshalb eine Auswahl erfordern – für die es derzeit aber keinen sachgerechten normativen Verteilmechanismus gibt.
Ein Gedankenexperiment Nehmen wir in einem Gedankenexperiment an, ein Zugangsprovider habe die Möglichkeit, höchstens – hier willkürlich gewählt – 1 000 Websites zu sperren. Eine größere Zahl würde eine so hohe weitere Investition in technische Infrastruktur erfordern, dass er damit die Opfergrenze überschritte, er also nach geltendem Recht dazu nicht mehr gezwungen werden könnte. Die Kapazität zur Sperrung von Netzseiten hängt an vielen technischen Faktoren und kann höher oder geringer sein und dynamisch in Abhängigkeit von der eigenen Systemauslastung variieren. In jedem Fall aber sind Technologien zur Sperrung von Seiten ein Kostenfaktor und ein Faktor der eigenen Systemperformance im Wettbewerb der Zugangsprovider. Die Frage lautet nun: Welche 1 000 Seiten sind unter allen in Betracht kommenden bevorzugt zu sperren? Versetzen wir uns jetzt in die Lage eines Zugangsproviders und spielen diese Situation durch.
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
183
Zunächst wird er sich fragen, weshalb er überhaupt sperren soll, zumal es mit Kosten verbunden ist. Es ist für ihn wirtschaftlich betrachtet rational, sich dem Ansinnen zur Sperrung von Netzseiten grundsätzlich und vollständig zu verwehren – womöglich ist das sogar eine „technische Unmöglichkeit“: Ist erst einmal bekannt, dass er über die Möglichkeit zur Einrichtung von Sperren verfügt, wird er sich vor Fällen, in denen eine Sperrung verlangt wird, nicht mehr retten können. Dabei geht es nicht nur um die von sich aus schon nicht mehr zu beherrschende Zahl an Netzseiten mit strafbaren, schädlichen oder jugendgefährdenden Inhalten. Man denke weiter an Urheberrechtsverletzungen und Piraterie bei Musik und Filmen im Internet, Markenverletzungen, Persönlichkeits- und Bildrechtsverletzungen oder auch nur an Bagatellfälle wie die beleidigende Äußerung des Nachbarn im Kleingartenverein auf der Vereinshomepage. Das Verlangen nach Sperrungen ist potentiell unbegrenzt und so vielfältig wie die Fallgruppen von Unterlassungsansprüchen gegen Störer. Praktisch jeder Konflikt im Internet lässt sich auch über eine Sperrung austragen. Daher besteht für Zugangsprovider die berechtigte Sorge, eine nicht mehr zu bewältigende Masse an Maßnahmen durchführen zu müssen und damit in ein unkalkulierbares wirtschaftliches Risiko zu laufen. Wer würde einem Zugangsprovider denn glauben, dass er bereits seine äußersten Kapazitäten zur Sperrung ausnutzt und er daher keine weitere Maßnahme einrichten könne? Wenn 1 000 Websites gesperrt werden können, ist schwer nachzuvollziehen, weshalb nicht 1 001 gesperrt werden könnten, oder 1 002, oder 1 010. Ein Zugangsprovider muss in dem gegenwärtigen regulatorischen Rahmen befürchten, in eine Kostenspirale zur immer weiteren Aufrüstung seiner Sperrungstechnologien getrieben zu werden, sobald er mit dem Sperren beginnt und damit einen Präzedenzfall gegen sich selbst schafft. Entscheidet sich der Provider nun aber dafür, seine bestehenden Ressourcen zur Sperrung zu nutzen, anstatt sie um des Prinzips willen ungenutzt zu lassen – etwa aus ethischen Gründen oder zu Zwecken der Positionierung im Markt –, muss er notgedrungen auswählen. Als erstes wird man an die Sperrung von kinderpornographischen Seiten denken. Der große und weiter wachsende Markt für Darstellungen von Kindesmissbrauch im Internet10 erzeugt immer größere Nachfrage und damit weiteren Missbrauch. Zudem scheint der Konsum von Kinderpornographie die Gefährlichkeit bestimmter pädokrimineller Tätertypen zu steigern. Kinderporno-
10
Vgl. Kriminalstatistik des BKA 2007; http://www.bka.de/lageberichte/ok/ 2007kf/lagebild_ok_ 2007_ kurzlage.pdf.
184
Per Christiansen
graphie ist – mit Unterschieden im Detail – weltweit geächtet.11 Nun gibt es im Wesentlichen zwei Arten von Websites mit Kinderpornographie. Zum einen gibt es die flüchtigen Seiten der pädophilen Tauschzirkel, die ihre Bilder für etwa 24 bis 48 Stunden auf einer Seite veröffentlichen, deren URL sie in E-Mail oder Chat-Kommunikation untereinander bekannt geben und die dann wieder gelöscht werden.12 Wird ein Zugangsprovider über eine solche URL in Kenntnis gesetzt, ist die betreffende Website mit großer Wahrscheinlichkeit (wenn auch nicht mit Sicherheit) bereits wieder gelöscht. Trägt der Provider diese URL in die Liste seiner zu sperrenden Seiten ein, ist dieser Platz dann möglicherweise verschwendet, insbesondere wenn diese Seite nicht laufend aktualisiert würde. Zum anderen gibt es die stark wachsende Gruppe der kommerziellen Netzseiten, auf denen man Kinderpornographie regelrecht kaufen kann.13 Zweifellos: je mehr man diesen Tätern das Geschäft erschwert und Kundengruppen entzieht, desto besser. Jedoch agieren diese Täter mit erheblicher krimineller Energie und sind in ihrer finanziellen und technischen Ausstattung überlegen, sonst könnten sie gar nicht dauerhaft bestehen. Daher wird die Erfahrung zeigen, ob Sperrungen solcher Seiten wirklich überhaupt einen spürbaren Effekt haben, wenn man bedenkt, wie überraschend leicht jegliche Sperrung umgangen werden kann, wenn man es darauf anlegt. Und es wird sich zeigen müssen, ob nicht eine Überführung und Ergreifung der Täter und Konsumenten über die Spuren der Zahlungswege erfolgversprechender ist. Erfahrungen aus anderen Ländern, in denen die Sperrung von kinderpornographischen Websites bereits eingeführt ist, zeigen erhebliche Zahlen von geblockten Abrufversuchen. Weitere Kandidaten für eine Sperrung sind Seiten mit rassistischen, volksverhetzenden oder kriegsverherrlichenden Inhalten. Es liegt in der Natur und im Zweck solcher Propaganda, mit ihrem Gedankengut Menschen zu vergiften und auch Rezipienten zu erreichen, die nicht gezielt mit ihr in Kontakt kommen wollen. Unterbindet man diese Kommunikation, lassen sich möglicherweise empfängliche Personen vor dem Abrutschen in volksverhetzendes Gedankengut bewahren. Für solche Websites stellt sich anders als im Falle der kinderpornographischen Seiten das Problem, dass sie von den Rechtsordnungen unterschiedlich bewertet werden. Oft ange11
12
13
Vgl. die Convention on Cybercrime; http://conventions.coe.int/Treaty/en/Treaties/Html/185.htm. Vgl. auch Soiné, M.: Verdeckte Ermittler als Instrument zur Bekämpfung von Kinderpornographie im Internet, in: NStZ, 2003, S. 225-230. http://www.bka.de/lageberichte/ok/2007kf/lagebild_ok_2007_kurzlage.pdf.
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
185
führt wird das Beispiel von Nazi-Seiten, die in Deutschland strafbar und in den USA von der Meinungsfreiheit gedeckt sein sollen.14 Das mag vielleicht zu einem gewissen Grad ein Scheinproblem sein, wenn volksverhetzende Inhalte im weiteren Sinne als Diskriminierung und damit als rechtswidrig gewertet werden können. Dennoch fehlt es an einer weltweit einheitlichen juristischen Basis für eine Sperrung. Schwerwiegender ist zudem die Kritik, eine Sperrung würde diese Inhalte für eine Subkultur erst recht interessant machen und ihnen Aufmerksamkeit verleihen. Besser sei es, volksverhetzenden Inhalten das Stigma der „vom Staat unterdrückten geheimen Wahrheit“ zu nehmen und im offenen Kampf der Meinungen zu begegnen, insbesondere durch eine direkte Gegenüberstellung mit Fakten. Unter Effizienzgesichtspunkten gesehen hat die Erfahrung gezeigt, dass die Neonazi-Szene auf Sperrungen unverzüglich mit dem Spiegeln der Seiten auf andere Server reagiert.15 Bestimmte Websites unterstützen das Raubkopieren von Musik, Filmen und anderen urheberrechtlich geschützten Werke. Die Kulturverwertungsindustrien leiden stark an der Piraterie im Internet, da frei verfügbare Medienprodukte nicht mehr entgeltlich gekauft oder gemietet werden.16 Daher wird nicht selten die Sperrung von Piraterie-Seiten verlangt.17 Das habe einen positiven Effekt auf die Umsätze, weil die Verfügbarkeit kostenloser Kopien zur Zeit des umsatzstarken Verkaufsstarts eingeschränkt wäre. Gegen eine Nutzung der Blocking-Ressourcen für Piraterie-Sites spricht, dass es hier anders als in den Fällen strafbarer Inhalte lediglich um kommerzielle Interessen bestimmter Unternehmen geht. Allerdings sind auch die Arbeitsplätze der Mitarbeiter in Medienunternehmen betroffen. Vor allem in der Musikindustrie lassen sich konkret Personen benennen, die entlassen werden mussten, weil ihr Arbeitsplatz infolge der pirateriebedingten Verkleinerung des Musikgeschäfts entfiel. Eine ganz andere Überlegung wäre zu fragen, in welchen Fällen Sperrungen am wirksamsten wären. Dieser Ansatz führt zur Sperrung von Phishing14
15
16 17
Hierzu Bremer, K: Radkikal-politische Inhalte im Internet, in: MMR, 2002, S. 147-152; Tolmein, O.: Strafrechtliche Reaktionsmöglichkeiten auf rassistische motivierte Gewaltdelikte, in: ZRP, 2001, S. 315-319. So schon der bekannte Fall Zündel, hierzu Wetzel, J.: Antisemitismus im Internet, in: BPJS Aktuell Sonderausgabe, 1999, S. 16- 20. Vgl. die jährliche Brennerstudie der Filmförderungsanstalt. Beispielsweise hat die GEMA 2005 die Zugangsprovider auf Sperrung von Downloadportalen abgemahnt; http://www.heise.de/newsticker/meldung/61331; vgl. Gercke (Fn. 9); Nordemann/Dustmann (Fn. 9).
186
Per Christiansen
Sites, also solchen kriminellen Seiten, die betrügerisch vorgeben, von einer Bank, Sparkasse oder einem Geschäft zu stammen, um die Nutzungsdaten und Passwörter der Internet-Nutzer auszuspähen, mit denen dann anschließend Vermögensdelikte begangen werden können. Der Unterschied zu den bislang behandelten Fällen ist: In diesen Sachverhalten hat der Nutzer, der die zu sperrende Website aufruft, kein Interesse daran, die Sperrung zu umgehen. Er weiß ja nicht einmal, dass er eine kriminelle Fälschung vor sich hat, und wenn er es wüsste, würde er die Seite nicht anwählen. Jemand auf der Suche nach illegalem Material wird nach Wegen suchen, die Sperrung zu umgehen. Der durch eine Phishing-Site getäuschte InternetNutzer wird froh darüber sein, wenn der Zugangsprovider ihn vor der fälschlichen Preisgabe hochsensibler Daten schützen konnte. Daher ist die Sperrung von Phishing-Sites im Vergleich zu den anderen Fällen wirksamer. Die nutzbringenden Effekte lassen sich leicht hochrechnen: Ein durchschnittlicher Schadensfall durch Phishing beträgt ca. 4 000 Euro.18 Je nach Kundenzahl des Zugangsproviders führt die Sperrung zu einer Verhinderung von 10 000 bis 100 000 Abrufen, wenn die Phishing-Aktion durch die Täter mit E-Mail-Spam initiiert wird. Auch wenn nicht alle ausgespähten Daten wirklich missbraucht werden, so zeigt sich schon an diesem Beispiel, wie viel kommerzieller Schaden nur durch die Sperrung einer einzigen Phishing-Site abgewendet werden kann. Unzählige weitere Beispiele für Seiten gibt es, bei denen eine Sperrung angezeigt sein kann: Seiten mit Anleitungen zum Selbstmord, zum Bombenbau oder Waffenkonstruktion, solche, die Essstörungen oder Drogenkonsum glorifizieren, in denen Lehrer, Nachbarn oder sonstige Personen verunglimpft werden, Websites mit extremen Gewalt- oder Horrordarstellungen, Propaganda-Seiten verfassungsfeindlicher Organisationen jeglicher Coleur, frei für Kinder zugängliche Pornographie usf. Hat unser Zugangsprovider einen Überblick über Kategorien von Seiten, die für eine Sperrung in Betracht kommen, fangen seine Auswahlprobleme erst an. Jede Kategorie schon für sich genommen übersteigt die Ressource von 1 000 Websites bei Weitem. Entschließt er sich etwa, seine Ressourcen ausschließlich zur Bekämpfung von kinderpornographischen Seiten einzusetzen, stellt sich immer noch die Frage, welche er aus der Masse der in Betracht kommenden auswählen soll. Welche ist gefährlicher und entsetzlicher als andere? Wie soll er das feststellen? Und diese Entscheidung trifft er auf Kosten anderer, möglicherweise effizienterer Einsatzmöglichkeiten seiner Ressourcen. Soll die Sperrung einer Nazi-Propaganda-Site 18
http://www.sueddeutsche.de/computer/741/322609/text.
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
187
zugunsten einer kinderpornographischen aufgehoben werden, die möglicherweise schon gar nicht mehr existiert? Darf eine Sperrung von NaziSeiten der Verhinderung einer großangelegten Phishing-Aktion weichen? Treiben wir unser Gedankenexperiment auf die Spitze, wäre eine Situation vorstellbar, in der Selbsttötungen oder Nachahmungstaten von Gewaltdarstellungen hätten verhindert oder Arbeitsplätze und Existenzen von Familien hätten gerettet werden können, wenn andere als die ausgewählten Seiten geblockt worden wären. Was ist zu wählen, wenn man sich entscheiden muss zwischen einer Seite mit gemäßigten Darstellungen im Grenzbereich der Kinderpornographie und einer Seite mit einer üblen Schmähung der Holocaust-Opfer? Was, wenn man sich entscheiden muss zwischen einer Seite über Kannibalismus und einer Phishing-Site? Solche Auswahlentscheidungen können so extrem sein, dass sie einzelnen Personen kaum zuzumuten sind. Und bei alledem – ist es eigentlich der einzelne Zugangsprovider, der diese Entscheidungen treffen sollte?
Kriterien und Verteilungsmechanismen Für die Diskussion über das Access-Blocking ist es sinnvoll, solche begrenzt durchführbaren Maßnahmen als ein Problem der legitimen Verteilung von Ressourcen zu begreifen. Es lassen sich wahrlich nicht alle Probleme im Internet mit Sperrungen lösen. Ziel muss es daher sein, eine sachkundige, faire und letztlich rechtsstaatliche Entscheidung zu treffen, zu wessen Gunsten und für welche Ziele Sperrungen eingesetzt werden. Die Auswahlentscheidung, die in unserem Gedankenexperiment – und auch in der Realität – zu treffen ist, wird von einer Reihe von Faktoren beeinflusst, die dafür von Bedeutung sind, wie ein regulatorischer Rahmen auf einen bestmöglichen Einsatz der existierenden Ressourcen zur Sperrung von strafbaren oder schädlichen Netzseiten hinwirken könnte. Wesentlich ist zunächst, dass es praktisch keine Kriterien gibt, nach denen auf einer prinzipiellen Grundlage eine stets wertungskonsistente Auswahl getroffen werden könnte. Die Gründe für die Sperrung der Seiten der verschiedenen Kategorien sind unterschiedlich und die dahinter stehenden Wertungen lassen sich nicht kardinalisieren. Stellt man etwa auf den Strafrahmen der Delikte als Indikator für die normative Bedeutsamkeit ab, wie es Juristen gern tun, so würde man praktisch niemals zur Sperrung von kinderpornographischen Seiten gelangen können. Stellt man allein auf Effizienz der Sperrung ab, müsste man sich mit der Sperrung von PhishingSites begnügen. Orientiert man sich an Maßstäben der Schrecklichkeit
188
Per Christiansen
oder am politischen Gewicht, würde man zur Sperrung von Gewaltdarstellungen und Kinderpornographie neigen. Und insgesamt lässt sich, sobald man Effizienzgesichtspunkte mit berücksichtigt, nicht generalisierend sagen, wann eine Sperrung zugunsten eines hohen Rechtsgutes mit geringer Verletzungswahrscheinlichkeit, der eines anderen, wertungsmäßig geringeren Rechtsgutes mit einer hohen Verletzungswahrscheinlichkeit vorzuziehen ist. Kann man sagen, dass eine Seite mit Anleitung zum Selbstmord, die so im Internet versteckt ist, dass sie praktisch niemand findet, eher zu blocken sei als eine Phishing-Site, deren Schaden für Massen von Nutzern praktisch sicher vorauszusagen ist? Generalisierend ließe sich das aufgrund des Prinzips des absoluten Lebensschutzes wohl sagen. Aber wäre es denkbar, die Sperrung der Selbstmordseite vorübergehend für drei Tage aufzuheben, bis die Phishing-Aktion vorüber ist? Sobald man die Effizienz einer Sperrung für einen sinnvollen Einsatz der begrenzten Ressourcen mit berücksichtigt, gilt übrigens auch nicht mehr das oft, insbesondere in den Diskussionen über die Sperrung von Kinderpornographie und von Urheberrechtsverletzungen vorgebrachte Argument, auch ein kleiner Effekt durch eine Sperrung sei besser als gar keiner. In einem Szenario begrenzter Ressourcen hat jede Entscheidung Opportunitätskosten, d. h. Kosten als Folge der Entscheidung gegen eine Alternative. Wenn diese Kosten den Nutzen der getroffenen Entscheidung übersteigen, war die Entscheidung unter Effizienzgesichtspunkten falsch (kann aber moralisch oder politisch dennoch richtig sein). Ein weiterer Faktor im Rahmen der Auswahlentscheidung ist, dass bei einer Folgenbetrachtung immer eine Prognose getroffen werden muss. Sie verlangt zum einen erhebliches, breit gestreutes Expertenwissen. Zum anderen kann sich die Prognose als falsch herausstellen, insbesondere weil man die Distanzfolgen einer Entscheidung nicht absehen kann. Weitere Faktoren liegen in der Person des Entscheiders begründet, der konkret die Auswahl zu treffen hat. Seine eigene Interessen, Motive, Werte und Wertehierarchie, Risikobewusstsein und Fachkenntnis prägen die Auswahlentscheidung, da hierfür mangels prinzipieller Kriterien Raum ist. Das sollten die aufgeführten Beispiele gezeigt haben. Hinzu kommt, in welcher Situation sich der Entscheider befindet, ob und in welchem Umfang er ein persönliches Risiko eingeht und inwieweit ihn die Folgen einer möglichen Fehlprognose treffen würden. Etwa wäre eine Entscheidung, eine bestimmte kinderpornographische Seite nicht zu sperren, politisch schwer zu vertreten, auch wenn es noch so gute Gründe hierfür gäbe. Deshalb wäre eine solche Entscheidung auch nicht von jemandem zu erwarten, der auf sein politisches Erscheinungsbild achten muss. Umgekehrt kann
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
189
die Entscheidung der Geschäftsführung eines Providers, sich ausschließlich auf die Sperrung von kinderpornographischen Seiten zu beschränken, taktisch eine rationale Entscheidung sein, da sie moralisch und argumentativ in der Öffentlichkeit unangreifbar ist und den Provider möglicherweise vor der erwähnten Kostenspirale schützt. Man stelle sich nur vor, wie man als Anspruchsteller, der die Einrichtung einer Sperrung verlangt, dastünde, wenn der Provider die Sperrung einer kinderpornographischen Seite aufhebt, um den geltend gemachten Sperrungsanspruch zu erfüllen. Schließlich wirkt gewissermaßen von außen die Rechtsordnung auf die Auswahlentscheidung ein. Auch wenn eine wohlüberlegte Auswahlentscheidung getroffen wurde, so hat eine gerichtliche Anordnung an einen Zugangsprovider immer vor allem Anderen Priorität, da sie mit Zwangsmitteln gegen den Provider durchgesetzt werden kann. In einem Verfahren, in dem ein Anspruch auf Sperrung gegen den Zugangsprovider als Störer erfolgreich geltend gemacht wird und das naturgemäß nur die Interessen von Kläger und Beklagtem berücksichtigen kann, spielen die aufgezeigten Gesichtspunkte, die für eine sinnvolle Verteilung der Ressourcen zur Sperrung maßgeblich sind, keine Rolle. Das führt insgesamt zu einem Verteilungsmodus über die vorhandenen Ressourcen, der sich salopp formuliert als „wer zuerst kommt, mahlt zuerst“ kennzeichnen lässt. Wer es schafft, sich gerichtlich in die Ressourcen der Provider einzuklagen, wird sicher berücksichtigt, welche Schäden und Opportunitätskosten das auch immer bewirken mag. Und es ist keinesfalls sicher, dass sich diejenigen gerichtlich durchsetzen, deren Anliegen am schwersten wiegen. Im Gegenteil, es sind diejenigen, die sich diese schwierigen juristischen und lobbyistischen Auseinandersetzungen am ehesten leisten können. Insgesamt lässt sich die Auswahlentscheidung über den sinnvollen Einsatz von begrenzten Ressourcen zur Sperrung von Netzseiten wie folgt kennzeichnen: Es handelt sich um eine komplexe, in hohem Maße einzelfallabhängige Abwägungsentscheidung, bei der eine Reihe von Wertungsgesichtspunkten pareto-optimal in Ausgleich gebracht werden müssen, die insbesondere für die Effizienzbetrachtung ein hohes Maß an Expertise erfordert und die stark beeinflusst ist von der Person und der Rolle des Entscheiders. Gegenwärtig überlässt man diese Entscheidung den – glücklicherweise recht zurückhaltenden – Gerichten nach dem Prinzip der zeitlichen Priorität, im Übrigen individuell dem einzelnen Zugangsprovider. Seine individuelle Entscheidung wiederum ist mit hoher Wahrscheinlichkeit im Wesentlichen durch taktische Erwägungen geprägt, wirtschaftliche Risiken aufgrund einer regulatorischen Fehlsteuerung auszuschalten. Auch ist fraglich, ob sich das nötige Expertenwissen in der Hand des jeweils ein-
190
Per Christiansen
zelnen Providers befindet, da er keinen wirtschaftlichen Anreiz zur Aneignung von Expertise in der Beurteilung von Sperrungen hat.
Regulatorischer Rahmen für eine richtige Auswahlentscheidung Wie müsste der ideale regulatorische Rahmen beschaffen sein, damit die bestehenden und zu schaffenden Ressourcen der Provider zur Sperrung strafbarer oder schädlicher Inhalte bestmöglich eingesetzt werden? Man kann davon ausgehen, dass sogar innerhalb Europas zwischen den einzelnen Mitgliedsstaaten erhebliche kulturell bedingte Unterschiede in den Auffassungen hierzu bestehen19 – schon in der Frage, wem überhaupt die Auswahlentscheidung zusteht. In Deutschland etwa wird derzeit diskutiert, ob das Bundeskriminalamt eine Liste von zu sperrenden Seiten definieren und an die Provider liefern sollte oder ob nicht insgesamt nach der Liste der von der BPJM indizierten Websites gesperrt werden sollte.20 Das wäre ein System, das man im anglo-amerikanischen Raum nicht verstehen würde. Man würde es wahrnehmen als ein System, das dem Staat unkontrollierten Zugang zu einem totalen Zensurapparat geben würde. Dort zieht man vielmehr ein System der Selbstregulierung vor, in dem die Provider selbst – etwa über Meldefunktionen für Kunden – Informationen über illegale Inhalte generieren, verarbeiten und an die teilnehmenden Stellen weitergeben. Beispielsweise hält die Internet Watch Foundation21 eine tagesaktuelle Liste von kinderpornographischen Websites zum Bezug durch Zugangsprovider bereit. Dieses System wiederum hat Defizite bei der Legitimation des Umgangs mit illegalem Material. Es ist zweifelhaft, auf welcher Grundlage sich eine privatwirtschaftliche Stelle anmaßen kann, an den Staatsanwaltschaften vorbei mit strafbaren Inhalten umzugehen. Aus Sicht des Grundgesetzes ließe sich sogar fragen, ob die mit der Allokation von Ressourcen zur Sperrung von Inhalten verbundenen Fragen so wesentlich sind, dass eine gesetzliche Regelung geboten ist. Zwei Ansätze sind denkbar, ein pauschalierender und ein differenzierender. In einem pauschalierenden Ansatz legt der Gesetzgeber eine konkrete Kategorie von zu sperrenden Netzseiten fest (wahrscheinlich kinder19 20
21
Umfrage des Youth Protection Round Table; http://www.yprt.eu. http://www.bmfsfj.de/bmfsfj/generator/Politikbereiche/kinder-und-jugend,did= 115194.html. Internet Watch Foundation, http://www.iwf.org.uk.
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
191
pornographische Seiten). Die von Providern nach der Rechtsordnung bereitzustellenden Ressourcen zur Sperrung sind dann identisch mit der Anzahl der Seiten in dieser Kategorie. Ein solches System wäre einfach und transparent, hätte jedoch den Nachteil, dass die Ressourcen mit einer gewissen Wahrscheinlichkeit in einer Gesamtschau nicht optimal eingesetzt würden. Ein differenzierender Ansatz würde darauf abzielen, die Ressourcen zur Sperrung in der Bekämpfung strafbarer und schädlicher Inhalte möglichst effizient einzusetzen und die Auswahlentscheidung als laufenden, stets neu zu optimierenden Auswahlprozess zu gestalten. Wenn ein solcher Ansatz realisierbar ist, wäre er gegenüber einem pauschalierenden Ansatz vorzugswürdig, weil er strafbare Inhalte im Internet besser bekämpft. In einem solchen Ansatz wäre die Gewähr von großer Bedeutung, die Auswahlentscheidung werde mit der notwendigen Fachkenntnis und neutral ohne wirtschaftliche Eigeninteressen getroffen. Das setzte eine Struktur voraus, die es erlaubt, unpopuläre Entscheidungen zu treffen, Erfahrungen und Expertise zu akkumulieren und wenn nötig Entscheidungen auch kurzfristig zu revidieren. Das wiederum setzt eine gewisse Unabhängigkeit voraus. Auch ist eine Auswahlentscheidung in einem Gremium zu treffen, um sachwidrige Beeinflussungen durch individuelle Wertvorstellungen zu minimieren. All das scheint – betracht man die durch den regulatorischen Rahmen gesetzten Anreize – ein Paradefall für die Form der regulierten Selbstregulierung zu sein, also eine Form, in der Umfang und Gegenstand der Sperrungen durch einen staatlich beaufsichtigten Verband gesteuert wird, der sich selbst aber nur aus den Vertretern der betroffenen Unternehmen zusammensetzt. In dieser Stelle würde die Branchenkenntnis und Sachnähe, insbesondere auch in technischer Hinsicht, zusammengeführt. Eine solche Stelle wäre in der Tat auch in der Lage, notwendige und unpopuläre Entscheidungen im Interesse des bestmöglichen Einsatzes der Ressourcen zu treffen, da sie weder politisch abhängig noch ausschließlich dem wirtschaftlichen Eigeninteresse verpflichtet wäre – das in einem Umfeld, in dem eine unter Wertungsgesichtspunkten konsistente Verteilungspolitik wahrscheinlich gänzlich unmöglich ist. Die Zusammenarbeit mit den Ermittlungsbehörden und damit die Nutzung dieses spezifischen Know How wären damit keinesfalls ausgeschlossen, sondern in Zusammenarbeit mit der Aufsicht oder in einer Privat-Public-Partnership britischen Vorbilds ohne weiteres möglich.22 Auch schließt ein im Grundsatz selbstregulatori22
Virtual Global Taskforce, http://www.virtualglobaltaskforce.com.
192
Per Christiansen
scher Ansatz nicht aus, dass es rechtsstaatliche Verfahren gegen irrtümliches Overblocking oder gar gegen Willkürmaßnahmen gibt. Eine Regulierung dieser Selbstregulierungsinstanz durch eine Aufsicht, die lediglich prüft, ob die übertragenen Aufgaben korrekt wahrgenommen werden, stellte ergänzend hierzu sicher, dass sich die angeschlossenen Unternehmen tatsächlich die mit der Sperrung verbundenen Kosten selbst auferlegen. Eine alternative, gänzliche Übernahme und Sanktionierung durch eine Behörde stellt aus Unternehmenssicht immer die wirtschaftlich ungünstigere Variante dar („heavy stick in the background“). Zugleich ließe sich mit einer regulierten Selbstregulierung das Problem der fehlenden Legitimation von privaten Stellen zum Umgang mit strafbaren Inhalten lösen, wenn sie nach (grund-)gesetzlichen Vorgaben zertifiziert wäre. Schließlich ließe sich in einer solchen regulatorischen Struktur auch das Problem lösen, dass sich Provider aus Angst vor einer nicht enden wollenden Kostenspirale dem Einsatz der eigenen vertretbaren Ressourcen zur Bekämpfung strafbarer oder schädlicher Inhalte gänzlich verweigern. Gäbe es eine Rechtsnorm, die gerichtliche Ansprüche auf Sperrungen gegen einen Provider ausschließt, wenn er seine vorhandenen und zumutbaren (gegebenenfalls einzurichtenden) Ressourcen im dargestellten System regulierter Selbstregulierung zur Verfügung stellt, was wiederum im Rahmen dieses Systems zu kontrollieren wäre, so hätte der Provider einen erheblichen Anreiz, diesem System wirklich beizutreten. All das würde gegenüber dem gegenwärtigen Zustand in Umfang und Effizienz des Einsatzes der Ressourcen zur Bekämpfung strafbarer oder schädlicher Websites eine erhebliche Verbesserung darstellen.
Fazit Die Diskussion über die Sperrung von strafbaren oder schädlichen Netzseiten durch Zugangsprovider ist ein Problem der legitimen und sachgerechten Verteilung begrenzter Ressourcen. In den gegenwärtigen regulatorischen Strukturen ist eine legitime und sachgerechte Verteilung dieser Ressourcen nicht gewährleistet. Es muss sogar damit gerechnet werden, dass bestehende oder mögliche Ressourcen aufgrund einer regulatorischen Fehlsteuerung vorenthalten werden. Ein besserer Einsatz vorhandener und möglicher Ressourcen ist in einem System regulierter Selbstregulierung zu erwarten, das die Anreize auf das Verhalten der Zugangsprovider richtig setzt. Ein solches System müsste die Provider von gerichtlichen Ansprüchen auf Sperrungen schützen, soweit sie sich dem System der regulierten
Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten
193
Selbstregulierung anschließen und die ihnen zumutbaren Ressourcen zur Bekämpfung strafbarer oder schädlicher Internetseiten tatsächlich zur Verfügung stellen.
Über den Autor Dr. Per Christiansen, MSc (LSE), ist Leiter Recht und Personal der AOLGruppe in Deutschland, Vorstand der Freiwilligen Selbstkontrolle Multimedia e. V. und der Stiftung Digitale Chancen. Er betreut Unternehmen sowohl im Bereich des Publishing (AOL, Bebo) als auch in der Werbevermarktung (Platform-A, AOL, Ad.com). Er studierte Rechtswissenschaften und Philosophie an der Universität Kiel sowie Regulierungswissenschaften an der London School of Economics. Promotion im Gesellschaftsrecht, Rechtsanwalt seit 2001. Veröffentlichungen zum Medienhandelsrecht und zu Fragen der sachgerechten Internet-Regulierung.
Daten- und Persönlichkeitsschutz im Web 2.0
Alexander Dix Schon früh wurde es als ein wesentliches Merkmal des Internet angesehen, dass seine Nutzer gleichzeitig Konsumenten und Urheber von Informationen, Nachrichten und Meinungen sind oder jedenfalls sein können. Erst mit dem so genannten Web 2.0 ist diese Eigenschaft des weltweiten Netzes tatsächlich realisiert worden. Von der Internet-Enzyklopädie Wikipedia über Webseiten, die auf örtliche Missstände hinweisen1, Suchmaschinen, die von den Nutzenden optimiert werden2, Internet-Auktionen, MikroBlogging-Seiten3, Video4- und Fotoportale5 bis hin zu den Wahlkampfplattformen von Barack Obama gibt es viele Beispiele dafür, wie das Internet soziale Kommunikation und politische Mobilisierung auch in der Realität befördern und intensivieren kann. Im Rahmen dieses Beitrags können nicht alle diese Angebote im Hinblick auf Fragen des Persönlichkeits- und Datenschutzes untersucht werden. Vielmehr werden beispielhaft Bewertungsportale und soziale Netzwerke analysiert. Datenschutz und Schutz der Persönlichkeitsrechte sind zwei unterschiedliche Grundrechtspositionen, deren Wahrung im Internet insbesondere bei den Anwendungen des Web 2.0 eigene Probleme aufwirft. Das 1
2
3 4
5
Vgl. die Webseite fixmystreet.com, auf der Mängel des örtlichen Straßenzustands veröffentlicht werden können und Abhilfe organisiert werden kann. Vgl. das von Yahoo initiierte Programm „Boss“ (Build Your Own Search Service), Technology Review November 2008, 22. Z. B. Twitter.com. Z. B. Youtube.com. Auf dem Portal qik.com kann jeder mit einem Handy gemachte Filmaufnahmen z. B. von Fußballspielen ins Netz stellen. Der Blogger Sascha Lobo hat zu Recht darauf hingewiesen, dass das auf Dauer das Vermarktungskonzept der Bundesligaklubs in Frage stellen könnte; vgl. hartplatzhelden.de. Z. B. Flickr.com.
196
Alexander Dix
Internet ermöglicht den Nutzern nicht nur den Informationsabruf, sondern darüber hinaus die – möglicherweise weltweite – Verbreitung ihrer intimsten Gedanken und Vorlieben, aber auch die Veröffentlichung von Meinungen über andere. In Bewertungsportalen („Ranking Sites“) kann jeder sein Werturteil über Hotels oder Restaurants, über Lehrer, Professoren, Richter, Polizisten, Ärzte6 oder Finanzdienstleister veröffentlichen. In sozialen Netzwerken („Social Communities“), deren Reichweite in letzter Zeit stärker gewachsen ist als die aller anderen Internet-Angebote, können Gleichgesinnte gleich welchen Alters sich austauschen. Interessengruppen im Cyberspace, vor allem aber Jugendliche nutzen diese neuen Kommunikationsformen. Solche Netzwerke übernehmen die Funktion von schwarzen Brettern, Foren, virtuellen Kuschelecken und der bisherigen E-Mail-Kommunikation. Aber auch Hochschulabsolventen oder qualifizierte Beschäftigte auf Stellensuche nutzen Plattformen, um von Angeboten zu erfahren oder sich beruflich zu verändern. Auch Mischformen zwischen sozialen Netzwerken und Bewertungsplattformen sind denkbar. Allen diesen Formen des „User Generated Content“ ist gemeinsam, dass es sich um Telemedien handelt7, die von Intermediären angeboten werden. Diese Anbieter unterliegen den Vorgaben des Telemediengesetzes, das sowohl Datenschutzregelungen zum Umgang mit den Nutzungsdaten als auch Verantwortlichkeitsregelungen für Persönlichkeitsrechtsverletzungen enthält. Daneben finden Regelungen des Bundesdatenschutzgesetzes Anwendung. All diese Regelungen bieten allerdings für sich genommen keinen vollständigen Schutz vor einer umfassenden Ausleuchtung der Persönlichkeit der Nutzer. Generell stellt sich die Frage nach dem Verhältnis zwischen den Grundrechten auf Schutz der Persönlichkeit, auf Datenschutz und auf Meinungsfreiheit.8 6
7
8
Vgl. die Portale helpster.de, imedo.de, arzt-auskunft.de, aerzte-bewerten.de, docinsider.de, netdoktor.de. Vgl. die Anlage zu § 11d Abs. 5 Satz 4 des 12. Rundfunkänderungsstaatsvertrages, aus der sich ergibt, dass öffentlich-rechtliche Rundfunkanstalten keine Telemedien anbieten dürfen, die Bewertungsportale für Dienstleistungen, Einrichtungen und Produkte oder Business-Networks beinhalten. Vgl. dazu näher Damm, R. / T. Irion (2003): Persönlichkeitsschutz im Internet, in: Eberle, C.-E. / W. Rudolf / K. Wasserburg (Hrsg): Mainzer Rechtshandbuch der Neuen Medien, Heidelberg, S. 297 ff.; Garstka, H. (2003), in: Eberle, C.E. / W. Rudolf / K. Wasserburg (Hrsg): Mainzer Rechtshandbuch der Neuen Medien, Heidelberg, S. 329 ff.; Janal, R.: Abwehransprüche im elektronischen Markt der Meinungen, in: CR, 2005, S. 873-878; Garstka; H. (2008): Das
Daten- und Persönlichkeitsschutz im Web 2.0
197
Bewertungsportale Es gibt Bewertungsportale in vielfältiger Form, die jeweils in ihrer Besonderheit bewertet werden müssen, was hier nicht abschließend zu leisten ist. Teilweise setzen sie eine Registrierung der Nutzenden bei der Eintragung von Bewertungen voraus, teilweise verzichten sie darauf. Während bei der Lehrerbewertungsplattform spickmich.de jeder, der eine Bewertung abgeben will, sich zunächst als Schüler der Schule anmelden muss, an der die zu bewertende Lehrkraft unterrichtet, verzichtet die Plattform MeinProf.de, bei der Hochschullehrer beurteilt werden können, darauf völlig. Bei spickmich.de wiederum ist keine schulübergreifende Namenssuche nach Lehrkräften möglich, sondern man muss zunächst eine konkrete Schule angeben, in der man Bewertungen abfragen will. Jeder Abrufende muss sich als Benutzer (Schüler oder Interessierter, also Lehrer oder Eltern) registrieren. Bei MeinProf.de fehlen derartige Abrufbeschränkungen. Allerdings verlangt keine der bisher bekannten Plattformen eine strenge Authentifizierung der Nutzer (z. B. mit einem Post-Ident-Verfahren wie beim OnlineBanking), die angesichts des gegenwärtigen Standes der Technik (fehlende elektronische Signatur und Public-Key-Infrastruktur) erhebliche Kosten verursachen würde. Schließlich werden bei spickmich.de lediglich Mittelwerte der Lehrerbewertungen veröffentlicht, während auf der Plattform MeinProf.de zwar eine bestimmte Mindestanzahl an Bewertungen gefordert, teilweise aber schon vor deren Erreichen Einzelbewertungen über Hochschullehrer veröffentlicht werden. MeinProf.de erlaubt zudem – im Gegensatz zu spickmich.de – die bundesweite Suche nach Lehrkräften, die in „Top- und Floplisten“ geführt werden. Die Entwicklung in der Bundesrepublik folgt ausländischen Beispielen insbesondere in den USA, wo Portale zur Beurteilung von Amtsträgern (z. B. Hochschullehrern9, Richtern10, Polizisten11, Ärzten und Rechtsanwäl-
9 10
Selbstbestimmungsrecht und das Recht auf informationelle Selbstbestimmung, in: Götting, H-P. / C. Schertz / W. Seitz (Hrsg.): Handbuch des Persönlichkeitsrechts, München, S. 392-409; Seitz, W. (2008): Persönlichkeitsverletzungen im Internet, in: Götting, H-P. / C. Schertz / W. Seitz (Hrsg.): Handbuch des Persönlichkeitsrechts, München, S. 1007-1026; Kramer, P. (2008), in: Paschke, M. / W. Berlit / C. Meyer (Hrsg.): Hamburger Kommentar. Gesamtes Medienrecht, Baden-Baden, S. 1343 ff. Ratemyprofessor.com. RobeProbe.com; in Deutschland vgl. richterdatenbank.net/richterdatenbank und richterdatenbank.net/staatsanwaltsdatenbank.
198
Alexander Dix
ten) seit geraumer Zeit online sind. Das Bundesverfassungsgericht hat sich bisher noch nicht (abschließend) mit Bewertungen im Internet befasst. Allerdings hatte es schon 2001 über die Frage zu entscheiden, ob die zivilrechtliche Untersagung einer Online-Veröffentlichung der Schuldnereigenschaft eines Unternehmens verbunden mit der Bewertung, bei dem Unternehmen handele es sich um eine „kriminelle Zahlungsverweigerin“ die Meinungsfreiheit desjenigen verletzt, der diese (auf Tatsachen beruhende) Bewertung im Internet veröffentlicht.12 Das Gericht wies seine Verfassungsbeschwerde nur aus formalen Gründen zurück, weil er sich gegen ein vorläufiges Unterlassungsgebot wehrte und den Rechtsweg in der Hauptsache nicht ausgeschöpft hatte. Immerhin hat das Bundesverfassungsgericht bei dieser Gelegenheit darauf hingewiesen, dass von solchen Veröffentlichungen im Internet eine weltweite „Prangerwirkung“ ausgehen kann. Nach seiner Auffassung haben vorrangig die Zivilgerichte zu prüfen, „ob die mit der im Internet erfolgenden öffentlichen Anprangerung einer Person als Schuldner verbundene nachteiligen Wirkungen Besonderheiten bei der rechtlichen Würdigung, insbesondere bei der Abwägung mit den ebenfalls grundrechtlich geschützten Kommunikationsinteressen der Domain-Inhaber, bewirken“13. Eine Prüfung dieser Fragen durch den Bundesgerichtshof, die das Bundesverfassungsgericht als Voraussetzung für die Zulassung einer Verfassungsbeschwerde verlangt hat, steht noch aus und ist im konkreten Fall nicht erfolgt, weil der Rechtsstreit in der Hauptsache offenbar nicht weiter verfolgt wurde. Möglicherweise wird der Bundesgerichtshof aber demnächst Gelegenheit haben, sich mit dieser Problematik zu beschäftigen, wenn er über die Zulässigkeit der Nennung und Bewertung von Lehrerinnen und Lehrern auf der Plattform spickmich.de zu entscheiden haben wird. Diese Plattform ist gleichzeitig ein soziales Netzwerk („Community Portal“), in dem Schülerinnen und Schüler miteinander kommunizieren oder virtuelle Gruppen, Clubs oder Freundeskreise bilden können. Bisher haben die Zivilgerichte mit unterschiedlicher Begründung derartige Plattformen als zulässig angesehen.14 Sie hatten jeweils über Klagen gegen die Plattformbetreiber zu
11 12 13 14
RateMyCop.com. Beschluss v. 9.10.2001 – 1 BvR 622/01 – (Rostocker Schuldnerspiegel). Ebd. Rz. 32. LG Köln Urt. v. 11.7.2007, CR 2007, 666 m. Anm. Plog; OLG Köln Urt. v. 27.11.2007, K&R 2008, 40 m. Anm. Plog/Bandehzadeh; LG Duisburg Urt. v.
Daten- und Persönlichkeitsschutz im Web 2.0
199
entscheiden. Nach der Rechtsprechung des Bundesgerichtshofs zur Haftung von Forenbetreibern können sie von den Geschädigten auch dann auf Unterlassung der Weiterverbreitung von ehrverletzenden Äußerungen in Anspruch genommen werden, wenn die Identität des Urhebers dieser Äußerung bekannt ist und er deshalb auch selbst in Anspruch genommen werden könnte.15 Schreibt der Gesetzgeber die Geheimhaltung der Identität eines Urhebers ausnahmslos auch in Fällen vor, in denen er in die Privatsphäre Anderer eindringt, so kann das gegen die Europäische Menschenrechtskonvention verstoßen. Das hat der Europäische Menschenrechtsgerichtshof auf eine Klage gegen Finnland hin entschieden.16 Daraus kann allerdings nicht abgeleitet werden, der Menschenrechtsschutz gebiete die anlassunabhängige Speicherung von Verkehrs- oder sogar Nutzungsdaten.17 Der Schutz der Privatsphäre gebietet lediglich, dass im Einzelfall auf ohnehin vorhandene Verkehrs- oder Nutzungsdaten zugegriffen werden darf, wie es das deutsche Recht schon vor der Einführung der verpflichtenden Vorratdatenspeicherung zuließ. Die Zivilgerichte in der Bundesrepublik haben bisher sowohl die Fragen des Persönlichkeitsrechts als auch des Datenschutzes bei Bewertungsportalen in der Weise beantwortet, dass jedenfalls die in Rede stehenden Angebote weder zivilrechtlich noch datenschutzrechtlich zu beanstanden waren. Soweit die Namen und berufliche Tätigkeit von Lehrerinnen und Lehrern auf solchen Plattformen öffentlich gemacht wurden, handele es sich um öffentlich zugängliche Daten. Die Bewertungen der Lehrenden unter den Kriterien „guter Unterricht“, „fachlich kompetent“, „motiviert“, „faire Noten“, „faire Prüfungen“, „gut vorbereitet“, „cool und witzig“, „menschlich“, „beliebt“ und „vorbildliches Auftreten“ mit Noten überschreite nicht die Grenze zur Schmähkritik oder Formalbeleidigung und stelle auch keinen Angriff auf die Menschenwürde der bewerteten Person dar.18 Auch liege in
15 16
17 18
18.4.2008 – 10 O 350/07 – (alle zu spickmich.de); LG Berlin Urt. v. 31.5.2007 – 27 S 2/07 – (MeinProf.de). BGH NJW 2007, 2558 f. K. U. v. Finnland, Urt. v. 2.12.2008. In dem Fall ging es um den Annäherungsversuch eines Pädophilen gegenüber einem Kind in einem Internet-Forum. Das finnische Recht verbot seinerzeit ausnahmslos die Offenlegung von Identitätsdaten. Mittlerweile hat Finnland seine Gesetzgebung in der Weise modifiziert, dass auf staatsanwaltliche Anordnung Diensteanbieter in derartigen Fällen identifizierende Daten offen legen müssen. A. A. offenbar Heckmann, vgl. http://www.heise.de/newsticker/meldung/120133. OLG Köln (Fn. 10).
200
Alexander Dix
solchen Beurteilungen im Internet kein unzulässiges Anprangern der Betroffenen. Vielmehr könne sich der Plattformbetreiber insofern auf das Grundrecht auf freie Meinungsäußerung berufen. Das OLG Köln hat ausdrücklich eine Analogie zu herkömmlichen Schülerzeitungen gezogen.19 Offen gelassen hat das Gericht allerdings die Frage, ob auch Bewertungen von Lehrerinnen nach dem Kriterienpaar „sexy“ bzw. „hässlich“ zulässig wäre, denn diese zunächst vorhandenen Kriterien hatten die Betreiber von der Plattform entfernt. Ob die Berufung auf Art. 5 GG in diesem Fall tatsächlich tragfähig ist, mag aus zwei Gründen zweifelhaft erscheinen, die das OLG Köln nicht erörtert: Zum einen ist es nicht der Plattformbetreiber, der seine Meinung veröffentlicht, sondern er ermöglicht anderen, ihre Meinung online zu äußern. Zum anderen werden jedenfalls bei der Lehrerbewertungsplattform spickmich.de Durchschnittswerte von subjektiven Bewertungen gebildet, die dann zu einer Gesamtnote für die beurteilte Person führen. Ob solche „Meinungsdurchschnitte“ (abgesehen von darüber hinaus abgegebenen Einzelkommentaren im Klartext) auch von Art. 5 GG geschützt werden, kann durchaus in Frage gestellt werden. Jedenfalls die Einzelbewertungen im Klartext sind aber Meinungsäußerungen der Beurteiler, die dem Schutzbereich des Grundrechts unterliegen und deren Einschränkung deshalb nur im verfassungsrechtlich zulässigen Rahmen erfolgen darf. Wesentlich für die Bewertung war auch der Umstand, dass Lehrerbeurteilungen bei spickmich.de nur abgerufen werden können, wenn man eine konkrete Schule eingibt. Eine schulübergreifende oder gar bundesweite Suche nach gut oder schlecht bewerteten Lehrkräften hatte das Gericht nicht zu beurteilen. Auch das Recht der beurteilten Lehrerin auf informationelle Selbstbestimmung wird durch eine solche Plattform nicht von vornherein unzulässig beeinträchtigt. Zu Recht hält das OLG Köln allerdings das Bundesdatenschutzgesetz auf den Plattformbetreiber für anwendbar. Bei der Anwendung des Bundesdatenschutzgesetzes ist praktische Konkordanz zwischen den Grundrechten auf Meinungsfreiheit und auf informationelle Selbstbestimmung herzustellen. Jede Datenübermittlung, die gegen das Bundesdatenschutzgesetz verstößt, verletzt gleichzeitig das allgemeine Persönlichkeitsrecht.20 Selbst wenn das Bundesdatenschutzgesetz wegen des Medienprivilegs des § 41 BDSG nur eingeschränkt anwendbar ist, kann dennoch eine Persönlich19
20
Demgegenüber hat das OLG Jena (MMR 2001, 52) in der Verbreitung der Anprangerung des politischen Gegners eine Potenzierung der Gefahr für Leib oder Leben des Angeprangerten gesehen, die er nicht hinzunehmen verpflichtet sei. BGH NJW 1984, 436.
Daten- und Persönlichkeitsschutz im Web 2.0
201
keitsverletzung durch das Medienunternehmen gegeben sein. Zivilrechtlicher Schutz des Persönlichkeitsrechts und Datenschutz überschneiden sich also teilweise, sind aber nicht deckungsgleich. Dem Betreiber des spickmich-Portals hat das OLG Köln zutreffend die Berufung auf das Medienprivileg des § 41 BDSG verwehrt, denn er ist kein Unternehmen oder Hilfsunternehmen der Presse im Sinne dieser Vorschrift.21 Nicht jede Person, die sich auf die Meinungsäußerungsfreiheit im Netz berufen kann, kommt nach dem klaren Wortlaut des Gesetzes auch in den Genuss des Medienprivilegs nach § 41 BDSG. Nicht überzeugend ist allerdings die materielle Rechtsgrundlage für den Betrieb der Bewertungsplattform, die das OLG Köln dem Bundesdatenschutzgesetz entnimmt: die Regelung des § 28 Abs. 1 Nr. 3 BDSG, wonach Daten aus allgemein zugänglichen Quellen zur Erfüllung eines eigenen Geschäftzwecks übermittelt und gespeichert werden dürfen, es sei denn, ein schutzwürdiges Interesse betroffener Personen am Ausschluss der Verbreitung oder Nutzung überwiegt. Die subjektiven Bewertungen durch die Schülerinnen und Schüler waren vor ihrer Veröffentlichung bei spickmich.de gerade noch nicht öffentlich zugänglich. Näher liegt es demgegenüber, Bewertungsportale nach § 29 BDSG zu beurteilen, denn der Portalbetreiber tut nichts anderes, als die Beurteilungen anderen zum Abruf zur Verfügung zu stellen.22 Das gilt vor allem dann, wenn Bewertungsportale als auskunftei-ähnliche, recherchierbare Datenbank betrieben werden. Würde man derartige Online-Datenbanken von den Begrenzungen des § 29 BDSG freistellen, so gäbe es keine Legitimation mehr dafür, konventionelle Auskunfteien wie die SCHUFA (die ihre Aktivitäten teilweise bereits in das Internet verlegt) weiterhin diesen Regeln zu unterwerfen. Betreiber von Bewertungsportalen, die – anders als die Betreiber von spickmich.de – nicht einmal den Versuch unternehmen, über ein Registrierungsverfahren sicherzustellen, dass nur solche Personen Beurteilungen über andere abgeben können, die sie auch in ihrer beruflichen Tätigkeit 21
22
A. A. Greve, H. / F. Schärdel: Der digitale Pranger – Bewertungsportale im Internet, in: MMR, 2008, S. 644-647; unklar das LG Berlin (Fn. 12), das einen „Verstoß gegen § 41 BDSG“ verneint, weil die veröffentlichten Angaben nach § 29 Abs.1 Satz 1 Nr.2 BDSG „privilegiert“ seien. Vgl. Schilde-Stenzel, A.: „Lehrevaluation“ oder Prangerseite im Internet: www.meinprof.de – Eine datenrechtliche Bewertung, in: RDV, 2006, S. 104108; Plog, P. / M. Bandehzadeh: K&R-Kommentar, in: K&R, 2008, S. 45; Ballhausen, D. / M. Roggenkamp: Personenbezogene Bewertungsplattformen, in: K&R, 2008, S. 403-410, und die Vorinstanz (LG Köln).
202
Alexander Dix
erlebt haben (z. B. Studenten, die Lehrveranstaltungen des Professors besucht haben, den sie bewerten wollen), erfüllen nicht die Rechtmäßigkeitsvoraussetzungen des § 29 Abs. 1 Satz 1 Nr. 1 BDSG. Denn Betroffene haben ein schutzwürdiges Interesse daran, dass nicht beliebige Personen Bewertungen über sie in eine auskunftei-ähnliche Datenbank einstellen dürfen, die derartige Werturteile aus eigener Anschauung (als Student, Mandant, Patient etc.) gar nicht fällen können (sondern z. B. nur eine Privatfehde mit der beurteilten Person im Netz austragen wollen). Dementsprechend hat auch der „Düsseldorfer Kreis“, das Koordinierungsgremium der deutschen Aufsichtsbehörden für den Datenschutz in der Wirtschaft, in seinem Beschluss vom April 2008 die Einhaltung der gesetzlichen Bestimmungen über die geschäftsmäßige Verarbeitung personenbezogener Daten gefordert.23 Er ist dagegen nicht soweit gegangen, die Veröffentlichung von Daten bzw. Bewertungen über Dritte von deren Einwilligung abhängig zu machen.24 Zuzustimmen ist dem OLG Köln dagegen wieder bei der Feststellung, dass das Bundesdatenschutzgesetz ein „allgemeines Gesetz“ im Sinne des Art. 5 Abs. 2 GG ist und das Grundrecht der freien Meinungsäußerung daher in zulässiger Weise beschränkt. Dann aber hätte es nahe gelegen, auch die weiteren Anforderungen zu prüfen, die das Bundesdatenschutzgesetz an geschäftsmäßige Datenverarbeiter zum Zwecke der Übermittlung stellt. Das gilt sowohl für die Pflicht, zumindest stichprobenartig das berechtigte Interesse der Person zu überprüfen, der die Daten übermittelt werden sollen (§ 29 Abs. 2 Nr. 1 a) BDSG), die Darlegung dieses Interesse zu protokollieren (§ 29 Abs. 2 Satz 3 BDSG) wie auch für die Benachrichtigungspflicht nach § 33 BDSG.25 Im Sinne der notwendigen praktischen Konkordanz mit der Meinungsäußerungsfreiheit dürfen an die Überprüfung und Protokollierung des berechtigten Interesses allerdings keine überhöhten Anforderungen gestellt werden. Die Pflicht zur Überprüfung des berechtigten Interesses der abrufenden Person erfüllten die Betreiber von spickmich.de jedenfalls im Ansatz dadurch, dass sie eine schulbezogene Registrierung von Schülern und Interessenten vorschrieben.26 23
24
25
26
Vgl. http://www.datenschutz-berlin.de/content/deutschland/duesseldorfer-kreis (abgerufen am 20.12.2008). Vgl. demgegenüber Dorn, G.: Lehrerbenotung im Internet, in: DuD, 2008, S. 98 ff. So auch Schilde-Stenzel (Fn. 22); A. A. Ballhausen/Roggenkamp (Fn. 22), S. 408, die diese Pflichten durch eine „verfassungskonforme Auslegung“ des BDSG im Lichte des Art. 5 Abs.1 GG übergehen wollen. Anders z. B. die Praxis bei der Plattform MeinProf.de.
Daten- und Persönlichkeitsschutz im Web 2.0
203
Die Erfüllung der Benachrichtigungspflicht aber hätte das OLG Köln nicht übergehen dürfen. Denn erst die Benachrichtigung der betroffenen Person vor einer Online-Veröffentlichung ihrer Bewertung gibt ihr die Möglichkeit, sich gegen ehrverletzende Äußerungen oder Verächtlichmachungen rechtzeitig zur Wehr zu setzen und ihr Persönlichkeitsrecht zu verteidigen. Einer Hochschullehrerin ist es nicht zuzumuten, dass sie erst über Dritte von sexistischen Beleidigungen auf einer Bewertungsplattform erfährt. Die mit der Durchführung der Benachrichtigung verbundenen praktischen Probleme für die Portalbetreiber sind demgegenüber nachrangig und im Übrigen auch nicht unüberwindbar. Zwar spielen auch bei Versteigerungsplattformen wie z. B. eBay gegenseitige Bewertungen der Transaktionspartner eine wesentliche Rolle. Sie lassen sich aber mit den genannten Bewertungsportalen deshalb nicht vergleichen, weil bei ihnen Bewertungen ohne Wissen der Betroffenen abgegeben werden, während bei Internet-Auktionen die Beteiligten wissen, dass die gegenseitige Bewertung nach Abwicklung der Auktion wenngleich nicht vorgeschrieben, so doch wesentlicher Bestandteil des Geschäftsmodells der Auktionsplattformen ist.
Soziale Netzwerke Die zweite Web 2.0-Anwendung, die sich immer noch wachsender Beliebtheit erfreut, sind die sozialen Netzwerke. Angebote wie Facebook, studiVZ, wer-kennt-wen, MySpace und viele andere haben inzwischen die traditionelle elektronische Post als Kommunikationskanal zwischen Gleichaltrigen (insbesondere Jugendlichen) oder Gleichgesinnten vielfach verdrängt. Schon die Namensgebung (MySpace) suggeriert dabei den Nutzenden, ihnen würde ein privater Raum im Netz zur Verfügung gestellt, in dem sie sich mit ihren „Freunden“ treffen und austauschen können. Dadurch entsteht bei den Nutzern eine Illusion der Intimität, weil sie vielfach glauben, in diesen Netzwerken intimste Details über sich mitteilen zu können, ohne dass die Außenwelt davon erfährt. Auch der Begriff der „Freunde“ erhält hier eine andere Bedeutung, denn „Freundschaften“ werden in diesen Netzwerken per Mausklick durch Einladung (und durch Zustimmung des Eingeladenen) begründet, wobei häufig die Zahl der „Freunde“ als Indikator für Beliebtheit und Bedeutung angesehen wird. Das Grundproblem sozialer Netzwerke besteht jedoch darin, dass die Basis-Einstellungen („Default“) der Betreiber in aller Regel die Kommunikation mit allen Teilnehmern an dem jeweiligen Netz (und gerade nicht
204
Alexander Dix
nur an ausgewählte „Freunde“) vorsehen. Die Idee sozialer Netzwerke ist gerade eine möglichst unbegrenzte Kommunikation mit allen Angehörigen einer wachsenden „Community“, die im gleichen Alter sind oder ähnliche Interessen haben. Zwar sind die Netzwerke nicht mit dem offenen Internet gleichzusetzen, weil sie eine Anmeldung voraussetzen, bevor man sich in ihnen bewegen kann. Doch setzt die Registrierung keine harte Authentifizierung voraus, so dass im Grunde nahezu jeder in jedem Netzwerk teilnehmen kann, wenn er es will oder wenn er einen Teilnehmer des Netzwerks dazu bewegen kann, ihn „einzuladen“. Die Anbieter sozialer Netzwerke wälzen damit den Aufwand für die Sicherstellung des Datenschutzes regelmäßig auf die Nutzer ab, sie „externalisieren die Kosten der Privatheit“27. Auch das Schüler-Netzwerk schülerVZ, das laut seiner Geschäftsbedingungen und seines Namens Schülern vorbehalten sein soll, ist durchaus für Erwachsene zugänglich. Das mussten Schülerinnen und Schüler erfahren, deren Lehrer sich bei schülerVZ angemeldet hatte und anschließend „Screenshots“ der Profile aller Angehörigen seiner Klasse ausgedruckt und in der Pause an die Wände des Klassenzimmers gehängt hatte. Die Reaktion der Schülerinnen und Schüler darauf war helle Empörung, weil sie sich in einem geschützten virtuellen Raum wähnten, den es nicht gibt. Im Übrigen können Informationen aus solchen Netzwerken auf verschiedene Weise in die Außenwelt, also in das offene Internet gelangen und für beliebige, von den Autoren unerwünschte Zwecke verwendet werden. „Freunde“ können Bilder von „Freunden“ kopieren und möglicherweise in einem unerwünschten Zusammenhang, verfremdet oder in beleidigender Weise manipuliert anderweitig veröffentlichen. Sowohl Mitschüler als auch Lehrer sind bereits zu Mobbing-Opfern in sozialen Netzwerken geworden.28 Suchmaschinen können die Profile der Netzwerkteilnehmer durchsuchen, wenn die Betreiber dagegen keine Vorsorge treffen. Kommerzielle Interessenten wie etwa die Direktmarketing-Branche haben ein hohes Interesse daran, die gehaltvollen Profildaten einschließlich der persönlichen Vorlieben der Teilnehmer an „Social Communities“ via „Bulk Download“ für ihre Zwecke nutzbar zu machen. Aber auch die Anbieter 27
28
So treffend John Lawford vom Canadian Public Interest Advocacy Center beim OECD-Canada Technology Foresight Forum „Confidence, privacy and security“ am 3. Oktober 2007, http://www.stenotran.com/oecd/2007-10-03-Session4b.pdf (abgerufen am 20.12.2008). Auch hier stellt sich die Frage einer größeren Gefährdungsintensität durch eine Anprangerung im Internet gegenüber herkömmlichen Anfeindungen in der realen Welt (vgl. Fn. 19).
Daten- und Persönlichkeitsschutz im Web 2.0
205
sozialer Netzwerke selbst sind bestrebt, um profitabel arbeiten zu können, personalisierte Werbung in diesen Netzwerken zu betreiben, was zusätzliche Datenschutzprobleme aufwirft. Und schließlich gibt es Rechtsordnungen, die den zweckentfremdenden Zugriff auf Daten in solchen Netzwerken unter bestimmten Umständen sogar vorschreiben. Der Fall einer Familie in New Jersey, deren Tochter unter Bulimie und Anorexie litt, ist hierzulande noch wenig bekannt. Die Kosten der medizinischen Behandlung des Mädchens wurden einen Monat lang von der Krankenversicherung übernommen, dann stellte sie jedoch ihre Zahlungen ein, weil sie ihre Pflicht zur weiteren Leistung mit dem Argument bestritt, die Krankheit habe psychische und keine „biologischen“ Gründe (was offenbar nach den US-Versicherungsbedingungen, nicht aber in Europa stichhaltig ist). Nachdem die Eltern den Versicherer verklagt hatten, verlangte dieser im Rahmen der im US-Zivilprozess üblichen „Pre-Trial Discovery“ von den Providern der Familie die Übergabe sämtlicher Eintragungen, die die Tochter und befreundete Leidensgenossinnen in ihren Facebook- und MySpace-Profilen gemacht hatten, sämtliche Instant Messaging-Nachrichten sowie alle SMS, E-Mails oder Blog-Einträge, in denen sie sich möglicherweise über ihren Zustand ausgetauscht hatten. Der Anwalt der kranken Tochter berief sich vor Gericht darauf, darin liege ein massiver Eingriff in die Privatsphäre seiner Mandantin – und verlor.29 Ein solcher Fall kann sich nicht nur in den USA, sondern auch in Europa ereignen, denn auch der Versicherungsmarkt funktioniert in der globalisierten Welt grenzüberschreitend. Eine in den USA ansässige Konzernmutter könnte von einem in Europa tätigen Tochterunternehmen die Preisgabe entsprechender Daten verlangen, wobei die US-Gerichte Auswirkungen des europäischen Datenschutzrechts in derartigen Fällen erst allmählich zu berücksichtigen beginnen. Die Datenschutzbeauftragten haben 2008 erstmals bestimmte Grundanforderungen an soziale Netzwerke formuliert. Das „Rom-Memorandum“ der Internationalen Arbeitsgruppe zum Datenschutz in der Telekommunikation vom April 2008 enthält einen Katalog von Empfehlungen für Nutzer und Anbieter von sozialen Netzwerken30, denen sich die 30. Internationale Konferenz der Datenschutzbeauftragten im Oktober 2008 in Straßburg
29 30
The big data dump, in: The Economist, v. 28. August 2008. http://www.datenschutz-berlin.de/content/europa-international/international-working-group-on-data-protection-in-telecommunications-iwgdpt/working-papers-andcommon-positions-adopted-by-the-working-group (abgerufen am 20.12.2008).
206
Alexander Dix
angeschlossen hat.31 Die deutschen Aufsichtsbehörden für den Datenschutz im nicht-öffentlichen Bereich haben vergleichbare Forderungen erhoben.32 Danach müssen die Anbieter von sozialen Netzwerken zehn Kerngebote beachten: 1. Weltweit tätige Anbieter haben die Datenschutzstandards der Länder einzuhalten, in denen sie ihre Dienste betreiben. 2. Sie müssen die Nutzer umfassend und verständlich darüber informieren, welche Folgen die Veröffentlichung persönlicher Daten in einem Profil haben kann. Zudem muss völlige Transparenz über verbleibende Sicherheitsrisiken33 und über die Zugriffsrechte Dritter (z. B. der Strafverfolgungsbehörden) hergestellt werden. 3. Die Kontrolle der Nutzer über ihre eigenen Profildaten muss verbessert werden. Die Sichtbarkeit ganzer Profile und von Profildaten muss umfassend beschränkt werden können. Bisher geschieht das in einzelnen Netzwerken nur unvollständig, so dass Daten, auf die der direkte Zugriff beschränkt ist, über die Suchfunktion doch für jeden sichtbar gemacht werden können.34 Die Anbieter müssen den Nutzern auch die Kontrolle der Nutzung von Profil- und Verkehrsdaten z. B. für zielgerichtete Werbung überlassen. Zumindest müssen bei der Nutzung von allgemeinen Profildaten für solche Zwecke eine Opt-out-Möglichkeit und für sensitive Daten (z. B. politische Überzeugung, sexuelle Orientierung) sowie für Verkehrsdaten eine Optin-Möglichkeit vorgesehen werden. Eine Vorratsdatenspeicherung von Nutzungsdaten ist nach deutschem Recht unzulässig. Auch darf die Zustimmung zu einer Bevorratung oder Nutzung von Daten zu Werbezwecken nicht zur Voraussetzung der Mitgliedschaft in einem Netzwerk gemacht werden, denn dann wäre die Einwilligung nicht auf freiwilliger Basis erteilt und damit unwirksam.
31
32 33
34
http://www.bfdi.bund.de/cln_007/nn_532074/DE/Oeffentlichkeitsarbeit/Entschliessungssammlung/IntDSK/2008SozialeNetzwerke,templateId=raw,property= publicationFile.pdf/2008SozialeNetzwerke.pdf (abgerufen am 20.12.2008). Vgl. http://www.datenschutz-berlin.de/content/deutschland/duesseldorfer-kreis. Vgl. die Studie des Fraunhofer-Instituts für sichere Informationstechnologie: http://www.sit.fraunhofer.de/Images/SocNetStudie_Deu_Final_tcm105-132111. pdf (abgerufen am 20.12.2008). Vgl. die ebd. genannten Beispiele.
Daten- und Persönlichkeitsschutz im Web 2.0
207
4. Von entscheidender Bedeutung sind datenschutzfreundliche Standardeinstellungen. Diese „Default-Settings“ müssen ein hohes Mindestmaß an Schutz der Privatsphäre gewährleisten, die nur der einzelne Nutzer nach entsprechender Information modifizieren kann. Bisher legen die meisten Anbieter im Gegensatz dazu datenschutzunfreundliche Einstellungen zugrunde, um sofort nach der Registrierung eine möglichst unbegrenzte Kommunikation (und eine vom Nutzer nicht zu kontrollierende Nutzung der Daten für eigene oder fremde Werbezwecke) zu ermöglichen. An diesen Grundeinstellungen ändern die Nutzer aber erfahrungsgemäß nach der Registrierung meist nichts, sondern bewegen sich in einem Netzwerk mit datenschutzunfreundlichen Grundeinstellungen, weil sie deren Risiken nicht kennen oder vernachlässigen. Zu fordern ist demgegenüber eine restriktive Standardeinstellung, bei der die Nutzer selbst entscheiden, wem sie den Zugriff auf ihr Profil oder die Nutzung ihrer Profildaten erlauben. 5. Die Sicherheit der Informationssysteme und der Schutz der Nutzer vor betrügerischen Zugriffen auf ihre Profile muss weiter verbessert werden. 6. Nutzer müssen ihre datenschutzrechtlichen Grundrechte auf Auskunft und Berichtigung auch in sozialen Netzwerken geltend machen können. 7. Anbieter müssen sicherstellen, dass Nutzer ihre Mitgliedschaft auf einfache Weise beenden und ihre Profile mit allen Inhalten und Informationen (insbesondere auch Bildern) löschen können. Diese Forderung gilt unabhängig davon, dass das Internet nichts vergisst und Daten, die zuvor z. B. von „Freunden“ exportiert worden sind, im offenen Internet an anderer Stelle unbegrenzt weiter gespeichert sein können. 8. Anbieter müssen nach dem Telemediengesetz35 die Option einer pseudonymen Nutzung des Netzwerks eröffnen. Dieser Pflicht können sie sich nicht mit dem Argument entziehen, die Nutzenden wollten gerade mit Klarnamen in der „Community“ auftreten36 oder
35 36
§ 13 Abs. 6. Das gilt auch für Karriere-Netzwerke wie XING, denn es muss dem Nutzenden überlassen bleiben, ob er von vornherein mit seinem Klarnamen auftreten will
208
Alexander Dix
die Nutzung von Pseudonymen senke das „Niveau“ der Kommunikation. Wer ein Pseudonym nutzt, kann für Rechtsverstöße zur Verantwortung gezogen werden, denn meist verlangen die Anbieter eine personenbezogene Registrierung. 9. Anbieter müssen das massenweise Herunterladen („Bulk Harvesting“) von Profildaten durch Dritte wirksam verhindern. 10. Schließlich sollten die Anbieter sicherstellen, dass externe Suchmaschinen die Daten von Nutzenden nicht durchsuchen können. Dazu muss die Nichtindexierbarkeit von Profilen durch Suchmaschinen standardmäßig voreingestellt sein. Allerdings reicht es nicht aus, die Anbieter zur Einhaltung dieser Grundregeln zu veranlassen. Auch die Nutzer selbst müssen für die Risiken der sozialen Netzwerke sensibilisiert werden, damit sie deren Chancen in vollem Umfang ausnutzen können. Daher sollten die Nutzenden – gleich welchen Alters – sorgfältig überlegen, was sie auf solchen Plattformen über sich preisgeben. Das gilt insbesondere für Bilder, die von „Freunden“ oder Dritten leicht kopiert oder manipuliert werden können. Auch die Achtung der Privatsphäre Anderer muss einen höheren Stellenwert in der vorschulischen und schulischen Erziehung erhalten, damit der Unwertgehalt von Cyberbullying und Cyberstalking möglichst früh vermittelt wird. Im Zeitalter des Fotohandys droht in Vergessenheit zu geraten, dass die Veröffentlichung von Bildern Dritter ohne deren Einwilligung in der Regel eine strafbare Verletzung des Rechts am eigenen Bild ist. Auch datenschutzrechtlich ist der einzelne Nutzer eines sozialen Netzwerks nach der Rechtsprechung des Europäischen Gerichtshofes37 jedenfalls dann für das verantwortlich, was er dort veröffentlicht, wenn er es nicht ausschließlich „für persönliche oder familiäre Zwecke“ tut38. Diese Ausnahme kann nur derjenige in Anspruch nehmen, der den Zugriff auf sein Profil und die dort eingestellten Daten auf einen engen Kreis von Freunden oder Familienangehörigen begrenzt hat.
37 38
oder ob er diesen erst im zweiten Schritt gegenüber konkreten Interessenten (auf Nachfrage) offenbaren will. Urt. v. 6.11.2003 – Rs. C 101/01 – (Lindqvist), AfP 2004, 248 ff. § 1 Abs. 2 Nr. 3 BDSG.
Daten- und Persönlichkeitsschutz im Web 2.0
209
Fazit Bewertungsportale und soziale Netzwerke als zwei typische Beispiele von Web 2.0-Anwendungen werfen besondere Fragen des Daten- und Persönlichkeitsschutzes auf. Unzweifelhaft sind die Betreiber beider Plattformformarten nach dem Telemediengesetz verpflichtet, rechtswidrige (also insbesondere das Persönlichkeitsrecht verletzende und datenschutzwidrige) Inhalte unverzüglich zu sperren bzw. zu löschen, sobald sie Kenntnis von der rechtswidrigen Handlung erlangt haben. Beaufsichtigt ein Betreiber die Plattform und die sie nutzenden Personen, dann ist er sogar darüber hinaus für die Inhalte voll verantwortlich.39 Ohne ein solches Aufsichtsverhältnis kommt es entscheidend darauf an, dass der Betreiber einer Bewertungsplattform seiner Benachrichtigungspflicht gegenüber den Betroffenen nachkommt, denn nur so können sie z. B. unwahre Tatsachenbehauptungen feststellen und auf ihre Entfernung dringen. Die Betreiber sozialer Netzwerke haben eine Verantwortung, auf ihren Plattformen einen datenschutzrechtlichen Mindeststandard durch bestimmte Grundeinstellung zu gewährleisten. Indem sie den Nutzenden Einstellmöglichkeiten zur feingranularen Begrenzung des Zugriffs auf ihre Profildaten zur Verfügung stellen, leisten einige soziale Netzwerke schon heute einen Beitrag zur Sensibilisierung in datenschutzrechtlicher Hinsicht. Allerdings darf die Sicherstellung eines Mindeststandards für den Persönlichkeitsrechts- und Datenschutz nicht völlig auf die Nutzenden abgewälzt werden. Notfalls muss der Gesetzgeber im Telemediengesetz hier ergänzende Regeln treffen.
Über den Autor Dr. Alexander Dix, LL. M., geb.1951, ist seit Juni 2005 Berliner Beauftragter für Datenschutz und Informationsfreiheit. Zuvor war er sieben Jahre Landesbeauftragter für den Datenschutz und für das Recht auf Akteneinsicht in Brandenburg. Er ist Vorsitzender der Internationalen Arbeitsgruppe zum Datenschutz in der Telekommunikation („Berlin Group“) und Mitglied der Artikel 29-Gruppe der Europäischen Datenschutzbeauftragten, in der er die Bundesländer vertritt. Er studierte Rechtswissenschaften in Bochum, Hamburg und London und schloss mit dem Grad eines Master of Laws an der London School of Economics and Political Science ab; 39
§ 10 TMG.
210
Alexander Dix
Promotion 1984 zum Dr. jur. an der Universität Hamburg. Er begann seine Tätigkeit beim Berliner Datenschutzbeauftragten 1985 und war von 1990 bis 1998 dessen Stellvertreter. Alexander Dix hat zahlreiche Beiträge zu Fragen des Datenschutzes und der Informationsfreiheit veröffentlicht. Er ist Mitherausgeber des Jahrbuchs Informationsfreiheit und Informationsrecht.
Elektronische Identitäten im Internet und die Einführung des elektronischen Personalausweises
Martin Schallbruch
Einleitung Elektronische Identitäten und der Datenschutz im Internet waren Themenschwerpunkte des Dritten Nationalen IT-Gipfels im November 2008 in Darmstadt. Im Zentrum der Aufmerksamkeit stand der elektronische Personalausweis – eine Infrastruktur, die Grundlage eines neuen Umgangs mit elektronischen Identitätsdaten im E-Government und E-Business werden soll. Die Weichen für die Einführung des neuen Dokuments zum 1. November 2010 wurden mit dem Kabinettbeschluss zum Entwurf des „Gesetzes über Personalausweise und den elektronischen Identitätsnachweis“ im Sommer 2008 gestellt. Als Leuchtturmprojekt des Beauftragten der Bundesregierung für Informationstechnik, Staatssekretär Dr. Hans Bernhard Beus, rangiert der elektronische Personalausweis auf der Prioritätenliste der Bundesregierung weit oben. Seine Einführung wird gemeinsam mit Wirtschaft und Wissenschaft vorbereitet. Der folgende Beitrag fasst die Herausforderungen einer E-IdentityStrategie für das Internet zusammen und erklärt, welche Lösungsansätze beim elektronischen Personalausweis dafür vorbereitet wurden.
Nutzen Jede Infrastruktur oder Maßnahme, die für ein besseres Management elektronischer Identitäten am Markt eingeführt wird und dort bestehen soll, muss für die (potentiellen) Nutzerinnen und Nutzer auf den ersten Blick erkennbare Mehrwerte bieten. Sie muss entweder etwas gänzlich Neues
212
Martin Schallbruch
ermöglichen oder etwas Herkömmliches in neuer Qualität anbieten: einfacher, schneller, sicherer usw. Der elektronische Personalausweis erfüllt diese Anforderungen. Den Vorgang „sich ausweisen“ kennen über 60 Millionen Bundesbürgerinnen und Bundesbürger aus ihrer Erfahrung mit dem konventionellen Personalausweis. Obgleich ein staatliches Identitätsdokument, kommt der Ausweis dabei weit häufiger im Kontakt mit der Privatwirtschaft zum Einsatz als gegenüber Behörden. Die meisten Deutschen sind eben viel häufiger in der Post- oder Bankfiliale, Diskothek oder beim Einkaufen unterwegs als im Bürgeramt bzw. in der Verkehrskontrolle. Der Personalausweis ist also „das“ Identitätsdokument der Bürgerinnen und Bürger. Ein vergleichbares einheitliches und akzeptiertes Hilfsmittel für den Identitätsnachweis im Internet existiert bislang nicht. Stattdessen installiert jeder Diensteanbieter seine eigenen Verfahren. Für die Nutzerinnen und Nutzer bedeutet das schon bei durchschnittlicher Internet-Affinität eine Vielzahl von Passwörtern und PINs, die angelegt, gemerkt und verwaltet werden müssen. Wer neben Freemail-Account und einem dutzend Shopping-Anbietern dann auch noch gern Social Networks besucht, ist schnell in der Bequemlichkeitsfalle: Warum nicht ein und dasselbe Passwort für Online-Versand, Partnerbörse und Spieleforum nutzen? Warum nicht Omas Geburtstag oder den Kosenamen des Haustieres für den Log-in verwenden? Und diejenigen, die vernünftigerweise verschiedene und komplexe Passwörter wählen, kommen am Ende doch nicht um den Spickzettel im Kalender oder Schreibtischfach herum. Die derzeitigen Rahmenbedingungen für den elektronischen Identitätsnachweis verleiten die User zu Verhaltensmustern, die alle Aufklärungsversuche und Warnungen in Sachen IT-Sicherheit und Datenschutz zunichte machen. Und genau hier schafft der elektronische Personalausweis Abhilfe. Er entlastet die Nutzerinnen und Nutzer: Sie müssen sich im Idealfall nur noch eine PIN merken, nämlich die sechsstellige Ausweis-PIN. Und er erhöht das Sicherheitsniveau: Statt der einzelnen Komponente „Wissen“ (PIN bzw. Passwort in heutigen Verfahren) wird zukünftig die Kombination von „Wissen“ (Ausweis-PIN) mit physischem „Besitz“ (Ausweiskarte) etabliert. Aber Karte und PIN alleine werden das Konzept des elektronischen Ausweisens mit dem Personalausweis noch nicht zum Durchbruch bringen. Der Erfolg des elektronischen Personalausweises wird maßgeblich davon abhängen, dass eine Vielzahl attraktiver Anwendungen im E-Government und E-Business den Ausweis akzeptieren. Das virtuelle Rathaus soll ebenso dazu gehören wie Angebote von Bund und Ländern – und das ganze Spektrum privatwirtschaftlicher Beispiele: von Online-
Identitäten im Internet
213
Shopping über Online-Banking und Versicherungen bis hin zu den diversen Networks, Foren und Spielmöglichkeiten im Internet. Auch für elektronische Offline-Angebote bietet der Ausweis erhebliche Potentiale: vom Spiele- bis zum Zigarettenautomaten, vom Kassen- bis zum Full-ServiceTerminal, der auch Menschen ohne eigenen Internetzugang die elektronische Abwicklung von Geschäften oder Behördengängen ermöglicht. Im Kern lässt sich der Nutzen des neuen Personalausweises für das Internet folgendermaßen zusammenfassen: Er ermöglicht den elektronischen Identitätsnachweis im Netz – bequemer (da standardisiert) und sicherer als in heutigen Online-Verfahren.
Einfachheit und Praktikabilität Neuerungen für das elektronische Identitätsmanagement werden im Alltag nur angenommen, wenn sie mit wenig Aufwand zu erlernen und in die sonstigen Abläufe der individuellen IT-Nutzung einzubinden sind. Diese Maßgabe ist eine der größten Herausforderungen für die Einführung des neuen Personalausweises. Für seine zukünftigen Nutzer soll der elektronische Identitätsnachweis im Verfahren so einfach sein wie beispielsweise das Zahlen mit der Geldkarte: Online-Dienst aufrufen, Ausweis am Lesegerät platzieren, Datenabfrage des Anbieters lesen, PIN eingeben und damit der elektronischen Datenübermittlung (z. B. Name und Anschrift) zustimmen. Dieser Ablauf wird durch Gesetz und begleitende technische Richtlinien sowie Verordnungen festgelegt und an sich nicht als Problem im Einführungsprozess bewertet. Eine umfassende Informationskampagne kann Startschwierigkeiten verhindern helfen – wie sie sich etwa hinsichtlich der PIN bei Tests der Gesundheitskarte gezeigt haben. Die größere, aber durchaus zu bewältigende Hürde liegt in der Vorbereitung der technisch-organisatorischen Rahmenbedingungen für und bei jedem einzelnen Nutzer. Das Bundesministerium des Innern und das Bundesamt für Sicherheit in der Informationstechnik (BSI) arbeiten deshalb eng mit Wirtschaftsverbänden und Unternehmen zusammen, um eine Reihe von Voraussetzungen zu schaffen: Zum Einführungstermin sollen am Markt preiswerte, sichere und leicht handhabbare Lesegeräte für die kontaktlosen Ausweiskarten zur Verfügung stehen. Mit Verabschiedung des neuen Personalausweisgesetzes wird für die Hersteller von PCs, Laptops, Handys, sonstiger Mobile Devices, Stand-Alone-Lesern usw. Planungssicherheit für die Umrüstung ihrer Geräte bzw. für die Ausweitung ihrer Produktpaletten bestehen. Neben der
214
Martin Schallbruch
Einbindung der Prototypen in die bundesweiten Testmaßnahmen 2009/2010 werden Subventionsmöglichkeiten als Anschub für die Lesegeräte-Verbreitung in der Einführungsphase geprüft. Auch Hybridleser, also Geräte, die sowohl kontaktbehaftete als auch kontaktlose Chips lesen können, sind vor dem Hintergrund der E-Card-Strategie ein wichtiges Stichwort: Niemand soll für die Kartenprojekte der Bundesregierung einen ganzen Zoo von Lesern anschaffen müssen. Die Software, die Ausweis und Lesegerät miteinander kommunizieren lässt, wird frei am Markt verfügbar sein, auf Standards des BSI basieren und auch vom BSI zertifiziert werden. Auch hierfür kann die Marktstimulation mit Verabschiedung der Personalausweisgesetzes starten. Die Ausweiskarte selbst darf – wie die genannte Hard- bzw. Software – nicht zu teuer und aufwändig in der Beschaffung und Inbetriebnahme sein und wird wie bisher in den Bürgerämtern beantragt und ausgegeben. Dort werden auch umfassende Informationen zur Aktivierung des elektronischen Identitätsnachweises (inkl. PIN) sowie zum Nachladen der elektronischen Signatur und zu den vielen Nutzungsmöglichkeiten der neuen elektronischen Funktionen bereitgestellt. Multi-Level-Support wird die schnelle Beantwortung später eventuell auftretender Fragen sicherstellen. Um den künftigen Nutzerinnen und Nutzern die Anschaffung und Verwendung der neuen Ausweiskarten so leicht wie möglich zu machen, wird eine umfassende Begleitkommunikation die Einführungsphase unterstützen. Neben einer Informationskampagne rund um die Einführung sind dauerhafte Strukturen wie eine zentrale Website zum neuen Ausweis und ein Logo zum schnellen Erkennen der Einsatzmöglichkeiten vorgesehen.
Vertrauen und Transparenz Elektronisches Identitätsmanagement lebt vom Vertrauen der Nutzerinnen und Nutzer. Diejenigen, die heute schon online mit persönlichen Daten agieren, müssen vom Mehrwert einer neuen Lösung überzeugt werden. Wer sich dagegen bislang – auch und gerade wegen Datenschutzbedenken – von Kommunikation und Transaktion im Internet zurückgehalten hat, muss zunächst als Onliner gewonnen werden und dann erleben, dass Verfahren im Internet mindestens so sicher wie herkömmliche Methoden sind oder deutlich besser. Was die heute bereits online aktive Zielgruppe anbelangt, ist die Ausgangssituation für den elektronischen Personalausweis durchaus positiv. Bei einer Umfrage des Branchenverbandes BITKOM unter Internetnutzern
Identitäten im Internet
215
ab 14 Jahren gaben 55 Prozent spontan an, sich den Einsatz des neuen Ausweises für Online-Banking vorstellen zu können. Immerhin 54 Prozent waren auch für E-Government offen. Online-Shopping und Online-Spiele stehen mit weit über 30 Prozent ebenfalls gut im Kurs.1 Gerade die internet-erfahrenen Nutzergruppen des zukünftigen Ausweises werden einen Mehrwert besonders zu schätzen wissen, der bei E-IDKarten weltweit bislang einmalig ist: die Gegenseitigkeit des Identitätsnachweises. Der elektronische Personalausweis ist keine Daten-Einbahnstraße! Bislang existieren keine einheitlichen Vorgaben dazu, wie sich ein Online-Anbieter gegenüber dem Nutzer authentisieren muss. Ein ganzer Kriminalitätszweig im Internet – das Phishing – lebt von genau dieser Sicherheitslücke. BITKOM attestierte im letzten Jahr 4 100 nachgewiesene Phishing-Fälle mit rund 19 Millionen Euro Einbußen und vermutete zusätzlich eine hohe Dunkelziffer. Noch schlimmer als der volkswirtschaftliche Schaden wiegt der Vertrauensverlust in solchen Bevölkerungskreisen, die – von einschlägigen Berichten abgeschreckt – auf komfortable Optionen wie Online-Banking oder sonstige Transaktionen im Internet gänzlich verzichten. Der elektronische Personalausweis kann dieses Vertrauensdefizit überwinden, denn er schafft Klarheit darüber, ob tatsächlich derjenige Diensteanbieter Daten bekommt, der sie auch bekommen soll. Die Anbieter, die den elektronischen Personalausweis in ihre Verfahren einbinden wollen, müssen vorab Berechtigungszertifikate von einer staatlichen Stelle erhalten haben. Erst dann sind sie technisch überhaupt in der Lage, Ausweisdaten abzufragen. Dazu wird auch der Umfang der erforderlichen Daten genau geprüft. Zahlreiche Online-Händler werden die Notwendigkeit von Name, Adresse und Alter (wegen der Geschäftsfähigkeit) plausibel machen können. Teilweise wird auch allein die Altersangabe genügen – etwa für den Zugang zu altersbeschränkten Foren oder Inhalten im Netz. Jeder Anbieter erhält also nur das Minimum der für einen Dienstleistungstyp erforderlichen Daten. Und das auch nur, wenn der Nutzer im Einzelfall der Datenübertragung zustimmt. PIN eingeben oder nicht – das ist dann die persönliche Entscheidung. Neben der Selektivität der Datenweitergabe ist auch die maximale Form der Datensparsamkeit – eine so genannte Pseudonymfunktion – mit dem elektronischen Personalausweis realisierbar. Hier geht der elektronische Ausweis über die Möglichkeiten des herkömmlichen Ausweisdokuments 1
BITKOM-Webmonitor mit Forsa, Berlin, 12. Februar 2008, http://www.bitkom.de/files/documents/ WEBMON_FEB08_1_download.JPG.
216
Martin Schallbruch
(das ja immer in Gänze vorgelegt oder kopiert wird) in Sachen Datenschutz weit hinaus. Bei vielen Internet-Geschäften ist eine persönliche Registrierung gar nicht notwendig. Allerdings will der Diensteanbieter die Sicherheit haben, dass er im Zweifelsfall, etwa wenn eine Zahlung nicht erfolgt, die Nutzerin oder den Nutzer erreichen kann. Das leistet die Pseudonym-Funktion des elektronischen Personalausweises: Der Ausweisnutzer kann sich bei einem Diensteanbieter ohne Übermittlung personenbezogener Daten anmelden und wird dennoch bei wiederholtem Besuch der Website wieder erkannt. Dazu enthält jeder Ausweis eine geheime, sicher im Chip gespeicherte Zahl. Gleichzeitig verfügt jeder Diensteanbieter, der mit dem elektronischen Personalausweis arbeitet, ein anbieterspezifisches Kennzeichen – ebenfalls eine Zahl. Diese beiden Zahlen werden im Ausweis über mathematische Verfahren miteinander verrechnet, so dass ein Pseudonym als dritte, nicht rückrechenbare Zahl entsteht, das dem Diensteanbieter zur Registrierung dient. Das Pseudonym liegt also immer dann vor, wenn ein bestimmter Ausweis (sprich Nutzer) und ein bestimmter Anbieter miteinander auf diese Weise kommunizieren. Wenn derselbe Ausweisinhaber mit einem anderen Anbieter in Kontakt tritt, entsteht ein anderes Pseudonym, weil der Rechenoperation ein anderes anbieterspezifisches Kennzeichen zugrunde liegt. „Track & Trace“ zur Erstellung von Nutzerprofilen, wie es mit einer „offenen“ Personalausweisnummer möglich wäre, wird also ausgeschlossen. Sowohl die Selektivität der Datenübertragung als auch die Pseudonymfunktion des elektronischen Personalausweises sind datenschutzrelevante Vorteile, die dem Otto-Normal-Surfer nicht „en passant“ erklärt werden können. Vor dem Vertrauen muss bei den diversen Zielgruppen ein Verständnis für die Neuheiten geschaffen werden. Umfassende, adressatengerecht aufbereitete Information und eine breite öffentliche Diskussion, gerade mit Vertretern des Daten- und Verbraucherschutzes, sind unverzichtbar.
Zuverlässigkeit und Rechtssicherheit Bürgerinnen und Bürger, die bereit sind, neue Hilfsmittel für ihre elektronische Identität zu nutzen, haben einen Anspruch auf Zuverlässigkeit und Rechtssicherheit. Doch sie tragen – wie bei allen technischen Verfahren – auch selbst Verantwortung. Was die Zuverlässigkeit des elektronischen Personalausweises anbelangt, ist das Bundesamt für Sicherheit in der Informationstechnik (BSI)
Identitäten im Internet
217
von staatlicher Seite zuständig. Die Ausweiskarte selbst, Lesegeräte und Software werden den technischen Richtlinien bzw. der Zertifizierung des BSI unterliegen. Auch die Prozesse zur Erfassung und Übermittlung der Ausweisdaten vom Bürgeramt zum Ausweisproduzenten werden im Grundsatz vom BSI spezifiziert und dann im Lichte der Datenschutzvorgaben der Länder und Kommunen umgesetzt. All dies bedeutet weit mehr Sicherheit als bei den meisten heute üblichen Identifizierungsverfahren. In der Verantwortung der Bürgerinnen und Bürger bleiben allerdings der Umgang mit Ausweiskarte und PIN und die allgemeinen Schutzvorkehrungen für die Geräte-Umgebung (PC, Laptop, Mobile Device usw.), wo der elektronische Personalausweis mit der E-ID-Funktion eingesetzt wird. Die Nutzung der neuen Identifizierungs- und Kommunikationsdienste muss für Anbieter und Nutzer attraktiv sein. Nur wenn mit den neuen Anwendungen und der Nutzung des elektronischen Personalausweises keine neuen Haftungsrisiken – tatsächliche wie rechtliche – eingeführt werden, werden sich die neuen Möglichkeiten auch durchsetzen. Der Staat hat hier die Aufgabe, das sowohl durch den korrespondierenden rechtlichen Rahmen als auch durch geeignete Infrastrukturleistungen sicherzustellen (wie etwa mit dem für Diensteanbieter und für die Nutzer zugänglichen Sperrdienst für gestohlene und abhanden gekommene Personalausweise). Die elektronische Identität dient aber auch und nicht zuletzt der Zuordnung von Handlungen zu einer Person in der elektronischen Welt. Das betrifft sowohl die Handlungen der Personalausweisinhaber, als auch die der Serviceanbieter. Nachweisliche Identität schafft dann nicht nur Rechtssicherheit in der Kommunikation, sondern vor allem Vertrauen.
Marktreife Damit sich neue Instrumente und Verfahren für den Umgang mit elektronischen Identitäten am Markt bewähren, müssen sie vorab eingehend getestet und gemeinsam mit den zu beteiligenden Gruppen (Verwaltung, Wirtschaft, Wissenschaft, Verbraucherverbände, Bürgerinnen und Bürger) evaluiert worden sein. Kosten- und Geschäftsmodelle sind auf ihre Praxistauglichkeit hin zu untersuchen und belastbare Marktprognosen zu erstellen. Beides ist Voraussetzung für eine Erfolg versprechende Markteinführung. Für den elektronischen Personalausweis sind alle genannten Anforderungen in ein umfassendes Testkonzept für 2009/2010 eingeflossen, das realisiert werden kann, sobald der Bundestag dem Entwurf des „Gesetzes
218
Martin Schallbruch
über Personalausweise und den elektronischen Identitätsnachweis“ zugestimmt hat. Nach derzeitiger Planung sind die bundesweiten Anwendungstests für den Zeitraum 1. Oktober 2009 bis 30. Oktober 2010 vorgesehen – also bis unmittelbar zum Einführungstermin. Im Mittelpunkt der Testmaßnahmen stehen Praxistauglichkeit, Handhabbarkeit und Akzeptanz des elektronischen Identitätsnachweises. Die breite Teilnahme von Diensteanbietern aus E-Government und E-Business und vieler potentieller Personalausweisinhaber als Probanden wird essentiell sein. Der Beauftragte der Bundesregierung für Informationstechnik hat deshalb Behörden, Wirtschaftsunternehmen und Institutionen aufgerufen, sich für die Tests zu registrieren und mit den Komponenten des künftigen Personalausweises, insbesondere mit dem gegenseitigen elektronischen Identitätsnachweis, vertraut zu machen.2
Interoperabilität Der Umgang mit elektronischen Identitäten muss mittel- bis langfristig dem globalen Anspruch des Internet gerecht werden. Zuvor sind jedoch die Entwicklungen auf europäischer Ebene zu harmonisieren, so dass die EU mit einem integrierten Konzept an Drittstaaten herantreten kann. Katalysatoren wie die EU-Dienstleistungsrichtlinie und die „Large Scale Pilots“, an denen sich auch Deutschland beteiligt – durch BSI und Industrievertreter unmittelbar –, sollten von allen Seiten größtmögliche Unterstützung erfahren, um die knapp bemessenen Zeitfenster für die anstehenden Konsolidierungsprozesse optimal zu nutzen. Für den elektronischen Personalausweis ist diese Zielformulierung nicht profan. Einerseits muss die deutsche E-ID-Politik offene Standards fördern und auf bestehende Lösungen Rücksicht nehmen. Andererseits sind deutsche Konzepte wie die Gegenseitigkeit des Identitätsnachweises vor dem Hintergrund der nationalen Datenschutzkultur und auch mit Blick auf eine bürgerorientierte Debatte im Ausland durchaus Errungenschaften, die größere Kraftanstrengungen auf europäischem und internationalem Parkett wert sind.
2
Nähere Informationen über Voraussetzungen, Leistungen, Registrierung und – später – Teilnehmer der Tests sind abrufbar unter http://www.cio.bund.de/Anwendungstest.
Identitäten im Internet
219
Fazit Der elektronische Personalausweis verbindet Nutzen, Einfachheit, Transparenz, Zuverlässigkeit, Marktreife und Interoperabilität zu einem übergreifenden Konzept für modernes Identitätsmanagement im Internet. Eine langfristig erfolgreiche Umsetzung erfordert die Kooperation von öffentlichem und privatem Sektor, von föderalen Ebenen, europäischen und internationalen Gremien. Besonders wertvoll sind vor diesem Hintergrund etablierte Formen der Zusammenarbeit, seien es im Ausweisprojekt der durch BITKOM moderierte Dialog von Wirtschaft und Verwaltung, Initiativen wie vom Gesamtverband der Deutschen Versicherungswirtschaft und TeleTrust, das Engagement einzelner Unternehmen und verbraucherorientierter Vereine wie „Deutschland sicher im Netz“ oder übergreifende Diskussionsplattformen wie der „Münchner Kreis“ und ISPRAT e. V. Durch gemeinsames Handeln aller Akteure kann es gelingen, den Schutz der Identitäten und die Selbstbestimmung des Einzelnen beim Umgang mit seiner elektronischen Identität im Internet auch langfristig sicherzustellen.
Über den Autor Martin Schallbruch ist IT-Direktor (Chief Information Officer) des Bundesministeriums des Innern. Er ist verantwortlich für IT-Strategie und ITKoordinierung der Bundesverwaltung. Sein Stab steuert das Projektmanagement für die E-Government-Initiative „E-Government 2.0“ und koordiniert die E-Government-Strategie „Deutschland-Online“. Seine Verantwortung erstreckt sich auch auf die IT-Sicherheitspolitik, das Bundesamt für Sicherheit in der Informationstechnik sowie Pässe, Personalausweise und Meldewesen. Vor der Berufung zum IT-Direktor war Schallbruch bis Ende 2001 persönlicher Referent der Staatssekretärin im Bundesministerium des Innern. Nach dem Studienabschluss als Diplom-Informatiker an der Technischen Universität Berlin war Schallbruch zunächst wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin sowie Leiter eines IT-Servicezentrums der Universität, bevor er 1998 in den Dienst der Bundesregierung eintrat.
Bürgerportale für eine sichere Kommunikation im Internet
Alexander Roßnagel
Unsicheres Internet Das Internet verdankt seinen extremen Erfolg seinem Konstruktionsprinzip „Keep it Simple and Stupid“ (KISS). Es ermöglicht jedem, am Internet teilzunehmen und mit jedem anderen weltweit zu kommunizieren. Die Kehrseite sind eine Reihe von Defiziten, die es erschweren und unmöglich machen, bestimmte Formen der Kommunikation von analogen Medien auf das Internet zu übertragen. Niemand kann sicher sein, wer sein wirklicher Kommunikationspartner ist. Im Internet kann jeder prinzipiell jede Identität annehmen. Eine verlässliche Zuordnung von Handlungen zu ihrem Urheber ist nicht möglich. Daher kann man nicht sicher sein, ob man eine Nachricht einer bestimmten Person auch sicher und vertraulich zuzustellen kann. Umgekehrt kann auch niemand sicher sein, dass er alle an ihn gerichteten Nachrichten auch tatsächlich – ungelesen, unkopiert und unverändert – empfängt. Das Internet böte für viele Unternehmen, Ämter, Dienstleister und auch Privatpersonen einige Möglichkeiten, ihre Arbeitsabläufe zu unterstützen, die Erfüllung ihrer Aufgaben zu erleichtern und ihr Handeln zu effektivieren – wenn diese Unsicherheiten nicht wären. So darf etwa ein Arzt Patientendaten oder ein Anwalt Mandantendaten nur über das Internet versenden, wenn er sicher sein kann, dass sie auch tatsächlich bei dem berechtigten Empfänger ankommen. Ein Amt darf Zugang zu bestimmten Daten oder ein Unternehmen den Abruf von Informationen nur erlauben, wenn sie vorher prüfen konnten, ob der Zugriff durch eine berechtigte Person erfolgt. Viele Bürger vertrauen rechtlich bedeutsame Erklärungen dem Internet nur an, wenn sie sicher sein können, dass sie rechtzeitig und unversehrt beim richtigen Empfänger ankommen. Willenserklärungen werden erst mit Zugang wirksam. Er muss in vielen Fällen nachgewiesen werden können. Da die erforderliche Sicherheit oder Gewissheit im Internet fehlt, wäre es
222
Alexander Roßnagel
eine Verletzung von Berufspflichten, von gesetzlichen Vorgaben oder der gebotenen Vorsicht, das Internet zu nutzen. Dadurch bleiben aber viele Chancen, die das Internet bietet, ungenutzt.
Anforderungen an eine sichere Internetkommunikation Daher wäre es hilfreich, wenn im Internet neben den einfachen, meist kostenlosen, aber unsicheren Diensten auch Dienste angeboten würden, die – mit vertretbaren Vorleistungen und auch eventuell vertretbaren Kosten – die erforderliche Sicherheit und Vertrauenswürdigkeit böten und bei Bedarf jederzeit genutzt werden könnten. Manche Unsicherheiten können durch zusätzlichen individuellen Aufwand kompensiert werden – etwa indem man eine Mail telefonisch ankündigt und hinterher telefoniert, um zu erfahren, ob sie heil angekommen ist. Bestimmte Defizite lassen sich jedoch gar nicht individuell beseitigen – wie etwa die Unsicherheit, ob eine Nachricht sicher bei einem nicht kooperationswilligen Empfänger zugegangen ist. Besser als umständliche individuelle Hilfsmaßnahmen wäre jedoch eine sichere Infrastruktur im Internet, die bei Bedarf verlässliche Dienstleistungen anbietet, die Vertrauenswürdigkeit und Rechtssicherheit gewährleisten. Wenn an dieser Infrastruktur sich nur jemand beteiligen könnte, der zuvor sicher identifiziert worden ist und der sich im Einzelfall sicher gegenüber der Infrastruktur anmelden muss, wäre sichergestellt, dass bestimmte Handlungen einer bestimmten Person zugerechnet werden können. Notwendig wäre ein Versanddienst, der sicherstellt und auch bestätigt, dass eine Nachricht beim Empfänger angekommen ist. Umgekehrt wäre es erforderlich, dass ein Postfachdienst einen sicheren Empfang ermöglicht, der einen Zugriff auf die Nachricht nur dem Berechtigten erlaubt. Ist es wichtig, dass die Identität oder eine Eigenschaft eines Handelnden im Internet festgestellt werden kann, müsste deren Authentisierung durch die verlässliche Bestätigung eines vertrauenswürdigen Dritten möglich sein. Um sichere Informationen über unbekannte Kommunikationspartner anbieten zu können, bedarf es außerdem eines vertrauenswürdigen Verzeichnis- und Sperrdienstes. Ein sicherer Speicherplatz, der es den Nutzern ermöglicht, wichtige elektronische Dateien unter Erhalt der Vertraulichkeit gegen Verlust zu sichern, würde die Palette der fehlenden Dienste ergänzen.1 1
Vgl. Knopp, M. / D. Wilke / G. Hornung / P. Laue: Grunddienste für die Rechtssicherheit elektronischer Kommunikation, in: MMR, 2008, S. 723-728.
Bürgerportale für eine sichere Kommunikation im Internet
223
Bürgerportale als sichere Infrastruktur Eine verlässliche Infrastruktur für diese sicheren Dienste sollen Bürgerportale bieten. Ein Bürgerportal ist eine Plattform für die elektronische Kommunikation, die die genannten Dienste anbietet. In ihrem Zusammenwirken ergeben sie die Infrastruktur für rechtssicheres Handeln im Internet. Eine solche Infrastruktur soll das Bürgerportalgesetz ermöglichen, das die Bundesregierung am 20. Februar 2009 in den Gesetzgebungsprozess eingebracht hat.2 Der Entwurf wurde zwar am 23. April 2009 in erster Lesung im Bundestag beraten und an die Ausschüsse überwiesen, konnte aber aus Zeitgründen in der 16. Legislaturperiode nicht mehr verabschiedet werden. Der Bundestag hat jedoch eine Entschließung verabschiedet, in der der neue Bundestag aufgefordert wird, eine gesetzliche Regelung zu Bürgerportalen in der 17. Legislaturperiode zu beschließen.3 Das Konzept der Bürgerportale und auch der Gesetzentwurf zu ihrer Regelung bleiben somit aktuell. Die sichere Infrastruktur soll von den bisherigen Zugangsanbietern aufgebaut werden. Wenn sie – so das Konzept – neben ihren bisherigen Angeboten zusätzlich Bürgerportale anbieten, können Unternehmen, Behörden und Privatpersonen für ihre rechtssichere Kommunikation auf diese zurückgreifen.4 Folgende Dienste sollen oder können von Bürgerportalen angeboten werden: Sichere Eröffnung von Bürgerportalkonten Damit Bürgerportale Vertrauensanker im Kommunikationsraum des Internet sein können und damit an die Nutzung eines Bürgerportals und seiner Dienste Rechtsfolgen geknüpft werden können, ist eine zuverlässige Identifizierung des Nutzers erforderlich. Das soll durch Sichtvergleich mit einem gültigen staatlichen Ausweisdokument oder durch elektronische Äquivalente wie qualifizierte elektronische Signaturen oder elektronische Identitätsnachweise mit Hilfe des elektronischen Personalausweises5 erfolgen. Eröffnet eine juristische Person ein Konto muss der aktuelle Handels2 3 4
5
Vgl. BR-Drs. 174/09 und BT-Drs. 16/12598. BT-Drs. 16/13618. Vgl. Stach, H.: Mit Bürgerportalen für eine einfach sichere, vertrauliche und verbindliche elektronische Kommunikation, in: DuD, 2008, S. 184-188; Busch / Holl, im folgenden Beitrag. Vgl. hierzu näher Roßnagel, A. / M. Hornung: Ein Ausweis für das Internet, in: DÖV, 2009, S. 301-306.
224
Alexander Roßnagel
registerauszug vorgelegt werden und eine sichere Identifizierung des anmeldenden Vertreters stattfinden. Zur Gewährleistung der informationellen Selbstbestimmung kann ein Bürgerportalkonto auch ein Pseudonym beantragt werden.6 Sichere Anmeldung Die Vertrauenswürdigkeit sämtlicher Bürgerportaldienste hängt davon ab, dass sich nur der berechtigte Nutzer ihrer bedienen kann. Um das sicher zu stellen, ist eine sichere Anmeldung am Bürgerportalkonto erforderlich. Ob sie genutzt wird, soll weitgehend der Nutzer entscheiden. Ihm soll – der Einfachheit halber – auch möglich sein, sich nur mit Namen und Passwort anzumelden. Neben diesem einfachen Zugang sollen die Bürgerportalbetreiber aber immer auch eine sichere Anmeldestufe anbieten. Sie setzt die Sicherung des Zugangs durch zwei von einander unabhängige Sicherungsmittel wie Besitz und Wissen voraus. Nur unter dieser Voraussetzung dürfte sich ein Anscheinsbeweis für die Authentizität einer Handlung ergeben.7 Der Empfänger einer über den Versanddienst versandten Nachricht erhält auf Verlangen des Absenders eine beweissichere Bestätigung über dessen sichere Anmeldung. Der Nutzer soll bei jeder zu versendenden Nachricht erneut die Möglichkeit haben, zu entscheiden, ob die Bestätigung erzeugt wird. Die Beweissicherheit der Bestätigung kann etwa durch eine qualifizierte elektronische Signatur des akkreditierten Diensteanbieters gewährleistet werden. Durch diese Bestätigung erhält der Empfänger der elektronischen Nachricht ein belastbares Beweismittel. Eine aus Datenschutzgründen bedenkliche Protokollierung jeder einzelnen Anmeldung kann daher unterbleiben. Sicheres Postfach Für die sichere Kommunikation im Internet ist ein sicheres Postfach erforderlich. Es ermöglicht zusammen mit dem Versanddienst eine sichere Kommunikation zwischen vertrauenswürdigen Sendern und Empfängern. Die Vertrauenswürdigkeit des Postfachs wird dadurch gewährleistet, dass nur der berechtigte Nutzer auf das Postfach zugreifen kann und dieser bei 6
7
Zur Aufdeckungspflicht vgl. hier den Abschnitt „Anbieterpflichten“; zu den Voraussetzungen s. § 16 BPG-E. Vgl. hierzu den Abschnitt „Rechtsfolgen“.
Bürgerportale für eine sichere Kommunikation im Internet
225
Eröffnung des Postfachs zuverlässig identifiziert worden ist. Der Sender kann sich daher darauf verlassen, dass der in der Bürgerportaladresse angegebene Inhaber des Postfachs mit dem berechtigten Nutzer identisch ist. Will er ganz sicher, dass die Nachricht nur von dem gewünschten Empfänger zur Kenntnis genommen werden kann, besteht für ihn die Möglichkeit festzulegen, dass der Empfänger auf die Nachricht nur zugreifen kann, wenn er sich mit der Zugangsstufe der sicheren Anmeldung gegenüber dem Postfach authentifiziert hat. Erst diese Funktion ermöglicht etwa bei der Übermittlung von Patienten- oder Mandantendaten oder anderer Daten, für die besondere Verschwiegenheitspflichten bestehen, die Erfüllung beruflicher oder dienstlicher Sorgfaltspflichten mit der Nutzung des Internet zu vereinbaren. Sicherer Versanddienst Das sichere Postfach wird durch einen sicheren Versanddienst ergänzt. Er zeichnet sich zum einen durch eine hohe Ausfallsicherheit aus. Zum anderen schützt er Vertraulichkeit und Integrität der Nachrichten durch Verschlüsselung und Signierung des Nachrichteninhalts auf dem Transportweg. Das schließt Ende-zu-Ende-Sicherheitsmaßnahmen der Nutzer, die für bestimmte Inhalte oder die Kommunikation bestimmter Berufsvertreter erforderlich sind, wie Inhaltsverschlüsselung oder Signaturen durch den Sender nicht aus. Diese Sicherungsmaßnahmen werden vom sicheren Postfach- und Versanddienst unterstützt. Drittens bietet der Versanddienst auf Antrag des Senders eine Versandbestätigung. In ihr signiert der Sender qualifiziert die Prüfsumme der Nachricht, den Empfänger und den Zeitpunkt der Versendung. Um auch ohne förmliche Zustellung Nachrichten mit vertrauenswürdigen Nachweisen zustellen zu können, bieten die Diensteanbieter im Zusammenwirken viertens eine elektronische Zustellbestätigung an. Der Diensteanbieter des Empfängers bestätigt in dieser auf Antrag des Senders, wann er welche Nachricht im Bürgerportal-Postfach des Empfängers abgelegt hat. Hierfür signiert er die Prüfsumme der Nachricht und einen Bestätigungsvermerk mit einem qualifizierten Zeitstempel. Schließlich soll über Bürgerportale auch eine förmliche Zustellung möglich sein.8 Da hierbei eine hoheitliche Zustellbestätigung erzeugt wird, werden die Bürgerportalbetreiber mit Hoheitsbefugnissen zur Erzeugung öffentlicher elektronischer Dokumente beliehen.
8
Vgl. hierzu den Abschnitt „Rechtsfolgen“ sowie Art. 2 des BPG-E.
226
Alexander Roßnagel
Sichere Authentifizierung Viele Nutzer, die bei der Eröffnung ihres Bürgerportalkontos Identitätsdaten angegeben haben, würden sie gern für eine sichere Authentifizierung gegenüber Dritten nutzen können. Im Rahmen eines freiwilligen Authentisierungsdienstes kann der Portalbetreiber anbieten, diese Daten im Einzelfall auf Anforderung des Nutzers an den Empfänger zu senden und damit dessen Identität zu bestätigen. Um dem Empfänger die notwendige Sicherheit zu geben, kann dieser Dienst aber nur nach einer sicheren Anmeldung genutzt werden. Die Praxis muss zeigen, welche Funktion dieser Authentisierungsmöglichkeit neben dem „elektronischen Ausweis“ im neuen elektronischen Personalausweis zukommen kann. Sicherer Verzeichnisdienst Der Verzeichnisdienst eröffnet dem Nutzer die Möglichkeit, seine Bürgerportaladresse und seine Identifikationsdaten freiwillig so zu veröffentlichen, dass Dritte die Möglichkeit haben, sie zur Kenntnis zu nehmen und sie für eine Kommunikation mit dem Nutzer zu verwenden. Der Anbieter hat sicherzustellen, dass auf Antrag des Nutzers und anderer Berechtigter die Verzeichnisdaten, die nicht mehr zutreffen oder nicht mehr verwendet werden sollen, unverzüglich gelöscht werden. Da durch die Löschung eine weitere Verwendung der gesperrten Daten verhindert wird, sind Sperrlisten oder Möglichkeiten, die aktuelle Gültigkeit der Daten nachzuprüfen, nicht notwendig. Durch diesen Dienst wird die Vertrauenswürdigkeit des Postfach-, Versand- und Authentisierungsdienstes gestärkt. Sicherer Speicherplatz Das freiwillige Angebot eines Speicherplatzes zur sicheren Ablage von Dateien soll dem Nutzer ermöglichen, für ihn wichtige Dateien zugriffsgesichert und gegen Verlust geschützt in seinem Bürgerportal aufzubewahren. Hierbei kann es sich um beliebige Dateien handeln, zu denen der Zugriffsschutz über das Bestimmen der Sicherheitsstufe der Anmeldung individuell festgelegt werden kann. Der Dienst trägt dem zunehmenden Bedürfnis der Nutzer Rechnung, wichtige Dateien an einem sicheren Ort außerhalb des eigenen, stets gefährdeten Endgeräts gegen den etwaigen Verlust zu sichern, ohne dafür ein erhöhtes Risiko unbefugter Kenntnisnahme in Kauf nehmen zu müssen. Der sichere Speicherplatz ist vom Grundrecht auf Vertraulichkeit und Integrität informationstechnischer Sys-
Bürgerportale für eine sichere Kommunikation im Internet
227
teme geschützt.9 Der Anbieter kann weitere Funktionen des sicheren Speicherplatzes anbieten, wie z. B. die Kontrolle und Vornahme notwendiger Übersignierungen für signierte Dokumente10, die Bestätigung und Übersendung elektronischer Dokumente an Dritte oder die Freigabe zum Abruf von Dokumenten durch Dritte auf Wunsch des Nutzers.
Vertrauenswürdigkeit der Bürgerportaldiensteanbieter Entscheidende Voraussetzung für den Erfolg von Bürgerportalen und ihren Diensten ist das Vertrauen der Öffentlichkeit in ihre Vertrauenswürdigkeit. Notwendig ist daher, dass Sicherheit und Datenschutz nicht nur behauptet, sondern nachgewiesen werden. Aufgrund seiner Schutz- und Gewährleistungsfunktion kommt dem Staat die Aufgabe zu, der Wirtschaft ein entsprechendes Nachweisverfahren anzubieten.11 Das Bürgerportalgesetz ermöglicht daher eine freiwillige Akkreditierung. Sie ermöglicht Diensteanbietern, ihre Dienste als Bürgerportaldienste wirksam aufzuwerten. Sie können die Qualität ihrer Dienste in einem rechtssicheren Rahmen mit definierten Anforderungen verbessern und die Erfüllung dieser Anforderungen gegenüber ihren Kunden nachweisen. Akkreditierung Die Akkreditierung erfolgt auf Antrag der Bürgerportalbetreiber, wenn deren Vertrauenswürdigkeit nach einer behördlichen Überprüfung festgestellt worden ist. Nach dem Gesetzentwurf der Bundesregierung soll das Bundesamt für Sicherheit in der Informationstechnik (BSI) diese Überprüfung vornehmen. Nach der Akkreditierung kann der Bürgerportalbetreiber seine Vertrauenswürdigkeit durch ein Gütezeichen nachweisen. Mit ihm kann er auf dem Markt um das Vertrauen seiner Kunden werben. Staatliche und 9 10
11
S. zu diesem den Beitrag von W. Hoffmann-Riem in diesem Band. Vgl. hierzu z. B. Hackel, S. / A. Roßnagel, Langfristige Aufbewahrung elektronischer Dokumente, in: Klumpp, D. / H. Kubicek / A. Roßnagel / W. Schulz (2008) (Hrsg.): Informationelles Vertrauen für die Informationsgesellschaft, Berlin, Heidelberg, S. 199-207. Vgl. hierzu Roßnagel, A. (2002): Infrastrukturverantwortung des Staats und Eigenverantwortung des Bürgers, in: Kubicek, H. / D. Klumpp / A. Büllesbach / G. Fuchs / A, Roßnagel (Hrsg.): Innnovation@Infrastruktur, Jahrbuch Telekommunikation und Gesellschaft 2002, Heidelberg, S. 269-276.
228
Alexander Roßnagel
private Stellen können die nachgewiesene Vertrauenswürdigkeit der akkreditierten Diensteanbieter in ihren Informatikanwendungen berücksichtigen. An diesen Nachweis können andere Gesetze bestimmte Rechtsfolgen knüpfen, die eine solche Vertrauenswürdigkeit voraussetzen. Die akkreditierten Bürgerportalbetreiber bilden einen Verbund, der die Infrastruktur der Bürgerportale betreibt. Die Zugehörigkeit zum Verbund akkreditierter Bürgerportalbetreiber wird neben dem Gütesiegel durch die Verwendung der Second-Level-Domain „de-mail“ zum Ausdruck gebracht. Eine Bürgerportaladresse ist am spezifischen Format und der Verwendung von „de-mail“ erkennbar, z. B. „
[email protected]“. Diese Domain ist allein den akkreditierten Bürgerportalbetreibern vorbehalten. An ihr kann der Rechts- und Geschäftsverkehr erkennen, dass die Mail, die Identifikationsdaten oder die Bestätigung von einem akkreditierten Bürgerportalbetreiber stammen. Akkreditierungsvoraussetzungen Voraussetzung für die Akkreditierung als Bürgerportalanbieter ist im Wesentlichen, dass er nachweist, dass er ņ und die in seinem Betrieb tätigen Personen über die notwendige Zuverlässigkeit und Fachkunde verfügen; ņ über eine Deckungsvorsorge in Höhe von 250 000 € für die möglichen Schadensersatzzahlungen aufgrund von Fehlern als Bürgerportalbetreiber in jedem einzelnen Schadensfall verfügt; ņ die Bürgerportaldienste sicher, zuverlässig und im Zusammenwirken mit den anderen akkreditierten Diensteanbietern erbringt, die Pflichten als Bürgerportalanbieter erfüllt und ein geeignetes Sicherheitskonzept erstellt und umgesetzt hat; ņ die datenschutzrechtlichen Anforderungen für die Gestaltung und des Betrieb der Bürgerportaldienste erfüllt. Anbieterpflichten Neben dem funktionsgerechten und sicheren Angebot der Dienste des Bürgerportals12 muss der akkreditierte Anbieter weitere Pflichten erfüllen. Zu ihnen gehört vor allem die 12
Vgl. hierzu den Abschnitt „Bürgerportale als sichere Infrastruktur“.
Bürgerportale für eine sichere Kommunikation im Internet
229
ņ Information des Nutzers über die möglichen Rechtsfolgen, die eine Benutzung der Bürgerportaldienste nach sich ziehen können, und über notwendige Sicherungsmaßnahmen zur Nutzung des Bürgerportals; ņ Dokumentation aller Vorgänge und Dokumente für 30 Jahre, die der Bürgerportalbetreiber benötigt, um die Erfüllung seiner Pflichten nachweisen zu können; ņ Aufdeckung von Pseudonymen in berechtigten Fällen, ohne Missbrauchsmöglichkeiten zu eröffnen; ņ Beachtung der Verbraucherschutzregeln; ņ Sperrung oder Aufhebung des Bürgerportalkontos auf Wunsch des Nutzers oder auf Verlangen der Bundesnetzagentur; ņ Ermöglichung des Zugriffs auf Daten im Postfach und im Speicherplatz für drei Monate auch nach einer Beendigung des Vertragsverhältnisses mit dem Nutzer oder einer Beendigung der Tätigkeit als Bürgerportalbetreiber.
Rechtsfolgen Weil mit der Akkreditierung die Vertrauenswürdigkeit eines Bürgerportals bestätigt und durch ein Gütezeichen nachgewiesen wird, ist es möglich, weitergehende Rechtsfolgen an die angebotenen Dienste zu knüpfen, als es ohne Akkreditierung der Fall wäre. Bisher ist die amtliche Zustellung nur im Konsens mit dem Empfänger möglich. Denn er muss den Zugang durch eine Empfangsbestätigung bestätigen. Eine konfrontative Zustellung ohne Kooperation des Empfängers ist in Form einer telekommunikativen Übermittlung bisher ausgeschlossen. Das soll nun durch Änderung des § 174 Abs. 3 Zivilprozessordnung und durch Einfügung des § 5a in das Verwaltungsverfahrensgesetz möglich werden. Die amtliche Zustellbestätigung durch den beliehenen akkreditierten Bürgerportalbetreiber ist ein öffentliches elektronisches Dokument, dessen Echtheit und dessen Inhalt nach §§ 371a Abs. 2, 415 und 437 Zivilprozessordnung vermutet wird. Das bringt dem elektronischen Rechtsverkehr einen hohen Zugewinn an Rechtssicherheit. Gleichzeitig sind mit der Akkreditierung aber auch nicht ausdrücklich geregelte Rechtsfolgen angestrebt. Dazu zählt der Anscheinsbeweis bei einer sicheren Anmeldung. Aufgrund der vorgeprüften und nachgewiesenen
230
Alexander Roßnagel
Vertrauenswürdigkeit der Diensteanbieter und der Anmeldung des identifizierten Nutzers mit zwei von einander unabhängigen Scherungsmitteln im Einzelfall dürften die Gerichte einen widerlegbaren Anschein annehmen, dass der Nutzer selbst von seinem Konto aus im Internet gehandelt hat. Auch dieser Anscheinsbeweis der Verantwortung für bestimmte Handlungen dürfte die Rechtssicherheit im Internet deutlich stärken. Zu beachten ist allerdings, dass dieser Anscheinsbeweis nur die Identität des Handelnden betrifft, nicht jedoch den Inhalt von Willenserklärungen. Sie sind beweissicher auch weiterhin nur mit qualifizierten elektronischen Signaturen nachzuweisen. Schließlich könnte die Nutzung von Bürgerportalen mehr Rechtssicherheit in der Kommunikation zwischen Bürger und Verwaltung bieten. Nach § 3a Abs. 1 Verwaltungsverfahrensgesetz kann die Verwaltung dem Bürger nur dann rechtsrelevante Bescheide wirksam elektronisch übermitteln, wenn er hierfür einen Zugang eröffnet hat. Da das Gesetz keine klaren Maßstäbe für eine Zugangseröffnung festgelegt hat13, scheuen die Behörden das rechtliche Risiko einer elektronischen Übermittlung und benutzen weiterhin Brief und Postweg. Da ein Bürgerportal explizit das Ziel verfolgt, die Rechtssicherheit rechtsverbindlicher Kommunikation im Internet zu erhöhen, könnte in der Praxis angenommen werden, dass ein Bürger, der ein Bürgerportalkonto eröffnet und sich über dieses an die Verwaltung wendet, damit auch einen Zugang für den Empfang elektronischer Dokumente von der Verwaltung eröffnet.
Ausblick Bürgerportale bieten eine Infrastruktur rechtssicherer Kommunikation im Internet. Sie schließen daher eine Lücke für den elektronischen Rechtsund Geschäftsverkehr, die bisher eine Nutzung des Internet verhindert hat. Ihre Nutzung steht Bürgern, Unternehmen und Verwaltungen frei. Sie werden Bürgerportale nutzen, wenn die höhere Rechtssicherheit ihnen Vorteile verspricht. Für die unverbindliche Kommunikation werden sie bei den anderen Internetdiensten bleiben. Bürgerportale erhöhen dadurch nicht nur die Rechtssicherheit, sondern auch die Wahlfreiheit im Internet.
13
Kritisch hierzu Roßnagel, A.: Die elektronische Verwaltung, in: NJW, 2003, S. 469-475.
Bürgerportale für eine sichere Kommunikation im Internet
231
Über den Autor Prof. Dr. jur. Alexander Roßnagel, Studium der Rechtswissenschaften, 1981 Dissertation, 1991 Habilitation, Universitätsprofessor für Öffentliches Recht mit dem Schwerpunkt Recht der Technik und des Umweltschutzes an der Universität Kassel, wissenschaftlicher Leiter der „Projektgruppe verfassungsverträgliche Technikgestaltung (provet)“ und Direktor des Forschungszentrums für Informationstechnik-Gestaltung (ITeG) an der Universität Kassel. Wissenschaftlicher Direktor des Instituts für Europäisches Medienrecht (EMR) in Saarbrücken. Von 2003 bis 2011 Vizepräsident der Universität Kassel. 1993 Forschungspreis der Alcatel SEL Stiftung, 1995/96 Alcatel SEL Stiftungsgastprofessor am Zentrum für Interdisziplinäre Technikforschung der Technischen Universität Darmstadt. Seit 1999 Herausgeber des wissenschaftlichen Kommentars zum Informationsund Kommunikationsdienste-Gesetz und Mediendienste-Staatsvertrag „Recht der Multimedia-Dienste“, 2001 Erstellung des Gutachtens „Modernisierung des Datenschutzrechts“ für das Bundesinnenministerium, 2003 Herausgabe des Handbuchs Datenschutzrecht. 2007 Ernennung zum Fellow der Gesellschaft für Informatik.
Vom Bürgerportal zur De-Mail – Usability und Kundenorientierung für komplexe Web-Angebote
Carsten Busch, Friedrich L. Holl
Aufgabenstellung Die Ausweitung von Bandbreiten, der zunehmende Einsatz interaktiver und bildbezogener Techniken, aber auch die wachsenden Kompetenzen von Anbietern und Nutzern führen dazu, dass immer komplexere Angebote im Internet möglich werden. Wie in der Offline-Welt gilt aber auch online: Steigende Komplexität erfordert bessere Planung und Konzeption, sonst bleiben die Nutzer weg oder werden schnell verschreckt – vor allem, wenn sie kompetent oder Besseres gewohnt sind. Soweit die abstrakte Aufgabe, der sich mittlerweile alle Anbieter komplexer Web-Angebote stellen müssen. Das Bundesministerium des Innern hat sich mit dem Projekt der „Bürgerportale“ einiges mehr vorgenommen. Entstanden aus BundOnline, einer Initiative der Bundesregierung, um möglichst viele Dienstleistungen des Bundes über das Internet zur Verfügung zu stellen, will das Konzept der Bürgerportale ein komplexes Bündel von Online-Dienste für Bürger und Bürgerinnen nutzbar machen, aber auch für kleine und mittlere Unternehmen: „Trotz vielfältiger Anstrengungen ist die Kommunikation über das Internet heute gefährdeter denn je. Spam-, Wurm- und Phishing-Mails überfluten die E-Mail-Postfächer. Einfach und kostengünstig anzuwendende Identifizierungs- und Absicherungsverfahren fehlen bzw. finden nicht ausreichend Akzeptanz. Das Internet bietet weniger Rechtssicherheit und Verbindlichkeit als die gewohnte papiergebundene Kommunikation. Ein mangelndes Vertrauen von Bürgerinnen und Bürgern, Wirtschaft und Verwaltung in die Sicherheit der Internetkommunikation würde elektronische Märkte und die mit der elektronischen Kommunikation einhergehen-
234
Carsten Busch, Friedrich L. Holl
den gesellschaftlichen Modernisierungseffekte gefährden. Dem wird durch staatlich zertifizierte Bürger-Portale entgegen gewirkt, die einen geschützten, sicheren elektronischen Kommunikationsraum im Internet aufspannen. Bürgerinnen und Bürger erhalten einen Ort im Netz, von dem aus sie einfach, sicher und nicht-anonym kommunizieren können. Dabei sind die personenbezogenen Daten geschützt und die informationelle Selbstbestimmung gewährleistet. Bürger-Portale ermöglichen Bürgerinnen und Bürgern eine elektronische Präsenz im Netz mit elektronischer Meldeadresse. Mit Hilfe ihres Bürger-Portals können sie sich gegenüber Dritten im Internet verlässlich authentisieren. Dokumente und Informationen können zur eigenen Person langfristig sicher aufbewahrt und ausgewählten Kommunikationspartnern bereitgestellt werden. Bürger-Portale geben Bürgerinnen und Bürgern im Internet ein Gesicht. Sie machen die nicht-anonyme und sichere elektronische Kommunikation zum Normalfall und schaffen damit eine wesentliche Grundlage für die Erhaltung und den Ausbau des Internets als Medium gesellschaftlicher, wissenschaftlicher und wirtschaftlicher Entwicklung. Die Möglichkeit der sicheren elektronischen Kommunikation löst bei Wirtschaft und Verwaltung einen Innovationsimpuls aus, der zu einer Verbesserung der E-Government- und E-Business-Angebote führt.“1 Bürgerportale sollten also eine staatlich zertifizierte Infrastruktur bieten, die von Unternehmen aufgebaut werden soll, um anderen Unternehmen und Einzelpersonen folgende Leistungen anzubieten: ņ rechtssichere digitale Kommunikation; ņ sichere und verlässliche digitale Erreichbarkeit; ņ langfristige und kontrollierte Speicherung eigener digitaler Daten; ņ eine Identifizierungsfunktion; ņ einfache Bedienbarkeit. Zur Unterstützung des Konzeptionsprozesses wurden durch das Bundesinnenministerium Begleitstudien beauftragt; Aufgabe für das Fachgebiet Medienwirtschaft der FHTW Berlin war hier der Schwerpunkt „Akzeptanz und Usability“.2 Das interdisziplinär zusammengesetzte Team hat im Wesentlichen folgende Methoden eingesetzt, um die Usability und Akzeptanz von Bürgerportalen zu erhöhen und Empfehlungen abzuleiten: 1 2
Bundesregierung (2006): E-Government 2.0, S. 16. Weitere Studien gab es zu den rechtlichen Rahmenbedingungen, zur Interoperabilität und zu Datenschutz.
Vom Bürgerportal zur De-Mail
235
ņ Begriffs- und Metaphern-Analyse sowie Entwicklung neuer Begriffskonzepte; ņ Markenanalyse und Entwicklung von Kommunikationsempfehlungen; ņ Entwicklung eines Prototypen sowie Tests und Befragung anhand des Prototypen.3
Begriffs- und Metaphern-Analyse sowie Entwicklung neuer Begriffskonzepte Zunächst wurden die im Rahmen des Konzepts „Bürgerportale“ entwickelten Arbeitsbegriffe analysiert und mit dem Ziel der Steigerung der Akzeptanz weiterentwickelt. Dazu wurden begriffslogische und -ästhetische sowie empirische Methoden kombiniert, basierend auf Verfahren zur Analyse und Konzeption von Metaphern und Wortbildern, wie von Busch exemplarisch für Metaphern in der Informatik vorgestellt (vgl. Abb. 1).4 Dabei werden die Bedeutungen von Begriffen und Sprachbildern jeweils ihrem herkömmlichen Kontext und dem neuen, unüblichen Kontext miteinander verglichen sowie ihrer Relation zu den zu bezeichnenden Gegenständen und den Rezipienten bzw. Nutzern untersucht. Die Analyse ergab, dass die Mehrzahl der anfänglichen Arbeitsbegriffe im Konzept der Bürgerportale zwar inhaltlich und technisch tragfähig, aber für die Kommunikation mit Nutzern und Unternehmen hinsichtlich eines möglichst allgemein verständlichen Begriffsfeldes weiter zu entwickeln waren. Hauptziel war dabei, das Gesamtangebot sowie die Dienstleistungen in ihrem praktischen Nutzen zu beschreiben und den Nutzern die Vorteile des Angebots gegenüber herkömmlichen E-Mail-Diensten (Rechtsverbindlichkeit und Sicherheit bei hohem Komfort) zu verdeutlichen. Es wurden verschiedene Alternativen für die Benennung der Dienste konzipiert und getestet, unter anderem Präfix- und Suffix-Konstrukte, aber 3
4
Darüber hinaus wurden auch mögliche Geschäftsmodelle eruiert. Aufgrund der Kosten- und Zeitvorgaben waren für die hier skizzierten Untersuchungen leider keine Settings mit Repräsentativität für die Bevölkerung Deutschlands möglich, sondern es wurden für die einzelnen Themenblöcke jeweils Gruppen von ca. 25 bis über 50 potentielle Nutzern befragt bzw. beobachtet; zur qualitativen Vertiefung wurden Interviews geführt, zur quantitativen Absicherung wurden vorhandene Studien anderer Autoren herangezogen und ausgewertet. Busch, C. (1998): Metaphern in der Informatik, Wiesbaden.
236
Carsten Busch, Friedrich L. Holl
Abb. 1. Metaphern und Wortbilder in der Informatik
auch Sprachbilder, Kunstwörter und Akronyme. Im Resultat stellte sich das Präfix-Konstrukt „d-“ als tragfähigste Alternative heraus, weil sie mit d-mail, d-safe, d-… die Bildung eines ganzen Begriffsfeldes ermöglicht, das „d“ sich als Abkürzung für „digital“ und/oder „deutsch“ interpretieren lässt und durch ähnliche Begriffsfelder wie iPod, iMac, iPhone, iTunes oder E-Mail, E-Paper, E-Marketing etc. diese Art von Begriffskonstruktion bereits vielen Nutzern bekannt ist.
Markenanalyse und Entwicklung von Kommunikationsempfehlungen Um ein Angebot am Markt zu profilieren und es wirksam zu differenzieren, empfiehlt es sich, die Begriffsentwicklung mit einer langfristig orientierten Markenstrategie zu verbinden.5 In der Gestaltung des neuen Begriffsfeldes wurden daher die Vorteile einer Dachmarkenstrategie genutzt: ņ schnelle Bekanntmachung sowohl der Dachmarke als auch der Untermarken sowie gute Einprägsamkeit und hohe Wiedererkennung; 5
Ebenfalls nicht technisch vgl. Busch, C. (2007): Geburt von Marken, Göttingen; Busch, C. / S. Kastner / C. Vaih (2009): Die Kunst der Markenführung, Göttingen.
Vom Bürgerportal zur De-Mail
237
ņ Stärkung der Identität von Angebot und Anbieter; ņ verbesserte Akzeptanz für später hinzukommende Services. Die entwickelte Dachmarke „d-mail“ verwendet das „d-“ als Markenpräfix und Erkennungszeichen. Die „d-mail steht für die neuen Möglichkeiten des Versendens, Empfangens und Verwaltens von vertraulichen und/oder rechtlich relevanten E-Mails und führt sämtliche hiermit verbundene Dienste unter einem Markendach zusammen:6
Abb. 2. Markendach D-Mail
Die empirische Überprüfung durch Befragung potentieller Nutzer ergab, dass die Dachmarke d-mail und die von ihr abgeleiteten primären Submarken sowie die sekundäre Submarke d-safe verstanden und mit den gewünschten Assoziationen verbunden werden. Maßnahmen zur Vermarktung von d-mail und der angegliederten Services sollten die Kriterien Effizienz im Sinne schneller Nutzergewinnung und Nachhaltigkeit im Sinne langfristiger Differenzierung und Imagebildung erfüllen. Wichtig ist hierbei die deutliche Hervorhebung der konkreten Vorteile und der tatsächlichen Leistungen, so dass sie für die künftigen Nutzer unverwechselbar erkennbar sind. Um die Positionierung zu stabilisieren und den unverwechselbaren Status des Angebots zu unterstreichen, sollte das Präfix-Konstrukt „d-“ auch für alle passenden weiteren oder gegebenenfalls später hinzukommenden Dienste genutzt werden. Hierdurch 6
Die ursprünglichen Begriffe stehen jeweils oben in hellgrau.
238
Carsten Busch, Friedrich L. Holl
können sich die verschiedenen Dienste und Produkte – bzw. Submarken – wechselseitig stützen, zahlen insgesamt auf die Dachmarke ein und profitieren zugleich von ihr.
Entwicklung eines Prototypen sowie Tests und Befragung anhand des Prototypen Aufgabe des dritten Teilprojekts war die Entwicklung eines Prototypen und seine Überprüfung auf „Usability“. Insbesondere sollte auch die neue Begrifflichkeit in Hinblick auf ihre Verständlichkeit empirisch getestet werden. Vorgegeben waren dabei folgende Funktionalitäten: Die Adresse: Eine Bürgerportaladresse soll bereits am Format durch einen Zusatz erkennbar sein, z. B.
[email protected]. Zur Eröffnung eines Kontos muss man sich einmalig sicher ausgewiesen haben, ähnlich wie bei der Eröffnung eines Bankkontos, so dass die Identität der Inhaber eindeutig bestimmbar ist und Missbrauch verhindert wird. Die Versanddienste: Der Versanddienst sollte einfach zu nutzen sein. Deshalb wurde auf eine bekannte Technologie in Analogie zu einem herkömmlichen Web-Mail-Programm zurückgegriffen: Man erstellt eine Bürgerportalnachricht – eine d-mail – wie eine E-Mail, nur dass diese von einer d-mail-Adresse an eine d-mail-Adresse geschrieben wird. Wählt man die Option d-mail-Einschreiben, erhält man zudem eine vom Provider des Empfängers qualifiziert elektronisch signierte Zustellbestätigung. Mit dieser kann man den Zugang der Nachricht beim Empfänger vor Gericht zweifelsfrei beweisen. Der Dokumentensafe: Die geplante Dokumentenablage bietet einen sicheren, vor fremdem Zugriff und Datenverlust geschützten Speicherort für die Dokumente der Nutzer. Wer möchte, kann seine d-mails und andere elektronische Dokumente in einem zertifizierten Speicherort bei seinem Provider ablegen, z. B. Bankunterlagen wie Spar- oder Darlehensverträge, die in Deutschland 30 Jahre lang aufbewahrt werden müssen. Der Identitätsbestätigungsdienst: Zusätzlich ist eine Möglichkeit zur sicheren elektronischen Identitätsbestätigung, De-Ident, vorgesehen, die bereits ohne den elektronischen Personalausweis, der eine ähnliche Funktion erfüllt, zur Verfügung gestellt wird. Diese Funktion wurde im Rahmen des Prototypen nicht implementiert.7 Zum anderen wurde ein Szenario „Fahr7
Ebenfalls nicht technisch abgebildet wurden Datensicherheits-Elemente wie Signaturen, Zertifikatsprüfungen oder Verschlüsselungstechniken. Ein Schaubild des Protoypen ist am Ende des Abschnitts abgedruckt.
Vom Bürgerportal zur De-Mail
239
zeuganmeldung“ in Zusammenarbeit mit der Versicherungsbranche entwickelt, mit dem Probanden die grundlegenden De-Mail-Funktionalitäten aus Usability-Sicht überprüfen konnten. Die Ergebnisse der auf dieser Basis vorgenommenen Befragungen und Beobachtungen von potentiellen Nutzern lassen sich folgendermaßen zusammenfassen: Sowohl der Prototyp als auch das zu realisierendes Szenario sind auf eine hohe Akzeptanz bei den Befragten gestoßen – die grundlegende Aufgabenstellung des d-mail-Dienstes konnten schnell nachvollzogen und die Problemstellungen des Szenarios umgesetzt werden. E-Mail-Dienste sind in unterschiedlicher Art bereits bei einem großen Teil der Bevölkerung bekannt und werden recht selbstverständlich genutzt. Zusätzliche Spezialformen wie sie über d-mail realisierbar werden, können schnell gelernt und in die normale Nutzung mit übernommen werden. Der Einsatz von d-mail wurde vorrangig im Bereich der „geschäftlichen“ Kommunikation gesehen; sie kann aus Sicht der Befragten allerdings auch zwischen Privaten und Unternehmen stattfinden. Als eines der wichtigsten Probleme für die Umsetzung von d-mail wurde in den Befragungen der potentiellen Nutzer die gefühlte bzw. vermutete Unsicherheit der privaten Nutzer erkennbar – insbesondere im Zusammenhang mit dem d-safe. Sie vertrauen im Zweifelsfall weder den Providern noch Zertifikaten besonders. Offensichtlich hat auch bei Nutzern das Thema der Datensicherheit und Datenschutz einen hohen Stellenwert und es bestätigt sich gerade in der Skepsis die Notwendigkeit, sichere Kommunikationsmöglichkeiten wie Bürgerportale und d-mail für alle zu entwickeln. Die doppelte Anforderung an die Umsetzung lautet demnach, einerseits echte und einfach nutzbare Sicherheit, Vertraulichkeit und Verbindlichkeit zu schaffen, wie in den Spezifikationen von d-mail, d-safe etc. vorgesehen, und sie andererseits in der Kommunikation auch nach außen erkennbar zu machen. Insgesamt haben die Tests sowohl anhand des Prototypen und des Szenarios, als auch die Befragungen bezüglich der Begrifflichkeiten ergeben, dass die Entwicklung eines vereinfachten und abgestimmten Begriffsfelds im Sinne einer Art Markenstrategie in Verbindung mit der Hervorhebung einzelner, klar verständlicher Dienste und der Veranschaulichung der Leistungen von Bürgerportalen und d-mail mit Hilfe eines technischen Prototypen tatsächlich das Verständnis, die Usability und die Akzeptanz bei potentiellen Nutzern erhöhen. Konkret wird das beispielsweise durch die Verwendung der Briefmetapher im Slogan „So einfach wie E-Mail, so sicher wie Papierpost“ unter-
240
Carsten Busch, Friedrich L. Holl
stützt, auch die d-mail mit Ankunftsbestätigung greift mit dem Namenszusatz „-Einschreiben“ auf die Begriffswelt der Briefpost zurück. Da gleichzeitig bereits E-Mail seit Jahrzehnten als eine metaphorische Übertragung des Post-Gedankens in die Welt der elektronischen Kommunikation praktiziert wird, stellt sich d-mail als einfache Verlängerung bzw. Erweiterung dar, bei der nun noch der Sicherheits- und Datenschutzaspekt sauber abgebildet wird: Von der mail/post zur E-Mail zur d-mail, die mit Geschwindigkeit und Sicherheit die Vorteile zweier Welten verbindet. Für das Verständnis und die Akzeptanz auf Nutzerseite ist hier natürlich zentral, dass die Papierpost allen bekannt und ist und dass die elektronische Post mittlerweile von fast allen gekannt und von vielen genutzt wird. Die d-mail knüpft hier unmittelbar an. Ein Beispiel, wie es dann in der Umsetzung aussehen kann, gibt das folgende Schaubild, das den Prototypen des Webmail-Programms in einer Folgeversion mit dem aktuellen Logo zeigt:
Abb. 3. Prototyp des Webmail-Programms
Wie man sieht, ist die d-mail durch De-Mail ersetzt worden: Nach Abschluss der Studie Akzeptanz und Usability wurde das Konzept aus markenrechtlichen Gründen durch das Bundesministerium des Inneren zu DeMail weiterentwickelt. Ebenfalls zu sehen ist, wie einfach sich De-Mail in
Vom Bürgerportal zur De-Mail
241
einen normalen Web-Mailer integrieren lässt und wie die Funktionalitäten De-Mail-Einschreiben, De-Mail-Adressbuch, De-Ident und De-Safe dargestellt werden können.
Resultate und Fazit Mittlerweile hat das Bundesinnenministerium das Gesetzgebungsverfahren angestoßen und es sind beim IT-Gipfel im November 2008 Vereinbarungen mit Unternehmen verschiedener Branchen über die Durchführung einer Pilotphase getroffen worden. Die konkret umzusetzenden Dienste sind in den Erläuterungen zum Gesetzentwurf des so genannten Bürgerportalgesetzes folgendermaßen beschrieben: „1.Postfach- und Versanddienst (De-Mail), 2. Identitätsbestätigungsdienst (De-Ident) und 3. SpeicherplatzDienst (De-Safe). Es wird geregelt, wie der Nutzer ein Bürgerportalkonto (De-MailKonto) eröffnet und wie er sich anmelden kann. Die Regelung zur Eröffnung eines Bürgerportalkontos (De-Mail-Konto) gewährleistet die sichere Identität der Kommunikationspartner. Zudem werden Regelungen zur Nutzung getroffen: Es werden Aufklärungs- und Dokumentationspflichten des akkreditierten Diensteanbieters festgelegt.“8 Wichtig für Akzeptanz und Nutzerfreundlichkeit ist immer auch Transparenz. Daher wurde zu dem Projekt und dem Gesetzentwurf eine OnlineKonsultation durchgeführt, damit auch Bürgerinnen und Bürger ihre Anforderungen an De-Mail einbringen konnten. Auf der Plattform www.ekonsultation.de konnten Interessierte Basisinformationen zu De-Mail sowie zum Gesetzentwurf abrufen und in Frageblöcken ihre Einschätzung zum Zertifizierungsverfahren und den verschiedenen Diensten äußern. Auf der Website des Beauftragten der Bundesregierung für Informationstechnik findet sich darüber hinaus ein Video zum Download, das die Funktionsweise und Zielsetzungen der De-Mail veranschaulicht. Folgendes Schaubild aus dem Video verdeutlicht beispielsweise die Sicherheitsarchitektur des De-Mail-Verbundes:9
8 9
Erläuterungen zum Entwurf des Bürgerportalgesetzes, 2008, S. 2. Quelle: http://www.cio.bund.de/cln_093/sid_F5EA419F2DDF80F7BF26BC3FDF 12E861/SharedDocs/Videos/DE/de_mail_video.html?nn=55498download=%201.
242
Carsten Busch, Friedrich L. Holl
Abb. 4. Sicherheitsarchitektur des De-Mail-Verbundes
Noch befindet sich das „Bürgerportal-Gesetz“ zur Schaffung der rechtlichen Grundlagen für die bundesweite Einführung der De-Mail im Verfahren, der Gesetzentwurf wurde am 4.2.2009 vom Bundeskabinett beschlossen; Ergebnisse der Pilotphase sind Ende 2009 zu erwarten. Wie bei jedem neuen Produkt stellt sich auch bei De-Mail die Frage nach den Kosten – und wer sie tragen wird. Die Preisbildung für De-Mail soll dem Markt überlassen bleiben. Die genauen Preise wird jeder Anbieter individuell im Wettbewerb um die Kunden festlegen. Da es auch den De-Mail-Providern darum geht, möglichst viele Kunden zu akquirieren, steht zu hoffen, dass die Preismodelle auch für die avisierten Kunden attraktiv sein werden – seien es Einzelpersonen oder Unternehmen. Insofern wäre ein abschließendes Fazit im Frühjahr 2009 verfrüht. Als Zwischenergebnis kann allerdings festgehalten werden, dass sich die frühzeitige Einbeziehung von Fragen der Akzeptanz und guter Nutzbarkeit dieses Internet-Angebots gelohnt hat, die Nutzerbeobachtungen und -befragungen haben deutliche Verbesserungen hinsichtlich Verständnis und Wünschbarkeit belegt. Insofern können das Vorgehen des Bundesinnenministeriums und der hier skizzierte Methoden-Mix aus Begriffskon-
Vom Bürgerportal zur De-Mail
243
zeption, Markenkonzeption und Prototyp-Entwicklung durchaus als positives Beispiel dafür gelten, wie die Konzeption eines komplexen WebAngebots bereits in einem frühen Stadium mit Blick auf Bedürfnisse von Nutzern und Nutzerinnen gestaltet werden kann. Es steht damit somit zu hoffen, dass De-Mail sich durchsetzt und die Erwartungen an einen einfachen, zugleich verbindlichen und sicheren Kommunikationsraum mit breiter Nutzung durch Wirtschaft, Verwaltung und Einzelpersonen erfüllen wird. Man wird es an der Zahl der De-Mail-Nutzer und zertifizierten De-Mail-Anbieter messen können.
Über die Autoren Carsten Busch Prof. Dr.-Ing. Carsten Busch ist seit 2006 Professor für Medienwirtschaft im Internationalen Studiengang Medieninformatik an der Hochschule für Technik und Wirtschaft (HTW) in Berlin, leitet dort das Kompetenzfeld Games & Interactive Media und ist zugleich Direktor des Instituts für Markenkommunikation (IMK). Er hat Informatik an der TU Berlin studiert, an der er auch über „Metaphern in der Informatik“ promovierte; weitere Stationen sind die UdK Berlin und das Institut für Wirtschaftskommunikation, das er 2002 gründete. Veröffentlichungen zu Business Innovation Management, Geburt von Marken, Markenführung und Medieninformatik. Aktueller Schwerpunkt seiner Arbeit ist das Wechselverhältnis von Marken, digitaler Interaktion und Computerspielen. Friedrich-L. Holl Prof. Dr. Friedrich-L. Holl ist seit 1996 Professor für Bürokommunikation und Verwaltungsautomation an der Fachhochschule Brandenburg. Er leitet dort den Masterstudiengang Security-Management und ist Geschäftsführender Direktor des Instituts für Security und Safety an der Fachhochschule Brandenburg (ISS). Er beteiligt sich intensiv an mehreren insbesondere regionalen Initiativen zur Förderung der Sicherheitsindustrie. Daneben ist er akkreditierter deutscher und europäischer Datenschutz-Sachverständiger für IT-Produkte (ULD Schleswig-Holstein/EuroPriSe). Die aktuellen Schwerpunkte seiner Arbeit liegen im Datenschutz/Security, der Softwaregestaltung (Ergonomie/Usability) und der Innovationsentwicklung.
Identitätsmanagement in Netzwelten
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
Einführung Viele Menschen verlagern immer mehr Aspekte ihres Lebens zumindest teilweise in die virtuellen und vernetzten Welten des Internet. In Netzwelten wird gekauft und verkauft, ein großes Spektrum an Themen diskutiert, Wissen mit anderen geteilt und erworben, miteinander gespielt und vieles mehr. Das gilt sowohl für berufliche als auch private Belange. Dabei kommt es häufig zu Interaktionen von einander vorher Unbekannten. An die Systeme, die Interaktionen in Netzwelten technisch ermöglichen, werden wie an jedes technische System von Nutzern und Systemanbietern Sicherheitsanforderungen gestellt. Daneben haben Nutzer Erwartungen zum Verhalten ihrer Interaktionspartner. Diese Erwartungen betreffen auch Sicherheitsanforderungen. Technische Systeme sollten daher Nutzer darin unterstützen, mit potenziellen Interakteuren Sicherheitsanforderungen auszuhandeln und ihre Erfüllung einzuschätzen. Die meisten Menschen möchten ihre Privatsphäre in Netzwelten genauso selbstverständlich gewahrt wissen wie in der physischen Welt. Wer ein Geschäft betritt, zeigt jedoch keine Identifikationsnummer vor, während er das beim Besuch eines Internetshops etwa mit seiner IP-Adresse tut. Ein Schutz der Privatsphäre auf der Kommunikationsebene, also anonyme Kommunikation, ist durch verschiedene Anonymisierungsdienste möglich. Sie reichen von einfachen anonymisierenden Proxys bis zu sichereren Diensten wie JAP1 oder Tor2, die mehr oder weniger auf Chaums Mixen3
1
2
Berthold, O. / H. Federrath / S. Köpsell (2001): Web Mixes: A System for Anonymous and Unobservable Internet Access, in: Federrath, H. (Hrsg.): Designing Privacy Enhancing Technologies, New York, S. 115-129. Dingledine, R. / N. Mathewson / P. Syverson (2004): The Second Generation Onion Router, in: Proceedings of the 13th USENIX Security Symposium, August.
246
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
basieren. Proxies erreichen nur Anonymität gegenüber dem Shop-Betreiber und externen Angreifern, während JAP und TOR Anonymität auch gegenüber den Betreibern des Anonymisierungsdienstes sicherstellen. Wer in einem Geschäft die Beratung eines Verkäufers sucht, gibt ihm zumeist nur Informationen über Vorlieben, die für den geplanten Kauf relevant sind, aber kein komplettes Persönlichkeitsprofil. Der Besucher eines Internetshops bietet ihm meist jedoch ein umfangreiches Persönlichkeitsprofil über vergangene Einkäufe bei ihm oder kooperierenden Shops. Dazu richten Dienstanbieter im Rahmen von Identitätsmanagement Nutzeraccounts ein und animieren die Nutzer, sich bei jedem Besuch des Shops einzuloggen bzw. versuchen, eben das automatisch zu erreichen. Statt das Identitätsmanagement allein dem Dienstanbieter zu überlassen, um die Accounts seiner Nutzer zu verwalten, haben Nutzer zunehmend die Chance, nutzerkontrolliertes datenschutzfreundliches Identitätsmanagement (IDM) zu verwenden. Es hilft ihnen, die Datenmenge zu kontrollieren, die sie zu Dienstanbietern übertragen. Zugleich wird dem Dienstanbieter die Zurechenbarkeit von Aktionen zu Nutzern garantiert. In diesem Beitrag stellen wir zunächst die üblichen Sicherheitsanforderungen vor, die Menschen an technische Systeme und ihre Interakteure in Netzwelten stellen, und beleuchten, wie nutzerkontrolliertes datenschutzfreundliches IDM helfen kann, die konkurrierenden Anforderungen verschiedener Interakteure und des Systembetreibers zu unterstützen. Insbesondere geben wir dabei einen Ausblick, welchen Herausforderungen sich dieser Forschungsbereich noch stellen muss.
Interaktionssysteme in Netzwelten Interaktion bezeichnet nach der lateinischen Bedeutung eine Handlung („actio“) zwischen („inter“) Entitäten, die damit zu Interakteuren werden. Weiter gefasst ist Interaktion „die durch Kommunikation vermittelte gegenseitige Beeinflussung von Individuen oder Gruppen im Hinblick auf ihr Verhalten und Handeln, ihre Einstellungen und dergleichen, z. B. in einer Schulklasse. Dabei orientieren sich die Beteiligten an wechselseitigen Erwartungen (z. B. Rollenvorstellungen, Situationsdefinitionen), oder das Handeln der einen Person löst das der anderen aus. Interaktion erfolgt also im Rahmen eines den Handlungspartnern vorgegebenen Gefüges aus stabi3
Chaum, D. (1981): Untraceable Electronic Mail, Return Adresses, and Digital Pseudonyms, in: Communications of the ACM, 4, 2, S. 84-88.
Identitätsmanagement in Netzwelten
247
len Grundverhaltensmustern, Bedeutungssymbolen sowie Kommunikationstechniken“.4 Interakteure können demnach eine Erwartung an das Verhalten bzw. die Aktionen der anderen Interakteure haben: implizit (z. B. in Form von Grundverhaltensmustern) oder explizit (z. B. in Form eines Vertrags). Insbesondere die implizite, aber auch die explizite Erwartung, sowie die eigentliche Interaktion können dabei einer subjektiven Betrachtung durch die Interakteure und andere Nutzer unterliegen. In der physischen Welt hängt die Betrachtung einer Interaktion von dem erwähnten Gefüge aus Verhaltensmustern, Bedeutungssymbolen und Kommunikationstechniken ab. Interaktion spielt sich in verschiedenen Facetten von Kommunikation (Worten, Gesten, Tonfall usw.) ab und besteht aus vielen feingranularen Aktionen, die vielseitig aufeinander bezogen sind. Technische Interaktionssysteme können die Facetten und die Feingranularität von Interaktion bisher nicht ausreichend nachbilden. Im Folgenden muss angenommen werden, dass für Interaktionssysteme nur eine Menge klar abgrenzbarer Aktionen, aus denen sich Interaktionen zusammensetzen können, zur Verfügung steht. Die damit möglichen Aktionen eines Akteurs, die im Sinne von Interaktion auf einen Kontakt als potenziellen Interakteur ausgerichtet sind, werden vom Interaktionssystem in einem darunter liegenden Kommunikationssystem in Form von Nachrichten zwischen einem Absender und Adressaten abgebildet. Kommunikationssysteme wiederum nutzen die unteren Netzwerkebenen zur Übermittlung dieser Nachrichten als Signale von einem Sender zu einem Empfänger. Damit ergeben sich für ein Interaktionssystem drei Interaktionsebenen: Die Kommunikationsebene besteht aus allen sieben Schichten des ISO/OSI-Modells5; die Interaktionsebene als Anwendung liegt oberhalb der obersten der sieben Schicht (Anwendungsschicht) und wird nicht vom OSI-Modell erfasst; die Signalebene unterhalb der untersten der sieben Schichten (Bitübertragungsschicht) des OSI-Modells bildet den analogen Bereich. So wie die Interaktionen müssen auch die Interakteure digital abgebildet werden. Menschen werden in informationstechnischen Systemen üblicherweise durch Mengen von maschinenlesbaren Daten repräsentiert, so genannte digitale Identitäten. Abhängig von der Situation und dem Kontext, in denen ein Mensch sich befindet, werden nur Teilmengen dieser Daten
4 5
Der Brockhaus in Text und Bild (2004), Mannheim. Zimmermann, H. (1980): OSI Reference Model – The ISO Model of Architecture for Open Systems Interconnection, in: IEEE Transactions on Communications, 28, 4, S. 425-432.
248
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
(„Attribute“) zu seiner Repräsentation benötigt. Sie werden als (digitale) Teilidentitäten (engl. „(digital) partial identities“, pIDs) bezeichnet.6 Jeder pID wird auf der Interaktionsebene des Interaktionssystems ein Identifikator zugeordnet, unter dem Aktionen ausgeführt werden können und/oder die entsprechende pID durch eine Aktion kontaktierbar ist; dieser Identifikator wird im Folgenden als Interaktionspseudonym bezeichnet. Ebenso wird der pID auf Kommunikationsebene ein (nicht notwendigerweise gleicher) Identifikator zugeordnet, unter dem sie Nachrichten senden kann und/oder mit Nachrichten adressierbar ist; er wird im Folgenden als Kommunikationspseudonym bezeichnet.
Sicherheit in Netzwelten Anforderungen an informationstechnische Systeme An Aktionen haben der Akteur, seine Kontakte sowie andere Teilnehmer der Netzwelt Erwartungen, darunter Sicherheitsanforderungen, die das Interaktionssystem gewährleisten soll. Für informationstechnische Systeme wird meist eine Dreiteilung der Sicherheitsanforderungen vorgenommen: ņ Vertraulichkeit: Unbefugter Informationsgewinn im System soll verhindert werden. ņ Integrität: Unbefugte Modifikation von Information im System soll verhindert werden. ņ Verfügbarkeit: Unbefugte Beeinträchtigung der Funktionalität des Systems soll verhindert werden.7
6
7
Pfitzmann, A. / M. Köhntopp (2001): Anonymity, Unobservability, and Pseudonymity – A Proposal for Terminology. Version 0.8, in: Federrath, H. (Hrsg.): Designing Privacy Enhancing Technologies, New York, S. 1-9; Pfitzmann, A. / M. Hansen (2008): Anonymity, Unlinkability, Undetectability, Unobservability, Pseudonymity, and Identity Management – A Consolidated Proposal for Terminology. Version 0.30, in: Balzer, R. / S. Köpsell / H. Lazarek (Hrsg.): Fachterminologie Datenschutz und Datensicherheit Deutsch – Russisch – Englisch, Wien, S. 111-144; Version 0.31 unter: http://dud.inf.tu-dresden.de/literatur/AnonTerminologyv0.31.pdf. Voydock V. L. / S. T. Kent (1983): Security Mechanisms in High-Level Network Protocols, in: ACM Computing Survey, 15, 2, S. 135-171; Zentralstelle für Sicherheit in der Informationstechnik (Hrsg.): ITSicherheitskriterien. Krite-
Identitätsmanagement in Netzwelten
249
Diese Dreiteilung muss für konkrete Systeme in Form konkreter Sicherheitsanforderungen weiter präzisiert werden. Für ein Interaktionssystem heißt das, dass für die Sicherheitsanforderungen sowohl die Interaktionsals auch die Kommunikationsebene betrachtet werden müssen, da jede explizite Aktion im Interaktionssystem im darunter liegenden Kommunikationssystem abgebildet wird. Anforderungen an Kommunikationssysteme In einem Kommunikationssystem wird Kommunikation zwischen Kommunikationspartnern in Form von Nachrichten von Absendern zu Adressaten vermittelt. Die im System auftretenden Informationen, auf die sich die Sicherheitsanforderungen Vertraulichkeit und Integrität beziehen, setzen sich aus Inhalt und Kommunikationsumständen der Nachricht zusammen. Unter Kommunikationsumstände fallen der Absender und die Adressaten. Zusätzlich können die Kommunikationspartner weitere Umstände, die im Kommunikationssystem als Informationen auftreten, als schützenswert ansehen; dazu können etwa die Zeit zählen, zu der sie kommunizieren, oder der Ort, an dem sie sich befinden. Im Folgenden liegt der Fokus zunächst nur auf dem Identifikator der pID des Absenders bzw. des Adressaten als schützenswerte Umstände. Für Kommunikationssysteme lassen sich die drei obigen Sicherheitsanforderungen weiter präzisieren: 1. Die Vertraulichkeitsanforderungen umfassen: (a) Anonymität des Absenders bzw. der Adressaten von Nachrichten, d. h. sie sind innerhalb einer Menge möglicher Absender bzw. Adressaten nicht identifizierbar. (b) Unbeobachtbarkeit, d. h. jemand kann Absender oder Adressat der Nachrichten sein, ohne dass andere es bemerken. (c) Vertraulichkeit, d. h. niemand außer dem Absender und den Adressaten von Nachrichten erfährt etwas über deren Inhalt. (d) Verdecktheit, d. h. niemand außer dem Absender und den Adressaten von Nachrichten bemerkt deren Existenz.
rien für die Bewertung der Sicherheit von Systemen der Informationstechnik (IT), 1. Fassung v. 11. Januar 1989, Köln, Bundesanzeiger.
250
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
2. Die Integritätsanforderungen umfassen: (a) Integrität des Inhalts und der Kommunikationsumstände, d. h. niemand kann Nachrichten nach dem Absenden unbemerkt modifizieren. (b) Zurechenbarkeit, d. h. ein Absender bzw. Adressat kann nicht abstreiten, Nachricht mit diesem Inhalt und den übermittelten Kommunikationsumständen gesendet bzw. erhalten zu haben. (c) Konsistenz des Inhalts und des Absenders, d. h. alle Adressaten erhalten die gleichen Nachrichten mit dem gleichen Inhalt und den gleichen Kommunikationsumständen oder erkennen, dass das nicht der Fall ist. 3. Die Verfügbarkeitsanforderungen umfassen: (a) Verfügbarkeit des Systems, das die Nachrichten vermittelt, d. h. Nutzer können Nachrichten senden oder empfangen, wenn sie es möchten. (b) Erreichbarkeit innerhalb des Systems, d. h. Nutzer können über Nachrichten erreicht werden oder auch nicht, entsprechend ihren Wünschen. (c) Fairness, d. h. alle Absender bzw. Adressaten haben die gleichen Möglichkeiten zum Senden bzw. zum Empfang von Nachrichten. (d) Verbindlichkeit der Nutzer, d. h. Nutzer können dafür verantwortlich gemacht werden, eingegangenen Verpflichtungen nachzukommen.8 Die Anforderungen 1. (a)-(c), 2. (a)-(b) sowie 3. (a) wurden bereits zusammengefasst9, aufgegriffen und um die Anforderungen 1. (d), 3. (b) und 3. (d) ergänzt10. Alle Sicherheitsanforderungen weisen eine Richtung auf, 8
9
10
Verantwortlichkeit heißt lediglich, dass derjenige bei Nichteinhaltung rechtliche Konsequenzen tragen muss. Interakteure würden sich häufig wünschen, dass durch Verbindlichkeit derjenige sogar gezwungen werden könnte, den Verpflichtungen nachzukommen. Das ist aber im Zuge des Freiheitsrechts jedes einzelnen nicht durchsetzbar. Vielmehr ist ein rechtlicher Kompromiss gewünscht. Common Criteria of Information Technology Security Evaluation – Part 2: Security Functional Requirements. Verion 15408-2 FDIS, ISO/IEC SC 27 N2162, 15th November 1998. Wolf, G. / A. Pfitzmann (2000): Properties of Protection Goals and Their Integration Into a User Interface, in: Computer Networks, 32, 6, S. 685-699.
Identitätsmanagement in Netzwelten
251
und zwar auf die Nutzer hin, gegenüber denen sie gelten sollen. Für alle Anforderungen außer 2. (c) und 3. (c) wird ebenfalls bei Wolf und Pfitzmann11 näher ausgeführt, gegenüber wem sie gelten sollen. Insbesondere müssen sich beide Kommunikationspartner über den Inhalt einer die Nachricht betreffende Anforderungen (Vertraulichkeit, Verdecktheit, Integrität und Verfügbarkeit) einig sein, damit sie umgesetzt werden können, weshalb diese Anforderungen als gleichgerichtet bezeichnet werden. Wolf und Pfitzmann berücksichtigten dabei bereits in den Formulierungen der Sicherheitsanforderungen, dass eine Nachricht von einem Absender nicht zwangsläufig nur an einen Adressaten gesendet wird, sondern mehrere haben kann. Die sich aus einem solchen Multicast ergebenden Sicherheitsanforderungen zwischen mehreren Adressaten wurden jedoch nicht formuliert. Daher wird hier Konsistenz als Sicherheitsanforderung 2. (c) unter Integrität ergänzt. Im Falle nur eines Adressaten ist diese Anforderung trivialer weise immer erfüllt. Da davon auszugehen ist, dass ein Kommunikationssystem von mehreren Absendern genutzt wird – sonst wäre Anonymität der Absender unmöglich –, wird Fairness des Sendens und Empfangs von Nachrichten der Absender und Adressaten untereinander unter Verfügbarkeit als weitere Sicherheitsanforderung 3. (c) ergänzt. Das letzte Ziel 3. (d) – Verbindlichkeit – befindet sich bei Kommunikationssystemen bereits außerhalb des technischen Systems. Es muss – wie der Begriff „legal enforceability“ bereits sagt – juristisch behandelt werden. Verbindlichkeit hängt insbesondere davon ab, inwieweit die verwendeten technischen Maßnahmen zur Umsetzung der Sicherheitsanforderungen im geltenden Recht als ausreichend und bindend angesehen werden. Anforderungen an Interaktionssysteme Das Interaktionssystem muss Akteure und ihre Aktionen, wie ausgeführt, gleichzeitig auf zwei Ebenen schützen. Interaktionsebene: Ein Akteur führt eine Aktion aus bzw. ein Kontakt wird durch eine Aktion kontaktiert. Kommunikationsebene: Ein Akteur sendet als Absender Nachrichten, die eine Aktion vermittelt, an Adressaten, die durch sie adressiert werden. Auf beiden Ebenen treten Inhalte und Umstände der Kommunikation bzw. Interaktion auf. Da auf Kommunikationsebene die Aktionen als Nachrichten vermittelt werden, entspricht der Inhalt der Nachrichten dem der Aktion ergänzt um einen Parameter, um welche Aktion es sich handelt. Bei den Aktions- und Kommunikationsumständen werden wie bei den Kommuni11
Wolf/Pfitzmann (Fn. 10).
252
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
kationssystemen zunächst nur der zu einer Aktion bzw. Nachricht gehörende Akteur bzw. Absender und die zugehörigen Kontakte bzw. Adressaten betrachtet. Ihnen werden auf Kommunikationsebene Kommunikationspseudonyme und auf Interaktionsebene Interaktionspseudonyme zugeordnet, mit denen sie adressierbar bzw. kontaktierbar sind. Anforderungen auf Kommunikationsebene Das Interaktionssystem kann eine zentrale oder eine dezentrale Architektur haben oder Aspekte beider Architekturen beinhalten. Dementsprechend werden Kommunikationssysteme unterschiedlich genutzt. Bei einer zentralen Architektur stellt das Interaktionssystem neben den Clients einen Server zur Verfügung, der die Aktionen der Akteure als Nachrichten entgegen nimmt. Sie können dort durch andere abgefragt werden (z. B. bei Webforen), oder der Server verteilt diese Nachrichten selbst (z. B. bei Mailinglisten). Bei webbasierten Interaktionssystemen wird jedem Akteur meist ein Account zur Verfügung gestellt, unter dem er Aktionen ausführen kann. Auf ihn kann er in der Regel mit Login und Passwort zugreifen. Bei einer dezentralen Architektur stellt das Interaktionssystem jedem Akteur einen Client zur Verfügung, mit dem der Akteur seine Aktionen ausführt. Die Nachrichten auf Kommunikationsebene kann der Client dann an andere Akteure verteilen (z. B. bei P2P-File-Sharing-Systemen). Häufig werden auch Mischarchitekturen verwendet. Insbesondere werden in dezentralen Systemen auch Clients zu Servern, die Nachrichten zwischen Kommunikationspartnern weiterleiten, deren Clients nicht direkt miteinander verbunden sind. Unabhängig von der Architektur deckt sich der Akteur bei expliziten Aktionen mit dem Absender des zugrunde liegenden Kommunikationssystems, das die die Aktion vermittelnden Nachrichten auf Kommunikationsebene des Interaktionssystems sendet. Bei der zentralen Architektur folgt allerdings eine weitere Verwendung des Kommunikationssystems, wenn die vom Absender erhaltene Nachricht an die Nutzer weiter verteilt wird. Dadurch wird der Server ebenfalls als Zwischenstation zum Absender, nicht jedoch zum Akteur. Muss die Nachricht durch einen Nutzer explizit abgefragt werden, wird auch dieser Nutzer zum Absender der entsprechenden Abfrage, nicht jedoch zum Akteur im Sinne des Interaktionssystems. Für Kommunikationssysteme wurden Sicherheitsanforderungen bereits vorgestellt.
Identitätsmanagement in Netzwelten
253
Anforderungen auf Interaktionsebene In Kommunikationssystemen werden nur Sicherheitsanforderungen bezüglich einzelner Nachrichten betrachtet. In Interaktionssystemen treten jedoch nicht nur uni- oder bidirektionale Kommunikationsprozesse auf, sondern auch Verkettungen von Aktionen in Form von Interaktionen oder in Form von unter dem gleichen Interaktionspseudonym begangenen Aktionen. Bei den Aktionen innerhalb von Interaktionen finden sich folgende Unterschiede zwischen Interaktions- und Kommunikationsebene: Interaktionsebene: Bei der Initiierung von Interaktion werden mögliche Kontakte durch bei der Aktion angegebenen Parameter bestimmt. Sie können sich aus Inhalt und/oder Umständen der zugehörigen Nachricht zusammensetzen (z. B. gibt der Parameter „Interakteur“ einen Umstand an; der Parameter „Thema“ hingegen bezieht sich explizit auf den Inhalt der Aktion und implizit auf mögliche Kontakte und damit einen Umstand der Nachricht). Ob ein Kontakt zustande kommt, hängt von den kontaktierten potenziellen Interakteuren ab; sie entscheiden selbst, ob sie den Kontakt wahrnehmen und mit einer Reaktion in die Interaktion eintreten wollen. Im Gegensatz zum Adressaten einer Nachricht ist ein Kontakt also nicht notwendigerweise fremdbestimmt. Erst durch die Reaktion wird ein Kontakt selbst aktiv als Akteur. Seine Reaktion hat als Kontakt mindestens die Akteure, die bisher an der Interaktion beteiligt waren sowie ggf. weitere Nutzer, die sich von der Interaktion als Kontakt angesprochen fühlen. Die explizite Beendigung einer Interaktion hat auf Interaktionsebene als Kontakt die bisherigen Interakteure in dieser Interaktion. Damit ergibt sich eine neue Verfügbarkeitsanforderung der Nutzer an das Interaktionssystem: Kontaktierbarkeit der gewünschten Kontakte, d. h. ein Nutzer kann von anderen Nutzern kontaktiert werden, wenn er es wünscht. Kommunikationsebene: Adressiert werden je nach Architektur entweder der Server, der die Nachricht an die Clients verteilt oder sie zur Abfrage zur Verfügung stellt, oder direkt die Clients der anderen Nutzer. Kontaktierbarkeit auf Interaktionsebene erfordert, dass auf Kommunikationsebene Erreichbarkeit gewährleistet ist. Erreichbarkeit ist damit notwendige, nicht jedoch hinreichende Bedingung für Kontaktierbarkeit, da Kontaktierbarkeit eine Aktion des Kontakts erfordert, Erreichbarkeit jedoch nicht.
254
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
Anforderungen an die Verknüpfung digitaler und physischer Identität Mit der Anmeldung bei einem Interaktionssystem darf ein Nutzer unter dem vereinbarten Interaktionspseudonym Aktionen auszuführen; mit der Abmeldung wird ihm dieses Recht entzogen. Wieder erkannt wird er durch das Interaktionspseudonym und geeignete Authentisierung bzw. Identifizierungsmaßnahmen, die eine Autorisierung erlauben. Die unter dem Interaktionspseudonym begangenen Aktionen sind ihm zurechenbar und die physische Identität des Inhabers aufdeckbar, soweit erforderlich. Dann kann er für seine Aktionen verantwortlich gemacht werden. Dadurch wird die eindeutige Verkettbarkeit von Aktionen, an denen ein Nutzer als Akteur oder Kontakt beteiligt ist, mindestens innerhalb des Interaktionssystems hergestellt. Es ergeben sich zusätzliche Sicherheitsanforderungen: ņ Pseudonymität einer Aktion, d. h. ein Akteur kann Aktionen unter diesem Pseudonym ausführen, ohne dass er dafür seinen Namen in der physischen Welt, seine physische Identität, preisgeben muss. ņ Autorisierbarkeit einer Aktion, d. h. Pseudonyme sind innerhalb des Interaktionssystems eindeutig als Identifikator verwendbar und es ist möglich, einen Akteur basierend darauf zu authentisieren und ihm zu erlauben, diese Aktion durchzuführen. ņ Eindeutige Verkettbarkeit von Elementen (Aktionen, Pseudonymen), d. h. diese Elemente stehen mit hoher Wahrscheinlichkeit zueinander in Beziehung. ņ Unverkettbarkeit von Elementen (Aktionen, Pseudonymen), d. h. ein potenzieller Angreifer kann nicht hinreichend unterscheiden, ob diese Elemente zueinander in Beziehung stehen oder nicht. Nach Pfitzmann und Köhntopp12 sind Verkettbarkeit und Unverkettbarkeit genau gegensätzliche Sicherheitsanforderungen. Verkettbarkeit bedeutet, dass ein potenzieller Angreifer hinreichend unterscheiden kann, ob diese Elemente zueinander in Beziehung stehen oder nicht. Bei obiger Definition von eindeutiger Verkettbarkeit wird jedoch nur das „In-Beziehung-Stehen“ betrachtet. Unverkettbarkeit von Aktionen kann oft nur eine Anforderung gegenüber nicht beim Interaktionssystem angemeldeten Nutzern sein. Die unter einem Interaktionspseudonym ausgeführten Aktionen sind gegenüber dem 12
Pfitzmann/Köhntopp (Fn. 4).
Identitätsmanagement in Netzwelten
255
Dienstanbieter und gegenüber beim Dienst angemeldeten Nutzern eindeutig verkettbar. Ist Unverkettbarkeit auch gegenüber ihnen erwünscht, muss sich jeder Akteur unter verschiedenen unverkettbaren Interaktionspseudonymen beim Interaktionssystem anmelden können, oder er muss in die Lage versetzt werden, eines seiner Pseudonyme in ein anderes umzuwandeln, ohne dass die anderen Akteure sie verketten können. Anforderungen an die Akteure In Kommunikationssystemen ist es üblich, dass sowohl Kommunikationspartner als auch Unbeteiligte als potenzielle Angreifer gesehen werden. Nach Wolf und Pfitzmann13 müssen sich beide Kommunikationspartner über die gleichgerichteten Sicherheitsanforderungen (also Vertraulichkeit, Verdecktheit, Integrität und Verfügbarkeit) einig sein, damit sie umgesetzt werden können. Nachrichten zwischen sich vertrauenden Kommunikationspartnern lassen sich leichter in Kommunikationssystemen vermitteln als in Interaktionssystemen, wo Interaktionen zwischen sich noch unbekannten Akteuren entstehen können. Akteure in Internet-Communities haben bzgl. der gleichgerichteten Sicherheitsanforderungen neben Anforderungen an das Interaktionssystem auch Erwartungen an das Verhalten der anderen Interakteure. Neben der Tatsache, dass das Interaktionssystem alles tun soll, um diese Anforderungen technisch sicherzustellen, müssen auch die Akteure versuchen, die Anforderungen semantisch zu garantieren. In der Informationstheorie versteht man unter der Semantik einer Information die Bedeutung dieser Information. In diesem Sinne bedeutet semantische Erfüllung der gleichgerichteten Sicherheitsanforderungen:14 ņ Semantische Vertraulichkeit/Verdecktheit einer Aktion seitens der Akteure erfordert Diskretion der Akteure bzgl. der Aktion; d. h. niemand außerhalb der berechtigten Akteure erfährt von diesen etwas über den Inhalt bzw. die Existenz der Aktion. ņ Semantische Integrität einer Aktion erfordert Zulässigkeit der durch einen Akteur durchgeführten Aktion. Ein Akteur handelt subjektiv
13 14
Vgl. Wolf/Pitzmann (Fn. 10). Borcea-Pfitzmann, K. et al. (2007): Managing One’s Identities in Organisational and Social Settings, in: Datenschutz und Datensicherheit, 31, 9, S. 671675.
256
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
zulässig für einen Betrachter (Akteur, Kontakt oder Außenstehender), wenn er dessen Erwartungen an die Aktion entspricht. ņ Semantische Verfügbarkeit einer Aktion seitens der Akteure erfordert Aktionsbereitschaft eines Akteurs zur Durchführung der Aktion, d. h. die Aktion wird durchgeführt, wenn andere Akteure es wünschen. Diskretion und Aktionsbereitschaft sind meist objektiv beurteilbar; für die Zulässigkeit von Aktionen gilt das meist nicht: Die Einteilung von Aktionen in zulässige und nicht zulässige ist neben der Subjektivität des Betrachters von anderen Faktoren abhängig, z. B. dem Zeitpunkt der Beurteilung. Bei fehlendem Hintergrundwissen kann diese Einteilung sogar unmöglich sein.
Identitätsmanagement in Netzwelten Identitätsmanagement kann Nutzern helfen, die in Interaktionen mit anderen verwendeten Teilidentitäten übersichtlich zu verwalten und auf Interaktionsebene im Sinne mehrseitiger Sicherheit einen kontrollierbaren Ausgleich zwischen den eigenen Sicherheitsanforderungen und denen der anderen Interakteure zu erreichen. Aufgrund der Unsicherheit, ob die Anforderung der Diskretion durch andere Nutzer erfüllt wird, müssen die Daten, die Einzelne an andere übertragen, minimiert und kontrolliert werden. Zugleich wünschen Interakteure, dass die Integrität übertragener Daten gesichert wird. IDM-Systeme müssen deshalb Bausteine anbieten, die die Erfüllung von sowohl Integritäts- als auch Vertraulichkeitsanforderungen unterstützen, um mehrseitige Sicherheit zu erreichen. Das EU Projekt FIDIS unterscheidet drei Kategorien von IDM-Systemen:15 ņ zum Account-Management (insbesondere Implementierung von AAA-Infrastrukturen); ņ zum Profiling von Nutzerdaten durch Organisationen, z. B. Data Warehouses, zwecks Unterstützung personalisierter Dienste oder der Analyse von Nutzerverhalten; ņ zum nutzerkontrollierten und kontextabhängigen Rollen- und Pseudonymmanagement. 15
Bauer, M. / M. Meints (Hrsg.) (2005): Structured Overview on Prototypes and Concepts of Identity Management Systems, FIDIS Del. 3.1., http://www.fidis. net/fileadmin/fidis/deliverables/fidis-wp-3del3.1.overviewonIMS.pdf.
Identitätsmanagement in Netzwelten
257
IDM-Systeme der ersten beiden Typen werden meist zentral implementiert. Ihr Hauptziel ist die vertrauenswürdige Identifikation von Personen oder vertrauenswürdige Zuschreibung von Eigenschaften, um Zurechenbarkeit zu erreichen. Pseudonymität wird hingegen meist vernachlässigt, da alle mit partiellen Identitäten assoziierten Daten serverseitig gespeichert werden. Die einfachste Umsetzung ist ein stand-alone-System mit einer Datenbank zur Speicherung der partiellen Identitäten, das von diesem Server und den dem Nutzer angebotenen Anwendungen genutzt wird. Im Folgenden wird vor allem auf die neuen Trends zum nutzerkontrollierten Identitätsmanagement eingegangen. Nutzerkontrolliertes datenschutzfreundliches Identitätsmanagement Grundsätzlich soll ein nutzerkontrolliertes Identitätsmanagement einem Nutzer die Kontrolle über die Herausgabe seiner personenbezogenen Daten ermöglichen. Es sollen sowohl kontrollierte Pseudonymität des Nutzers als auch Verlässlichkeit der übermittelten Daten erreicht werden. Dieser Abschnitt gibt einen Überblick über die wesentlichen Prinzipien und Technologien solcher IDM-Systeme.16 Personenbezogene Daten werden in IDM-Systemen grundsätzlich unter Kontrolle des Nutzers gespeichert. Der Nutzer kann entscheiden, ob, an wen und wofür er Daten herausgeben möchte. Um das zu erreichen ist ein Netz erforderlich, das anonyme Kommunikation ermöglicht. Zusätzlich müssen Pseudonyme verwendet werden, die eine Kontrolle der Verkettbarkeit der herausgegebenen Daten ermöglichen. Digitale Pseudonyme können als öffentliche Schlüssel eines digitalen Signaturverfahrens realisiert werden. Der Pseudonyminhaber besitzt dabei den geheimen Schlüssel. Durch eine mit ihm erzeugte digitale Signatur kann die Zurechenbarkeit einer Nachricht zu einem digitalen Pseudonym nachgewiesen werden. Beispielsweise ist ein öffentlicher PGP-Schlüssel ein digitales Pseudonym. Um Unverkettbarkeit zwischen mehreren Pseudonymen eines Nutzers beibehalten zu können, ist es notwendig, zertifizierte Attribute zwischen Pseudonymen transferieren zu können. Ein Nutzer sollte ein Attribut unter einem seiner Pseudonyme von einer dritten Partei zertifiziert bekommen 16
Zu Details s. Clauß, S. / M. Köhntopp (2001): Identity Management and Its Support of Multilateral Security, in: Computer Networks, 37, 2, S. 205-219; Clauß, S. et al. (2002): Privacy-Enhancing Identity Management, in: The IPTS Report, 67, S. 8-16.
258
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
können, es dann aber auch unter jedem anderen seiner Pseudonyme vorzeigen können, ohne dabei einen Zusammenhang mit dem ersten Pseudonym herstellen zu müssen. Um das zu erreichen, müssen die Attribute in Form von pseudonymen, umrechenbaren Credentials vorliegen. Das bedeutet, dass das Attribut durch eine dritte Instanz zertifiziert ist, das Zertifikat aber mit Hilfe kryptographischer Methoden unter verschiedenen Pseudonymen (für Empfänger und Dritte unverkettbar) vorgezeigt werden kann. Ein Credentialsystem mit solchen Eigenschaften wurde erstmals von David Chaum17 veröffentlicht. Weitere verbesserte Systeme wurden u. a. von Brands und Camenisch/Lysyanskaya entwickelt.18 Um Attribute in Form von pseudonymen Credentials verlässlich benutzen zu können, ist zudem eine Public-Key-Infrastruktur mit Schlüsselservern nötigt, da die Credential-ausstellenden Instanzen über eine Zertifizierungsinfrastruktur beglaubigt und die zum Verifizieren der Credentials benötigten Schlüssel zertifiziert und veröffentlicht werden müssen. Ein nutzerkontrolliertes Identitätsmanagement kann durch zusätzliche Infrastruktur unterstützt werden. Treuhänder für Werteaustausch oder Treuhänder zur Verwaltung von Identitätsdaten können Datensparsamkeit und Rechtssicherheit unterstützen. Auch kann es dritte Parteien geben, die sich auf datenschutzfreundliche Bezahlung oder Lieferung von Gütern spezialisieren. Privacy Emergency Response Teams (PERT) können analog zu den bereits bestehenden Computer Emergency Response Teams (CERT) Informationen über Sicherheits- und Datenschutzrisiken an IDMSysteme der Nutzer weitergeben, um dort entsprechende Entscheidungen über die Herausgabe personenbezogener Daten zu beeinflussen. Das IDMSystem soll dazu beitragen, dass jeder Nutzer die Herausgabe personenbezogener Daten an Kommunikationspartner in elektronischen Kommunikationsvorgängen minimieren kann. Es muss also sichergestellt werden, dass nur die dafür vorgesehenen Daten herausgegeben werden. Hierbei ist eine Messung der Anonymität (oder des Gegenteils: der Identifizierbarkeit) für 17
18
Chaum, D. (1986): Showing Credentials Without Identification. Signatures Transferred Between Unconditionally Unlinkable Pseudonyms, in: Advances in Cryptology – EUROCRYPT ’85, New York. Brands, S. A. (1999): Rethinking Public Key Infrastructures and Digital Certificates – Building in Privacy, Cambridge, London, 2. Aufl.; Camenisch, J. / A. Lysyanskaya (2001): An Efficient System for Nontransferable Anonymous Credentials With Optional Anonymity Revocation, in: EUROCRYPT ’01: Proceedings of the International Conference on the Theory and Application of Cryptographic Techniques, London, S. 93-118.
Identitätsmanagement in Netzwelten
259
den Nutzer wichtig. Der Nutzer kann dadurch Informationen erhalten, inwieweit ein Kommunikationspartner ihn identifizieren kann, oder allgemeiner: inwieweit es möglich ist, eine digitale Identität des Nutzers mit seiner physischen Identität zu verketten. Nutzerkontrolliertes Identitätsmanagement für beliebige Interaktionssysteme Ein IDM-System der dritten Kategorie existiert für allgemeine Interaktionssysteme bisher nicht. Der Nutzer-Dienst-orientierte Ansatz eignet sich höchstens für das Identitätsmanagement gegenüber Dienstanbietern, nicht jedoch gegenüber einzelnen Interakteuren. Diese Thematik wird im Projekt PrimeLife19 adressiert. Ein solches IDM-System steht vor weiteren Sicherheitsanforderungen und braucht ergänzend zu den genannten weitere Bausteine.20 Wahl und Entwicklung einer Interaktionsumgebung: Die Minimierung der über Pseudonyme verfügbaren Informationen wirft im Zusammenhang mit Communities das funktionale Problem auf, dass es schwieriger wird, interessierte neue Interakteure zu finden. Hier können Reputations- oder Empfehlungssysteme helfen. Awareness: Spielen bei Kontaktierbarkeit und Aktionsbereitschaft Zeitaspekte eine Rolle, so sind Awareness-Informationen in Internetcommunities von großer Bedeutung. Beispiele sind Gruppen-Awareness (Informationen über die Gruppe, in der ein Nutzer interagiert), Kontext-Awareness (Informationen über die Umgebung eines Nutzers wie Zeit oder Ort) und informelle Awareness (weitere implizite Informationen). AwarenessInformationen sind zum einen Daten, die sicherheitsrelevante Entscheidungen beeinflussen (z. B. Aushandlungen im Sinne mehrseitiger Sicherheit). Zum anderen enthalten sie selbst häufig auch Daten anderer Nutzer, die diese als schützenswert ansehen könnten. Unterscheidung von Kontexten: Communities beschäftigen sich meist nicht nur mit einem Thema oder Kontext, sondern kombinieren mehrere. Damit müssen Nutzer ihre Awareness bezüglich Trennung dieser Kontexte 19
20
Privacy and Identity Management in Europe for Life (www.primelife.eu), gefördert von der Europäischen Union im 7. Rahmenprogramm. Für einen Überblick siehe Borcea-Pfitzmann et al. (2006): What UserControlled Identity Management Should Learn from Communities, in: Information Security Technical Report, 11, 3, S. 119-128; vgl. Boreca-Pfitzmann et al. (Fn. 14).
260
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
unter dem Gesichtspunkt der Kontrolle ihrer Anonymität erhöhen, indem sie unterschiedliche Pseudonyme innerhalb der gleichen Community verwenden, um dadurch entsprechende Kontexte zu separieren. Das ist ein entscheidender Unterschied zum klassischen Identitätsmanagement gegenüber Diensten, wo nur Dienst und Kontext bei der Pseudonymwahl zu berücksichtigen sind. Hier interagiert ein Akteur jedoch innerhalb der gleichen Community, die zum Dienst korrespondieren würde, oft mit unterschiedlichen Interakteuren, die wiederum anders als der Dienst, der unter einem festen Pseudonym auftritt, auch verschiedene Pseudonyme verwenden können. Bei Borcea et al.21 wird Nutzerunterstützung für die Separierung von Kontexten in einer E-Learning Umgebung vorgestellt. Zugang: Basierend auf dem Eintritt in eine Internet-Community werden meist Zugangsdaten ausgegeben, mit denen sich die Nutzer bei Aktionen authentisieren und basierend darauf Autorisationen zu den angestrebten Aktionen erhalten. Übliche technische Realisierungen sind „Access Control Lists“ oder rollenbasierte Zugriffskontrolle. Da Identitätsmanagement jedoch einen dynamischen Wechsel von Pseudonymen abhängig vom Kontext erlaubt, können diese Realisierungen aufgrund ihrer Notwendigkeit zur festen Rollenvergabe hier nicht angewendet werden. Um Unverkettbarkeit der Pseudonyme des gleichen Nutzers zu gewährleisten, kann ein von Capabilities inspirierter, aber auf pseudonymen Credentials basierender Ansatz verwendet werden, wie er von Franz et al.22 für eine E-Learning Umgebung vorgeschlagen wird. Aushandlung und Durchsetzung von Policies: Im Identitätsmanagement für das Nutzer-Dienst-Szenario gelten meist feste Policies bezüglich Sicherheitsanforderungen seitens des Dienstbetreibers (z. B. welche Daten des Nutzers erforderlich sind oder welches Authentisierungs- oder Verschlüsselungssystem für eine Aktion verwendet wird). Nach der EU Direktive zum Datenschutzrecht23 ist der Dienstbetreiber verpflichtet, eine Privacy Policy herauszugeben, wenn personenbezogene Daten erhoben werden. Im Gegensatz dazu gilt diese Anforderung für Privatpersonen nicht. Meist divergieren die Anforderungen von eher gleichberechtigten Interakteuren wesentlich mehr – können sich aber besser an die Aktionen des Interakteurs anpassen. Dadurch kann die Aushandlung von Kompromissen 21
22
23
Borcera, K. et al. (2005): Intra-Application Partitioning of Personal Data, in: Proceedings of Workshop on Privacy-Enhanced Personalization, Edinburgh. Franz, E. et al. (2006): Access Control in a Privacy-aware Elearning Environment, in: Proceedings of AReS, Wien. Directive 95/46 EC. Official Journal L281, 23/11/1995, S. 31-50.
Identitätsmanagement in Netzwelten
261
wesentlich komplexer werden. Hier stellt sich eine neue Forschungsfrage: Welche Aushandlungsschritte können dabei mit Policies erfasst werden? Workflows: Viele Menschen wünschen sich vorgegebene Workflows für ihre Aktionen. Während bei der Interaktion mit Diensten die Workflows durch diese meist fest vorgegeben sind, müssen sie zwischen gleichberechtigten Interakteuren oft ausgehandelt werden. Wenn ein Interakteur dem anderen einen Workflow vorschlägt, gefährdet er unter Umständen schon seine Anonymität, da er unter verschiedenen Pseudonymen wiedererkennbar werden könnte. Deshalb sollte ein IDM-System für Communities seinen Nutzern bereits feste Workflows anbieten, die ihnen Anonymität innerhalb all derer erlauben, die die gleichen Workflows verwenden. Zusätzlich ist es zum Zwecke der Funktionalitätssteigerung sinnvoll, dass Nutzer selbst Workflows erstellen, existierende kombinieren und ihre selbst erstellten Workflows anderen Nutzern zur Verwendung anbieten können. Diese Wiederverwendung erhöht wiederum ihre Anonymität. Gleichzeitig muss dabei beachtet werden, dass der Workflow keine Anonymität gefährdenden Daten enthält. Trust Management: Vertrauen ist bei der Interaktion Unbekannter von entscheidender Bedeutung. Reputation von Nutzern erlaubt anderen Nutzern, geeignete Interakteure auszuwählen, die sich mit hoher Wahrscheinlichkeit an einer Interaktion beteiligen und sich dabei korrekt und diskret verhalten. Dabei sind zwei Arten von Reputation zu unterscheiden: Implizite Reputation ist jeweils an ein einzelnes Pseudonym gebunden, die es mit der Zeit durch sein Verhalten in Interaktionen erworben hat. Das kann ein Nutzer sein, der vielfach innerhalb der Community gute Ratschläge gibt. Wenn ein Nutzer aber gleichzeitig eine akzeptable Anonymität seines Pseudonyms wahren möchte, muss er zwischen der implizit aufgebauten Reputation und der Unverkettbarkeit seiner Handlungen abwägen. Das mag ein Grund sein, explizite Reputation eines Pseudonyms zu etablieren, die mit Hilfe eines Reputationssystems auf Basis von Erfahrungen anderer Nutzer mit diesem Pseudonym berechnet wird. Explizite Reputation erlaubt einem Nutzer, anonym innerhalb aller Nutzer mit der gleichen Reputation zu sein, so lange seine Interaktionsgeschichte nicht öffentlich ist. Wenn Pseudonyme jedoch in vielen Interaktionen und über eine lange Zeit genutzt werden, wird die Anzahl der Pseudonyme mit der gleichen Reputation recht klein werden. Datenschutzfreundliche Reputationssysteme24 versuchen diesem Problem zu begegnen. 24
Vgl. Steinbrecher, S. (2006): Design Options for Privacy-Respecting Reputation Systems Within Centralised Internet Communities, in: Proceedings of IFIP Sec 2006, Dynamic Environments.
262
Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
Die Praxis wird zeigen, für welche Arten von Interaktionssystemen IDM-Systeme noch weitergehender ausgebaut werden müssen.
Ausblick Nur nutzerkontrolliertes Identitätsmanagement ist in der Lage, die Anforderungen verschiedener Akteure bei Interaktionen im Internet in gegenseitigem Einvernehmen zu erfüllen. Diese Ansicht hat sich inzwischen auch in der Wirtschaft durchgesetzt wie etwa der Vorstoß von Microsoft mit MS Cardspace zeigt25. Es bleibt allerdings abzuwarten, inwiefern Betreiber von Diensten auch willens sind, solche IDM-Systeme zu integrieren, und inwiefern Nutzer sie auch verstehen und benutzen lernen. Nicht zuletzt stellt sich die Frage, wie Nutzer auch unabhängig von Diensten bei der Interaktion miteinander im Internet lernen, sorgsam mit ihren Identitätsdaten umzugehen.
Über die Autoren Sandra Steinbrecher Dr. Sandra Steinbrecher arbeitete als wissenschaftliche Mitarbeiterin an der Universität des Saarlandes – wo sie 2000 ihr Diplom abgeschlossen hat – sowie der FU Berlin und der TU Dresden – wo sie 2008 promovierte – in den Bereichen Datensicherheit, Datenschutz und Kryptographie. Aktuell ist sie an der TU Dresden für die Projekte PrimeLife und FIDIS verantwortlich und publiziert vor allem im Bereich Identitätsmanagement und Reputationssysteme. Andreas Pfitzmann Dr. Andreas Pfitzmann ist seit 1993 Professor an der Fakultät Informatik der TU Dresden. Er forscht über Mehrseitige Sicherheit durch verteilte ITSysteme und lehrt über Sicherheit in verteilten IT-Systemen. Über viele Legislaturperioden hinweg berät er verschiedene Institutionen der EU und Bundesministerien in den Bereichen Datenschutz und IT-Sicherheit.
25
http://msdn.microsoft.com/en-us/library/ms733090.aspx.
Identitätsmanagement in Netzwelten
263
Sebastian Clauß Dr. Sebastian Clauß ist seit 2000 wissenschaftlicher Mitarbeiter am Lehrstuhl für Datenschutz und Datensicherheit der TU Dresden, wo er 2007 promovierte. Er forscht zu datenschutzfreundlichen Technologien mit besonderem Fokus auf deren Einsatz in Identitätsmanagementsystemen sowie zur Messung von Privacy-Eigenschaften. Er arbeitete u. a. im Rahmen der Projekte DRIM, PRIME und FIDIS.
Teil III: Öffentlichkeit und Kultur
Teil III: Öffentlichkeit und Kultur
267
Hinsichtlich einer Kultur der Öffentlichkeit auf internationaler, europäischer und nationaler Ebene gilt es, die Eigengesetzlichkeiten des Neuen und dessen Potential zu beachten und zu integrieren. Dazu gehört etwa der Wert, den soziale Netzwerke für die Zivilgesellschaft und insbesondere die politische Kommunikation beinhalten. Wolfgang Schulz, Direktor am Hans-Bredow Institut in Hamburg, setzt sich mit der Richtlinie über Audiovisuelle Mediendienste als Kern europäischer Medienpolitik auseinander. Er systematisiert den Anwendungsbereich der Richtlinie und diskutiert Grenzfälle. Fritz Raff, Intendant des Saarländischen Rundfunks und ehemaliger Vorsitzender der ARD, erläutert vor dem Hintergrund des 12. Rundfunkänderungsstaatsvertrages die Position des öffentlich-rechtlichen Rundfunks. Im Kern ging es bei den Auseinandersetzungen um die Frage der OnlineAktivitäten der öffentlich-rechtlichen Sender. Jürgen Doetz, Präsident des VPRT, betont aus der Sicht der privaten Rundfunkveranstalter ihren Beitrag zur Meinungsvielfalt und -freiheit, mit dem sie ebenso – was in vielen Diskussionen übergangen wird – einem Bedürfnis nach Information, Orientierung und Unterhaltung sowie nach Teilhabe an gesellschaftlich bedeutsamen Ereignissen nachkommen. Zugleich sieht er die Medienpolitik, insbesondere das System der Rundfunklizenzierung, vor großen Herausforderungen. Mit der sich seit den achtziger Jahren kontinuierlich wandelnden Qualität der Medien setzt sich als Kommunikationswissenschaftler Dieter Klumpp, Direktor der Alcatel-Lucent Stiftung, auseinander. Er stellt am Beispiel der „Nachrichten“ einen Rückgang der Nachfrage des Publikums nach Contentqualität fest, die mehr noch als andere Faktoren zu einer Qualitätsreduktion führt und nicht mit einer funktionalen Substitution durch neue Netzmedien mehr als nur gemildert wird. Der Wandel der „Öffentlichkeit“ erfordert neue gesellschaftliche Bedarfsanalysen. Dietrich Boelter, Geschäftsführender Gesellschafter einer auf Politikvermittlung im Social Web spezialisierten Berliner Internet-Agentur, geht gemeinsam mit dem Publizisten Hans Hütt Fragen der politischen Kommunikation im Web 2.0 nach. Sie erinnern an den Präsidentschaftswahlkampf von Barack Obama, bei dem das Web 2.0 exzellent eingesetzt und genutzt wurde, und eruieren das partizipatorische Potential der sozialen Netzwerke. Klaus Kamps, Hochschuldozent an den Universitäten Erfurt und Duisburg-Essen, analysiert das Web 2.0 unter der grundlegenden Fragestellung, inwieweit die Anwendungen dieses Social Web einen neuen Trend, gar einen „Schub“ an Individualisierungsphänomenen bedingt bzw. stützt
268
Teil III: Öffentlichkeit und Kultur
– und fragt, wie all dies theoretisch zu verorten sei. Immerhin werfe diese Technik-Genese bzw. die Entwicklung neuer Anwendungen aus sozialwissenschaftlicher Sicht Fragen auf zu „Wegen, Werten und dem Wandel“ des gesellschaftlichen Diskurses. Verena Metze-Mangold, Vizepräsidentin der deutschen UNESCO-Kommission, setzt sich im weiten Sinne mit der politischen Herausforderung auseinander, die sich im Kontext der Sicherung kultureller Vielfalt ergeben. Ausgangspunkt ist dabei die Deklaration zur Kulturellen Vielfalt, die 2001 im Rahmen der UNESCO-Generalkonferenz verabschiedet wurde. Die UNESCO, als weltweites Forum zur Erörterung medienpolitischer Fragen, verständigte sich in der Deklaration erstmals auf gemeinsame Normen internationaler Kulturpolitik. Das Verständnis von Vielfalt als ein übergeordnetes gesellschaftspolitisches Ziel betrifft dann z. B. nicht zuletzt auch die Konzentration der Medienlandschaft in immer weniger internationalen Unternehmen. Thomas Hart, seit 2005 Experte für Regulierungsfragen des in Peking ansässigen EU-China Information Society Projects, analysiert die „Informatisierung“ Chinas, die auf unterschiedlichen politischen Ebenen gesteuert wird. Insbesondere diskutiert er, welche Rolle europäische Erfahrungen bei der weiteren Entwicklung des chinesischen Politik- und Regulierungsrahmens spielen könnten.
Die Richtlinie über Audiovisuelle Mediendienste als Kern europäischer Medienpolitik
Wolfgang Schulz
Die Bedeutung der Richtlinie Das Verhältnis europäischer und deutscher Medienpolitik ist von der Differenz zwischen einer an der Verwirklichung des (ökonomischen) Binnenmarktes ausgerichteten Politik der Kommission und einer jedenfalls auch kulturpolitisch ausgerichteten Medienpolitik in Deutschland geprägt. Der Konflikt hat sich in einigen Punkten entzündet, prominent etwa in der Frage, in wie weit sich aus dem europäischen Beihilferecht der Artikel 87, 86 EG Strukturierungen und Begrenzungen für den Programmauftrag öffentlich-rechtlichen Rundfunks in Deutschland (und natürlich auch in den anderen Mitgliedsstaaten) ergeben.1 Die Europäische Kommission geht bekanntlich davon aus, dass die Finanzierung öffentlich-rechtlichen Rundfunks, auch wenn die Gebühr in Deutschland in ihrer Höhe durch ein Expertengremium festgelegt und staatsfrei ausgestaltet ist, als eine solche Beihilfe anzusehen ist, weil dadurch die Möglichkeit eines wettbewerbsverzerrenden Eingriffs in den Markt von Rundfunk und Telemedien nicht ausgeschlossen erscheint.2 Wie groß der kulturpolitische Spielraum der Mitgliedsstaaten hier europarechtlich ist – gesichert durch das Amsterdamer Protokoll –, erscheint weiterhin streitig, und die Diskussionen um den
1
2
Vgl. dazu Eifert, H. / M. Eicher, in: Hahn, W. / T. Vesting (Hrsg.): Beck´scher Kommentar zum Rundfunkrecht, § 11 Rn. 18 ff. Konsequent daher die Entscheidung der Kommission zur Beendigung des Verfahrens gegen die Bundesrepublik Deutschland (E 3/2005), Funkkorrespondenz 2007, Nr. 27.
270
Wolfgang Schulz
aktuellen Entwurf zu einer neuen Beihilfemitteilung3 der Europäischen Kommission gibt Befürchtungen Nahrung, die Kommission sei hier auch weiterhin an einer Einschränkung der Spielräume interessiert. Ein weiteres prominentes Beispiel ist die Regulierung der Übertragungswege aus medienpolitischen Zielsetzungen heraus. Hier geht es etwa um die Frage, inwieweit Mitgliedsstaaten weiterhin berechtigt sein sollen, für terrestrische Frequenzen, die der Rundfunkübertragung dienen, besondere, an Vielfaltgesichtspunkten orientierte Verfahren einzuführen4, sowie um die Frage der Kabelbelegungsregelung, die durch Artikel 31 der Universaldienstrichtlinie europarechtlich begrenzt ist. Aktuelle Entscheidungen zur Auslegung des europäischen Rechts lassen allerdings Zweifel wachsen, ob die Kommission die kulturpolitischen Spielräume der Mitgliedsstaaten nicht tendenziell zu eng definiert. So hat es etwa das Europäische Gericht in erster Instanz in der Rechtssache TV 2 / Dänemark vs. Kommission (Aktenzeichen T-309/04) als eine hinreichend konkrete Auftragsbestimmung für den öffentlich-rechtlichen Rundfunk angesehen, dass die Rundfunkprogramme „der gesamten dänischen Bevölkerung ein auf Qualität, Vielseitigkeit und Abwechslung ausgerichtetes Fernsehprogramm mit breitem Spektrum bieten“5. Das legt den Schluss nahe, dass das im Beihilfekompromiss und der nachfolgenden Entscheidung der Kommission für die Bundesrepublik ausgehandelte Konkretisierungsverfahren für den Programmauftrag möglicherweise im Hinblick auf die Regelungstiefe zumindest europarechtlich nicht geboten erscheint. Ebenso macht die Entscheidung zum Kabelbelegungsregime in Niedersachsen deutlich, dass vielfaltbezogene Gesichtspunkte von der Rechtsprechung des Europäischen Gerichtshofs weitgehend anerkannt werden. Selbst eine am Ziel der Vielfaltsicherung orientierte Kabelbelegung, die – wie nach dem Niedersächsischen Mediengesetz für analoge Anlagen – dem Kabelbetreiber kaum Spielräume für eigene Belegungen überlässt, kann nach Auf3
4
5
Entwurf einer „Mitteilung der Kommission über die Anwendung der Vorschriften Über staatliche Beihilfen auf den öffentlichrechtlichen Rundfunk“ v. 4. November 2008. Vgl. etwa zur Diskussion um die Revision des so genannten TK-RichtlinienPaketes: Holznagel, B.: Frequenzeffizienz und Rundfunkspektrum, in: MMR, 2008, S. 207 ff.; Gersdorf, H.: Rundfunkfrequenzpolitik zwischen Ökonomisierung und Vielfaltsicherung: Zur Reichweite des Rundfunkprivilegs, in: ZUM, 2007, S. 104 ff. Urteil des Gerichts erster Instanz v. 22. Oktober 2008, TV 2 / Danmark / Kommission, Az. T-309/04, Rn. 117.
Audiovisuelle Mediendienste als Kern europäischer Medienpolitik
271
fassung des Gerichts mit den Grundsätzen des europäischen Rechts übereinstimmen.6 Legt man diese Rechtsprechung zugrunde, so erscheinen die zuweilen überpointierten Differenzen zwischen europäischer und nationaler Regulierung im Medienbereich überbrückbar. Nichtsdestotrotz bleibt es bei den grundsätzlichen Differenzen, die sich ähnlich zuweilen auch in Deutschland zwischen Telekommunikationsregulierung auf der einen und Rundfunkregulierung auf der anderen Seite zeigen. Das besondere an der audiovisuellen Mediendienstrichtlinie ist, dass sie die einzige europäische Rechtssetzung im Medienbereich darstellt, die – mittelbar – eine kulturpolitische Funktion erfüllt, auch wenn sie der Rechtssetzungskompetenz der Kommission entsprechend auch eine Förderung des Binnenmarktes beabsichtigt. Denn sie koordiniert Maßnahmen der Mitgliedsstaaten, die sich auf Regulierungen beziehen, die die Mitgliedstaaten aus medienpolitischen Gründen erlassen haben und aufrechterhalten. Damit koordiniert sie echte Inhalteregulierung, die auch national gesetzte kulturpolitische Werte schützt.
Die Entstehung der AVMD Richtlinie Die während der deutschen Ratspräsidentschaft gelungene politische Einigung über eine revidierte Fassung, die „Richtlinie des Europäischen Parlaments und des Rates zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Erbringung audiovisueller Mediendienste (Richtlinie über audiovisuelle Mediendienste)“ (AVMDRL), ist aufgrund ihrer aufgezeigten Bedeutung als Durchbruch gefeiert worden. Die Europäische Kommission hatte am 13. Dezember 2005 einen Vorschlag zur Revision der Fernsehrichtlinie vorgelegt.7 Im Europäischen Parlament wurden 150 Änderungsanträge eingebracht8, die Kommission reagierte mit einem geänderten Vorschlag9. Nachdem sich der Rat schließ6 7 8
9
EuGH, Urt. v. 22. Dezember 2008 – C-336/07. KOM(2005) 646 final. Legislative Entschließung des Europäischen Parlaments zu dem Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Änderung der Richtlinie 89/552/EWG des Rates zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Ausübung der Fernsehtätigkeit (KOM(2005)0646 – C6-0443/2005 – 2005/0260(COD)). Geänderter Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Änderung der Richtlinie 89/552/EWG des Rates zur Koordinierung
272
Wolfgang Schulz
lich am 15. Oktober 2007 auf einen Gemeinsamen Standpunkt geeinigt hatte, verabschiedete das Europäische Parlament die AVMD-RL am 29. November 2007. Für das Verständnis der Bedeutung dieser Richtlinie ist es hilfreich, sich den Grund für die Entstehung der ursprünglichen Fernsehrichtlinie in Erinnerung zu rufen. Durch die Fernsehrichtlinie sollten Hindernisse für grenzüberschreitende Fernsehangebote abgebaut werden, die Dienstleistungen i. S. des Art. 50 EG darstellen.10 Als vorrangige Gründe für die Regulierung wurden genannt: ņ Beseitigung von Hindernissen für die freie grenzüberschreitende Veranstaltung von Rundfunk in der Gemeinschaft; ņ Sicherstellen einer freien grenzüberschreitenden Rundfunkveranstaltung ohne zweite Kontrolle im Empfangsland im Hinblick auf dieselben Fragen, die bereits bei der Zulassung im Sendeland geprüft wurden; ņ Eliminierung von Ungleichheiten, die den Wettbewerb innerhalb des gemeinsamen Marktes behindern könnten.11 Dementsprechend stützt sich die Richtlinie auch auf Art. 47 II, und Art. 55 EG. Art. 151 EG ermächtigt lediglich zu Fördermaßnahmen im Bereich der Kulturen (im Plural). Unabhängig von der Frage, ob Art. 151 V EG tatsächlich ein allgemeines Harmonisierungsverbot im Kulturbereich aufstellt12, ist davon auszugehen, dass Maßnahmen mit kulturellen Integrationszielen auf bloße Förderung beschränkt bleiben müssen.
10 11 12
bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Ausübung der Fernsehtätigkeit („Audiovisuelle Mediendienste ohne Grenzen“), KOM(2007) 170 endg. St. Rspr. seit EuGH, Urt. v. 30. April 1974 – 155/73, Slg. 1974, 409 – Sacchi. Vgl. Erwägungsgründe 2 f., 15 zur Richtlinie 89/552/EWG. Diese wird nicht eindeutig beantwortet: So spricht etwa Niedobitek, M. (2003): Kommentierung von Titel XII des Dritten Teils des EG-Vertrages, in: Streinz, R. (Hrsg.):Komm. z. EUV/EGV, Art. 151 Rn. 51, dem Abs. 5 lediglich auf Art. 151 I EGV begrenzte Bedeutung zu, während etwa Dörr, D. (2004): Die Europäische Medienordnung, in: Hans-Bredow-Institut (Hrsg.): Internationales Handbuch Medien 2004/2005, 40 (50), sich für eine universale Wirkung auszusprechen scheint.
Audiovisuelle Mediendienste als Kern europäischer Medienpolitik
273
Grund für eine Revision der Fernsehrichtlinie ist vor allem die so genannte Konvergenz von Medienangeboten.13 Art. 2 I der Fernsehrichtlinie definierte als sachlichen Anwendungsbereich „Fernsehsendungen“. Bei Erlass der Richtlinie war verhältnismäßig klar, was hierunter zu verstehen war. Heute hingegen ergeben sich Probleme durch Phänomene wie das Fernsehen über Internet-Protokoll (IP-TV). Es kann technisch als Abruf auf Anforderung des Nutzers angesehen werden, muss sich von der Rezeption her aber nicht vom traditionellen Fernsehen unterscheiden. Ferner hat die Konvergenz andere audiovisuelle Mediendienste hervorgebracht, bei denen die genannten Argumente für eine Harmonisierung mit gleicher Berechtigung angeführt werden können wie bei traditionellem Fernsehen. Zudem wurde Novellierungsbedarf bei den Werberegelungen angesichts zunehmend schwierigerer Refinanzierung von Fernsehprogrammen angemahnt. Audiovisuelle Inhalte werden auch durch die Richtlinie über den elektronischen Geschäftsverkehr14 (E-Commerce-RL) reguliert. Dabei ist der Geltungsbereich der Fernsehrichtlinie aber unabhängig von dem der E-Commerce-RL zu bestimmen.15 Letztere ist sachlich anwendbar, wenn ein „Dienst der Informationsgesellschaft“ vorliegt.16 Mit der Ausweitung des Anwendungsbereichs der Fernsehrichtlinie vergrößert sich der Überschneidungsbereich. Art. 3 VIII der AVMD-RL hat nun eine explizite Abgrenzungsregelung eingeführt: Die E-Commerce-RL findet vollständig Anwendung, es sei denn, die AVMD-RL bestimmt etwas anderes; im Konfliktfall geht die AVMD-RL also vor. Das stellt einen jedenfalls symbolisch wichtigen Hinweis auf die Bedeutung der Medienregulierung dar.
13
14 15
16
Zum Konvergenzphänomen vgl. Hasebrink, U. / L. Mikos / E. Pommer (Hrsg.) (2004): Mediennutzung in konvergierenden Medienumgebungen, München; Schulz, W. / U. Jürgens (2002): Die Regulierung von Inhaltediensten in Zeiten der Konvergenz, Berlin. Richtlinie 2000/31/EG. EuGH, Urt. v. 02. Juni 2005 – C-89/04, Slg. 2005, I-4891 – Mediakabel BV/Commissariaat voor de Media. Gemäß Richtlinie 98/34/EG in der Fassung der Richtlinie 98/48/EG; vgl. dazu Maennel, W. (2002): Die europäische Richtlinie zum Electronic Commerce, in: Lehmann, M. (Hrsg.): Electronic Business in Europa, S. 44-49 und Tettenborn, A.: Auf dem Weg zu einem einheitlichen Rechtsrahmen für den elektronischen Rechtsverkehr – der 2. Versuch, in: K&R, 1999, S. 442-444.
274
Wolfgang Schulz
Das Regelungskonzept Die AVMD-RL folgt dem Konzept einer abgestuften Regulierung, wobei nur zwei Stufen existieren: für lineare und für nicht-lineare Dienste. Die erstgenannte Stufe soll auf möglichst technologieneutrale Weise das erfassen, was bisher als „Fernsehsendung“ unter die Richtlinie fiel (nun „Fernsehprogramm“, vgl. Art. 1 lit. e). Der Bereich des Nicht-Linearen (audiovisueller Mediendienst auf Abruf, On-Demand-Service gem. lit. g) bildet dagegen eine Erweiterung gegenüber dem bisherigen Geltungsbereich.
Sachlicher Anwendungsbereich Sachlicher Anknüpfungspunkt der AVMD-RL ist das Vorliegen eines „audiovisuellen Mediendienstes“, wie er in Art. 1 lit. a) definiert wird. Er besitzt folgende Merkmale: ņ Dienstleistung i. S. von Art. 49, 50 EG; ņ redaktionelle Verantwortung eines Mediendiensteanbieters; ņ der Hauptzweck besteht in der Bereitstellung von Sendungen; ņ der Zweck muss in Information, Unterhaltung oder Bildung liegen; ņ die Dienstleistung muss der allgemeinen Öffentlichkeit angeboten werden; ņ die Übertragung muss über elektronische Kommunikationsnetze i. S. von Art. 2 lit. a) der Rahmenrichtlinie 2002/21/EG erfolgen. Die Bezeichnung als „Mediendienst“ verweist auf die Absicht, lediglich Dienste mit „medialem Charakter“ einzubeziehen (vgl. Erwägungsgrund 16). In diese Richtung deuten auch die Aufzählung von „Information, Unterhaltung oder Bildung“ und das Abstellen auf redaktionelle Verantwortung. Zentral für das Vorliegen eines Dienstes, nicht nur für die Zuordnung zu einem Verantwortlichen, ist die „redaktionelle Verantwortung“ (Art. 1 lit a Spiegelstrich 1 AVMD-RL; Definition in Art. 1 lit c AVMD-RL). Die Zusammenstellung und Bereitstellung muss von einem Anbieter kontrolliert werden.17 17
Dazu Schulz, W. / S. Heilmann: Redaktionelle Verantwortung – Anmerkungen zu einem zentralen Begriff der Regulierung audiovisueller Mediendienste, in: IRIS Spezial, 2008, Straßburg, S. 1 ff.
Audiovisuelle Mediendienste als Kern europäischer Medienpolitik
275
Gegenüber dem Kommissionsentwurf ist die Definition enger, wenn auch nicht unbedingt klarer geworden. Im Gesetzgebungsverfahren wurde versucht, den zuweilen irrationalen Bedenken der Industrie und von einzelnen Mitgliedsstaaten18 gegenüber einer Ausweitung des Anwendungsbereichs Rechnung zu tragen.
Grenzfälle des Anwendungsbereichs Ein Grenzfall sind audiovisuelle Elemente in redaktionellen Angeboten der Presse im Internet. Die Erwähnung von elektronischen Zeitungen in Erwägungsgrund Nr. 21 ist lediglich ein Hinweis darauf, dass bei audiovisuellen Elementen in einem ansonsten textbezogenen Angebot der „Hauptzweck“ nicht im Angebot audiovisueller Dienste liegt; es gibt keine generelle Ausnahme für Verlagsangebote. Allgemein werden sich relativ große Auslegungsprobleme bei der Frage des „Hauptzwecks“ ergeben, da der Schwerpunkt eines Angebots typischerweise schwierig festzustellen ist, etwa bei der Internet-Präsenz eines Fernsehveranstalters, die sowohl Texte zur Erläuterung als auch audiovisuelle Angebote enthält. Hier stellt sich auch die Frage, ob ein Angebot als einheitlicher Dienst zu beurteilen ist, oder ob einzelne Teilangebote differenziert werden können. Der Regelungskonzeption des Art. 1 lit. a) folgend wird es insofern darauf ankommen, wie das Angebot vom Nutzer wahrgenommen wird. Hinsichtlich einer rechtlichen Definition des „Hauptzwecks“ lässt sich auf den 18. Erwägungsgrund rekurrieren, der Negativbeispiele aufzählt (etwa animierte grafische Elemente, kleine Werbespots). Fernsehen als besonders reguliertes Medium wird gem. Art. 1 lit. e) als audiovisueller Mediendienst definiert, der von einem Mediendiensteanbieter für die gleichzeitige Betrachtung von Programmen auf der Basis eines Programmplanes bereitgestellt wird. Von dem Vorschlag, ähnlich wie in Deutschland an Merkmale wie „Meinungsrelevanz“ anzuknüpfen, wurde zu Recht Abstand genommen, da für die von der Fernsehrichtlinie harmonisierten Bereiche Meinungsmacht unmittelbar keine Rolle spielt. Bereits der Vorschlag der Kommission baute auf der kommunikationswissenschaftlich plausiblen These auf, dass Fernsehen als Rezeptionsmodus von der Linearität des Angebots abhängt. 18
Zur Position der Mitgliedstaaten im Verfahren instruktiv Traimer, M. (2007) in: Berka, W. / C. Grabenwarter / M. Holoubek (Hrsg.): Gemeinschaftsrecht und Rundfunk, Revolution oder Anpassung, Wien, S. 19 ff.
276
Wolfgang Schulz
Mit den in der Richtlinie gegeben Definitionen lassen sich jedenfalls für einige Problemfälle den Anwendungsbereich der Richtlinie recht eindeutig bestimmen. Near-Video-on-Demand bleibt damit Fernsehen, da die entsprechende Schleife immer nur gleichzeitig für alle Rezipienten zu sehen ist. Bei PodCasts fehlt es regelmäßig an beiden Definitionsmerkmalen, da es gerade ihr Wesen ist, einzeln zum Nutzer geliefert bzw. von diesem abgerufen zu werden. Grenzformen sind aber möglich, beispielsweise Programmzusammenstellungen aus einzelnen Pod-Casts.19 Online-Computerspiele nähern sich zwar zum Teil ästhetisch Filmformaten an. Nach Erwägungsgrund 18 sollen sie aber ausgenommen sein. Ob das angesichts der Formatannäherung sachgerecht ist und dem Richtlinientext entspricht, sei dahin gestellt.20 Hier wird jedenfalls regelmäßig ein Sendeplan fehlen, der in redaktioneller Verantwortung eines Anbieters erstellt wird, so dass Online-Spiele nicht in den Geltungsbereich fallen.21 Auch bei Portalen wie YouTube wird es an einer redaktionellen Verantwortung für den gesamten Dienst fehlen. Dieses Beispiel zeigt, dass der Bereich nutzergenerierter Inhalte die Medienregulierung – europäisch und national – vor Herausforderungen stellt, da schon unklar ist, was überhaupt als das relevante Angebot der Regulierung unterliegt.
Fazit und Ausblick Die Diskussion um den Geltungsbereich der audiovisuellen Mediendienstrichtlinie ist ein Lehrstück dafür, vor welchen Problemen die Mediengesetzgebung im Zeitalter der so genannten Konvergenz steht. Sie kann versuchen, so systematisch wie möglich ausgehend von unterschiedlichen Re19
20
21
Als Beispiel sei nur auf neue Musikdienste wie http://www.pandora.com oder http://www.last.fm verwiesen, die dem Nutzer nach dessen Wahl eines Ausgangstitels ein ohne weiteres aktives Nutzerverhalten ablaufendes Programm mit ähnlicher Musik zusammenstellen. Ähnliches wäre für Video-Pod-Casts denkbar. Göttlich, P.: Online-Spiele im Spiegel des Medien- und Urheberrechts, in: IRIS-Plus 10/2007, S. 5 ff. etwa hält die Richtlinie mangels hinreichender Klarstellung im verfügenden Teil für weitgehend auf Online-Spiele anwendbar. Dazu Schulz, W. / S. Heilmann: Redaktionelle Verantwortung – Anmerkungen zu einem zentralen Begriff der Regulierung audiovisueller Mediendienste, in: IRIS Spezial, 2008, Straßburg, S. 27 ff.; anders wohl Göttlich (Fn. 20).
Audiovisuelle Mediendienste als Kern europäischer Medienpolitik
277
gelungszielen alles zu erfassen, was in Bezug auf diese Regelungsziele Risiken auslösen kann. Damit kann sie möglicherweise auch quer zu traditionellen Vorstellungen davon regulieren, was einen bestimmten Dienstetyp aus Sicht der Anbieter und Nutzer ausmacht. Ein anderer – und offenbar bei der Richtlinie wirkmächtiger – Ansatz kann sein, an bestehende Dienstekonzepte anzuknüpfen und lediglich dort neue Phänomene mit einzubeziehen, wo Funktionsverschiebungen entstehen. Der ursprüngliche Regelungsvorschlag der Kommission war noch deutlich systematischer als der, der schließlich im Gesetzgebungsverfahren entstand und der stark von der Vorstellung geprägt war, lediglich „Fernsehähnliches“ in den Anwendungsbereich mit einzubeziehen, also die Fernsehrichtlinie fort zu schreiben. Ob sich dieses Vorgehen letztlich als sachgerecht erweist, ist derzeit noch nicht abzusehen. Die Richtlinie hat mit der zusätzlichen Besonderheit zu kämpfen, dass die einzelnen Mitgliedsstaaten im Hinblick auf die oben genannten alternativen Vorgehensweisen zur Fortentwicklung ihrer Regulierung durch die Richtlinie eingeschränkt werden. Sie müssen zukünftig zumindest sicherstellen, dass im Hinblick auf die Dienste, die die audiovisuelle Mediendienstrichtlinie in ihren Anwendungsbereich mit einbezieht, die Ziele der Richtlinie erreicht werden. Dazu wird es hilfreich sein – logisch zwingend ist es allerdings nicht –, im nationalen Recht den Typus der (linearen oder nicht-linearen) audiovisuellen Mediendienste auch als eigene Dienstkategorie einzuführen. Das Beispiel Deutschlands zeigt, dass dies weit reichende Folgen haben kann. Wird – wie im 12. Rundfunkänderungsstaatsvertrag geschehen – der Begriff des Rundfunks dahingehend verändert, dass Linearität das entscheidende Merkmal darstellt und auf qualitative Merkmale wie das der „Darbietung“22 verzichtet wird, so ergeben sich regulatorische Anschlussprobleme. Warum soll gerade die Linearität darüber entscheiden, ob ein Dienst in die medienspezifische Vielfaltsicherung und die Kontrolle vorherrschender Meinungsmacht nach §§ 26 ff. RStV einbezogen wird? Zwar hat die Linearität möglicherweise etwas damit zu tun, welche Relevanz ein Dienst für die öffentliche Meinungsbildung hat, es muss aber keineswegs der einzige oder auch nur der zentrale Gesichtspunkt sein. Die neue Diskussion über Anwendungsbereiche unterschiedlicher Regelungskomplexe des Medienrechtes, die durch den Erlass der audiovisuellen Mediendienstrichtlinie ausgelöst wird, hat aber jedenfalls insofern ein Gu22
Zu diesem Begriff vgl. Hartstein, R. / W.-D. Ring / J. Kreile / D. Dörr / R. Stettner Rundfunkstaatsvertrag, § 2 Rn. 8; Hesse, A. (2003): Rundfunkrecht, München, 3. Aufl., S. 82.
278
Wolfgang Schulz
tes, als sie dazu zwingt, sich über die Merkmale, die Regulierungsbedürftigkeit im Hinblick auf bestimmte Regulierungsziele auslösen, klarer zu werden und so eine Zielverfehlung oder aber auch eine Überregulierung zu verhindern.
Über den Autor Dr. Wolfgang Schulz, geb. 1963, Direktor des Hans-Bredow-Instituts. Forschungs- und Arbeitsgebiete: Rechtliche Regulierung von Medien und Telekommunikation, Fragen des Rechts neuer Kommunikationsmedien, Rechtsgrundlagen journalistischer Arbeit, rechtsphilosophische Grundlagen der Kommunikationsfreiheiten.
Bleibt Rundfunk Rundfunk? Der Wert des öffentlich-rechtlichen Rundfunks in der Netzwelt
Fritz Raff
Zu jung für das Museum: Alle wollen ins Netz – wir auch! Alle reden vom Internet, von der Netzwelt und Web 2.0. Der öffentlichrechtliche Rundfunk tut das auch, wohl wissend, dass die Zukunft des Rundfunks in der Digitalisierung liegt und die Öffentlich-Rechtlichen ihre Stellung halten und ihre gesellschaftliche Aufgabe nur erfüllen können, wenn sie ihre Zuschauer, Hörer und Online-Nutzer auch künftig auf allen relevanten Ausspielwegen erreichen. Denn der Wandel in der Welt des Rundfunks bringt zahlreiche neue Anbieter auf den Markt, das Angebot wird immer umfangreicher und damit unübersichtlicher. Umso wichtiger ist es für den öffentlich-rechtlichen Rundfunk, verlässliche Informationsquelle all derer zu bleiben, die auf freie und unabhängige Berichterstattung nicht verzichten wollen. Der öffentlich-rechtliche Rundfunk bleibt so eine tragende Säule einer demokratischen Gesellschaft. Was ich hier in den ersten Sätzen ein wenig manifesthaft und komprimiert formuliert habe, ist Erkenntnis eines langen Diskussionsprozesses um den 12. Rundfunkänderungsstaatsvertrag, den die Ministerpräsidenten am 18. Dezember 2008 verabschiedet haben. Die Auseinandersetzung um dieses neue Regelwerk, das festlegt, was der öffentlich-rechtliche Rundfunk unter welchen Bedingungen in der Netzwelt darf, kam in der Intensität fast der um die Einführung des dualen Systems in den 1980er Jahren nahe und ist wohl bald von ebensolcher medienhistorischer Bedeutung. Im Kern ging es dabei um folgenden Konflikt: Der öffentlich-rechtliche Rundfunk musste seine berechtigten Interessen in der digitalen Welt verteidigen und die Chance auf eine angemessene Entwicklung sichern. Verleger
280
Fritz Raff
und kommerzielle Rundfunkanbieter wollten den Öffentlich-Rechtlichen dagegen durch die Politik enge Grenzen setzen lassen, um ihre eigenen Geschäftsinteressen zu schützen. Herausgekommen ist ein Kompromiss, mit dem die Öffentlich-Rechtlichen leben müssen. Denn der 12. Rundfunkänderungsstaatsvertrag bürdet zum einen den Landesrundfunkanstalten und ihren Gremien einen Verwaltungsmarathon auf, da auch der komplette Altbestand der Telemedien in kurzer Frist einem Drei-Stufen-Test unterzogen werden muss. Das ist die eine Seite. Aber der 12. Rundfunkänderungsstaatsvertrag bringt zum anderen auch das Ergebnis, dass der öffentlich-rechtliche Rundfunk eine Existenz- und Entwicklungsgarantie in der Netzwelt hat, so wie beides bereits vom Bundesverfassungsgericht am 11. September 2007 bestätigt worden war – was heißt, dass auch in der Netzwelt ARD, ZDF und Deutschlandradio ihre gesellschaftliche Aufgabe zu erfüllen haben und darin nicht behindert werden dürfen. Insofern ist die Titelfrage, ob Rundfunk auch in der Netzwelt Rundfunk bleibt, von der Funktion des öffentlich-rechtlichen Rundfunks her beleuchtet, positiv zu beantworten. Der Auftrag des öffentlich-rechtlichen Rundfunks besteht ebenso im Internet. Der öffentlich-rechtliche Rundfunk in Deutschland ist auch hier unentbehrlich für das Grundrecht „öffentliche Meinungsbildung“, das von den Bürgern nur wahrgenommen werden kann, wenn sie politisch, wirtschaftlich, kulturell, kurzum: umfassend informiert sind. Insofern bleibt Rundfunk Rundfunk!
Gleiche Funktion – andere Bedingungen Blickt man dagegen auf die Methoden der Verbreitung der Inhalte, dann stellt auch der Laie schnell fest: Der Rundfunk wandelt sich – und zwar mit enormer Geschwindigkeit, teilweise so schnell, dass das begleitende Regelwerk Mühe hat mitzuhalten. Andererseits – obwohl der Satz vom schnellen Wandel zweifelsfrei stimmt – hat sich für einen bestimmten Teil der Nutzer nicht spürbar etwas geändert, denn sie nutzen die klassischen Medien Fernsehen und Hörfunk weiterhin in der traditionellen Form. Allerdings kommt auch bei diesen Nutzern das Internet zunehmend als Ergänzungsmedium ins Spiel. Grundsätzlich gilt: Kein Medium hat sich schneller verbreitet als das Internet. Innerhalb von zehn Jahren stieg der Anteil der Internet-Nutzer in Deutschland von 6,5 Prozent auf 62,7 Prozent. Heute haben über 40 Millionen Deutsche ab 14 Jahren Zugang zum World Wide Web. Und es sind nicht nur die Jungen, die dieses Medium
Bleibt Rundfunk Rundfunk?
281
nutzen. Das höchste Wachstum wird, wie schon in den letzten Jahren, von den Älteren ausgehen. Bereits heute sind mehr Personen, die älter als 60 Jahre sind, so genannte „Silver Surfer“, im Netz als 14- bis 19-Jährige. Das zeigt: Die Alten werden immer moderner und lassen sich nicht abhängen in dieser Gesellschaft. Aber es sind auch vor allem die Älteren, die weiterhin die traditionellen Medien Hörfunk und Fernsehen nutzen. Insgesamt bedeutet das, dass im Moment und vermutlich auch noch für ein weiteres viertel Jahrhundert digitale und analoge Systeme parallel zur Verfügung stehen. Dennoch ist die analoge Welt endlich, und für das alte UKW-Radio wird irgendwann einmal nur noch das Rundfunkmuseum eine sinnvolle Verwendung haben. Das Radio an sich aber wird überleben, und es ist – damit Rundfunk auch in Zukunft Rundfunk bleiben kann – eine erfreuliche Entwicklung, dass das von einigen schon tot geglaubte DAB-Radio nun eine neue Chance erhält und weiter entwickelt wird. Radio in digitaler Qualität wird sich durchsetzen. Und Informationen werden hier, gerade im Blick auf mobile Gruppen wie die Autofahrer, immer noch am schnellsten an den Mann und an die Frau gebracht.
Neue Zielgruppen – neue Medien Aber auch wenn die traditionellen Medien noch lange stabil und für viele Nutzer interessant bleiben werden, der Wandel bei den jungen Mediennutzern vollzieht sich schnell. Und besonders bei jungen Mediennutzern – einer Zielgruppe, die der öffentlich-rechtliche Rundfunk derzeit nicht in ausreichendem Maße erreicht – hat der öffentlich-rechtliche Rundfunk ebenfalls seinen gesellschaftlichen Auftrag zu erfüllen. Bei diesen jungen Mediennutzern können wir jetzt schon sehen, dass die digitale Zukunft bereits Gegenwart ist. Download, iPod, MP3-Player und Handy-TV sind selbstverständlich. Und dass der Multimedia-PC zuhause nicht nur für den elektronischen Briefwechsel, sondern auch für den Empfang weltweiter Radioprogramme oder Musiktauschbörsen genutzt wird, ist hier schon Alltag. Das heißt im Blick auf die zunehmend heterogenere Nutzergemeinschaft der Gebührenzahler: Der öffentlich-rechtliche Rundfunk muss seine starke Position im medialen Wettbewerb halten vor dem Hintergrund, dass sich in der digitalen Welt Medienkonsum, Wünsche und Ansprüche der Hörer, Zuschauer und Internetnutzer verändern und vielfältiger werden. Er muss hierbei von einer Entwicklung im Sinne eines evolutionären Prozesses
282
Fritz Raff
ausgehen, bei der zunehmend ortsunabhängige, zeitsouveräne und interaktive Nutzungsformen an Bedeutung gewinnen. Aus all diesen Überlegungen dürfte dabei auch das Leitmotiv klar geworden sein: Es sind nicht die Veränderungen der Technologien und des Nutzerverhaltens, die die Rolle des öffentlich-rechtlichen Rundfunks in der digitalen Medienwelt bestimmen. Es ist nach wie vor die publizistische Aufgabe und der gesellschaftliche Auftrag. Aber Aufgabe und Auftrag gilt es unter sich wandelnden Bedingungen zu erfüllen, sonst frisst selbst die Evolution irgendwann ihre Eltern. Die Angebote von ARD, ZDF und DeutschlandRadio müssen deshalb ein vielfältiges Spektrum abdecken: von linearen Voll- und Spartenprogrammen über die Vermittlung einzelner Inhalte bis hin zu Abrufmöglichkeiten für die individuelle und interaktive Nutzung im Internet. Das ist, um mit einem Claim der gemeinsamen ARD-ZDF-Kampagne zu sprechen, „gutes öffentliches Recht“ der Gebührenzahler. Leider ist gerade bei den Online-Angeboten und beispielsweise ihrer Verweildauer im Internet der 12. Rundfunkänderungsstaatsvertrag zu restriktiv ausgefallen. Dass etwa Angebote aus dem Spitzensport nach 24 Stunden und andere Angebote bereits nach sieben Tagen aus den Mediatheken verschwinden sollen, kann – auch wenn es jetzt im Staatsvertrag steht – nicht im Sinne der Gebührenzahler sein, die ja für diese Angebote bereits bezahlt haben. Das gilt besonders im Blick auf die jungen Mediennutzer, die zunehmend nichtlineare Angebote suchen. Und warum ein enzyklopädisches Wissen im Internet, wie es besonders bei Bildungsangeboten die der öffentlich-rechtliche Rundfunk in seinen Archiven besitzt, einem Abiturienten, der gerade ein Referat über deutsche Geschichte zu schreiben hat, vorenthalten werden soll, ist nicht wirklich begründbar – zumal wenn sich die Bildungspolitiker im gleichen Atemzug über mangelnde Qualität in unserem Bildungssystem wortreich streiten. Auch wenn der öffentlich-rechtliche Rundfunk aus unserer Sicht in seinem Auftrag teilweise durch den 12. Rundfunkänderungsstaatsvertrag behindert wird, muss er sein Engagement für die jungen Zielgruppen verstärken. Gerade die Jugend für das Programm des öffentlich-rechtlichen Rundfunks zu gewinnen, hat deshalb mittlerweile Priorität bei der ARD. Sie ist die kommende Generation, die künftig für den eigenen Rundfunkanschluss zahlen wird. Die Digitalisierung bekannter Formate mag als technische Neuerung jetzt noch deren Interesse wecken, wird auf lange Sicht aber wohl keinen Teenager an die ARD binden. Der öffentlich-rechtliche Rundfunk hat hier gar keine Wahl: Er muss mit seinen Programmen dort sein, wo die Mediennutzung stattfindet. Und weil die jugendlichen Nutzer ihr Programm immer weniger zeitlinear, sondern oft spontan und momentanen
Bleibt Rundfunk Rundfunk?
283
Interessen geschuldet zusammenstellen (jeder ist hier sein eigener Programmgestalter), müssen die Angebote an diese Zielgruppe auch im Internet ein breites Spektrum abdecken. Die ARD arbeitet daran. Ohne die restriktiven Verweildauerregelungen des 12. Rundfunkänderungsstaatsvertrages wäre die Aufgabe einfacher zu bewältigen. Denn dass jetzt zusätzlich bis August 2010 sämtliche Telemedien nachträglich einem DreiStufen-Test unterzogen werden müssen, belastet die Gremien mit erheblichem Verwaltungsaufwand und die Landesrundfunkanstalten mit zusätzlichen Kosten. Hier wäre es hilfreich gewesen, den Gremien für diese Prüfung den ursprünglich avisierten längeren Zeitraum bis Ende 2010 zu lassen. Gleichwohl werden unsere Gremien diese Aufgabe mit Kompetenz und Sachverstand gewohnt souverän lösen. Eins ist jedenfalls klar: An der Qualität der öffentlich-rechtlichen Angebote, egal ob traditioneller Rundfunk oder Rundfunk in neuer telemedialer Form, wird es keine Abstriche geben. Hier bleibt öffentlich-rechtlicher Rundfunk eben Rundfunk, wie er es schon immer war.
Qualität als Leitbild der multimedialen ARD Qualität beim Content ist und bleibt das entscheidende Merkmal des öffentlich-rechtlichen Rundfunks, auch in der multimedialen digitalen Welt. Damit das so bleibt, müssen unsere Journalistinnen und Journalisten hochqualifiziert sein. Sie müssen den Anforderungen der neuen digitalen Zeit entsprechen. Sie dürfen keine Angst vor Veränderungen haben, denn das Berufsbild und das Anforderungsprofil sind im Fluss. Das gilt übrigens für die Printmedien und die kommerziellen Mitbewerber auf dem Rundfunkmarkt genauso. Eine Studie, die der Hamburger Publizistikprofessor Siegfried Weischenberg kürzlich vorgelegt hat, belegt den Wandel im Berufsbild mit Zahlen. Zwischen 1993 und 2005 hat sich bei Journalisten der Zeitaufwand für technische und organisatorische Tätigkeiten stark erhöht. Das sind jetzt 78 Minuten pro Tag. Das heißt natürlich: Für Recherche bleibt weniger Zeit. Das sind heute noch 117 Minuten am Tag – 1993 waren es noch 140!1 Dennoch bedeutet das nicht, dass heute schlampiger recherchiert wird. Denn im Netz findet man manche Telefonnummer schneller als durch das Nachschlagen im Oeckl. Allerdings birgt das Recherchewerkzeug 1
Weischenberg, S. / M. Malik / A. Scholl (2006): Die Souffleure der Mediengesellschaft. Report über die Journalisten in Deutschland, Konstanz.
284
Fritz Raff
Internet auch Gefahren, und nach wie vor ist „saubere Recherche“ natürlich mehr als das Nachschlagen bei Wikipedia. Gute Journalisten wissen das und sehen die digitale Entwicklung am Arbeitsplatz deshalb positiv. Auch die Digitalisierung des rundfunkjournalistischen Arbeitsplatzes ist fast überall abgeschlossen. Der Computer als multifunktionales Arbeitsgerät hat überall Einzug gehalten. Im Hörfunk haben Sie gelernt, digital zu schneiden, beim Fernsehen wird digital gedreht und weiterverarbeitet. Die moderne Journalistin und der ebenso moderne Journalist können die neue Technik einsetzen und medienpolitisch einschätzen. Sie wissen: nicht nur ihre handwerklichen Fähigkeiten, präzise zu recherchieren, analytisch zu betrachten und kritisch zu beurteilen sind gefragt, auch ihr technisches Verständnis und die Bereitschaft, sich auf sich ständig wandelnde Bedingungen einzulassen, sind heute nötige Voraussetzungen, um journalistisch erfolgreich zu arbeiten. Beim Saarländischen Rundfunk haben wir bereits 2006 nach erfolgreichem Testlauf einen trimedialen Newsroom eröffnet. Zum ersten Mal innerhalb der ARD wurde so ein medien-übergreifendes Planungs- und Informationszentrum für einen ganzen Sender geschaffen, der Hörfunk, Fernsehen und den Bereich Online und Fernsehtext umfasst. Alle Planer arbeiten in diesem Newsroom zusammen, koordinieren und organisieren von hier aus ihre Sendungen. Informationen werden gemeinsam beschafft und gesammelt, um dann in den Medien entsprechend verarbeitet zu werden. Der Newsroom ist zentraler Anlaufpunkt für Informationen von außen genauso wie für den internen Informationsaustausch. Da alle miteinander vernetzt sind, werden Doppelrecherchen verhindert, wobei gleichzeitig Informationskompetenz und Qualität des Programms gesteigert werden. Hier setzt der öffentlich-rechtliche Rundfunk bei erhöhter Effizienz der Arbeit weiterhin Maßstäbe in der Sicherung der Qualität. Qualität als Merkmal öffentlich-rechtlicher Profilierung, das ist eine Herausforderung, die wir bei der Vielzahl unserer publizistischen Konkurrenten (mittlerweile wollen ja auch Telekommunikationsfirmen als Rundfunkanbieter auftreten) gerne annehmen, denn die publizistische Qualität ist Verpflichtung und gleichzeitig Zukunftschance des öffentlich-rechtlichen Rundfunks. Das Bedürfnis der Zuhörer und Zuschauer nach seriöser und zuverlässiger Information wird im Zeitalter der Digitalisierung eher zu- als abnehmen. Je mehr Kanäle, je mehr Mischformen es geben wird zwischen Information und Entertainment, zwischen Fakten und PR, desto größer wird das Verlangen nach größtmöglicher Objektivität und unabhängiger Einordnung. Das gilt für alte und neue Medien, alten und neuen Rundfunk gleichermaßen, auch weil es gesamtgesellschaftlich wichtig ist.
Bleibt Rundfunk Rundfunk?
285
Die Amerikaner sprechen mit Blick auf die Medien ganz selbstverständlich von der vierten Gewalt. Hierzulande ist dieser Begriff eher belastet. Warum eigentlich? Vielleicht bringt gerade die Digitalisierung der Medienwelt uns in die Situation, diese Aufgabe mutig anzunehmen und für Orientierung in einer manchmal wirren Vielfalt zu sorgen.
Von Leuchttürmen, Demokratie und Kultur In der Auseinandersetzung um den 12. Rundfunkänderungsstaatsvertrag hat die ARD als öffentlich-rechtliche Arbeitsgemeinschaft ihre Aufgabe bewusst provozierend so formuliert: Der öffentlich-rechtliche Rundfunk muss auch in der digitalen Zukunft den Gebührenzahlern im Meer der Content-Angebote Leuchttürme der Orientierung und Verlässlichkeit bieten sowie Anlaufstellen schaffen für Themen, die unsere Gesellschaft als Ganzes angehen. Die Programme der ARD für Fernsehen, Hörfunk und Multimedia, ihre Filmproduktionen, Nachrichten, Berichte und Reportagen stehen für Qualität, Seriosität und Glaubwürdigkeit. In den Regionen verankert und gleichzeitig durch Korrespondenten in aller Welt vernetzt, kann die ARD regionale und globale Perspektiven miteinander verbinden. Kein anderes elektronisches Medienunternehmen erreicht die Bevölkerung so unmittelbar und hat für die Bundesländer solch identitätsstiftende Kraft wie die Arbeitsgemeinschaft der öffentlich-rechtlichen Rundfunkanstalten der Bundesrepublik Deutschland. Diese Zielsetzung, die zugleich Standortbestimmung war, hat bei Verlegern und privaten Rundfunkanbietern für Protest gesorgt. Die Frankfurter Allgemeine Zeitung sah gar die ungebremste Expansion des öffentlichrechtlichen Internetangebots und damit das „Ende der freien Presse“ gekommen. Beides ist nicht eingetreten und wird auch nicht eintreten. Dennoch bleibt an der Zielbeschreibung nichts zurückzunehmen. Sie ist auch in ihrer provokanten Formulierung richtig. Denn von den Stärken des öffentlich-rechtlichen Systems können und sollen die Gebührenzahler aufgrund der vielfältigen Verbreitungs- und Abrufmöglichkeiten in der digitalen Welt noch mehr profitieren als im analogen Zeitalter. Die ARD sieht deshalb in der Digitalisierung die Chance, den Gebührenzahlern großen Mehrwert ohne erheblichen Mehraufwand zu liefern. Auch in einer immer unübersichtlicheren und kommerzialisierten Medienlandschaft bleibt es das Ziel der ARD, verlässliche Information und gute Unterhaltung, Bildung und Kultur sowie Orientierung und Werte zu vermitteln. Die ARD will den Rundfunk auch in der digitalen Welt als Kulturgut erhalten. Die
286
Fritz Raff
medienpolitischen und rechtlichen Rahmenbedingungen dazu setzt der 12. Rundfunkänderungsstaatsvertrag so, dass wir diese Aufgabe erfüllen können. Das stärkt die Demokratie und sichert zudem, dass große Teile der Bevölkerung auch am kulturellen Leben Anteil haben können. Denn auch diese Gefahr liegt in der digitalen Medienwelt: dass sie die Angebote immer mehr diversifiziert und die Gesellschaft spaltet, in einen Teil, der sich spezielle Medienangebote leisten kann und in einen, der das nicht kann. Hier muss der öffentlich-rechtliche Rundfunk gegensteuern und sicherstellen, dass medial vermittelte Information, Bildung, Kultur und auch Unterhaltung die Gesellschaft nicht spaltet sondern im Idealfall zusammenführt. Das ist die Aufgabe, die der öffentlich-rechtliche Rundfunk in der analogen Zeit erfüllt hat. Das ist die Aufgabe, die der öffentlichrechtliche Rundfunk in der Zukunft weiterhin erfüllen muss. Ein gutes Beispiel ist hier das Engagement der ARD für die Kultur. Obwohl Kultur ein zentraler Bestandteil des öffentlich-rechtlichen Programmauftrags ist, steht sie nicht immer so im Blickpunkt des Publikumsinteresses wie die Informationssendungen oder die Sportübertragungen. Man könnte auch sagen: Die Kulturprogramme und die Kulturleistungen der ARD blühen bisweilen im Verborgenen. Dabei ist die ARD nicht nur Kulturvermittler und -berichterstatter, sondern auch Kulturproduzent und -förderer. In der analogen Welt konnte das einfach am Programm beobachtet werden. So sind zum Beispiel über ein Drittel unserer 54 analogen Hörfunkprogramme dem Bereich Kultur und/oder Information zuzuordnen. Und trotz des häufigen Lamentos über die angeblich nachlassende Bereitschaft des Publikums, sich mit Qualitätssendungen auseinanderzusetzen, erfreuen sich diese Programme in den letzten Jahren einer wachsenden Zuhörerschaft. Laut Media Analyse 2008 Radio I entscheiden sich mittlerweile mehr als fünf Millionen Menschen täglich für mindestens eines der 21 Kultur- und Informationsprogramme des ARD-Senderverbunds. Aber das Engagement geht ja weit über diese Programmangebote hinaus. So ist die ARD auch immer wieder als Kulturproduzent aktiv. Besonders wichtig sind hier die Klangkörper der Landesrundfunkanstalten, die mit ihrem umfangreichen Angebot an öffentlichen Konzerten ein Garant erstklassiger musikalischer Unterhaltung und Bildung in ganz Deutschland sind. Die ARD-Chöre, Big Bands und vor allem die Sinfonieorchester zählen zu den wichtigsten Trägern der musikalischen Kultur des Landes. Die Zahl der Klangkörper spiegelt die kulturelle Vielfalt wider, mit der die Rundfunkanstalten als Produzenten und Konzertveranstalter das Musikleben in ihren jeweiligen Sendegebieten effektiv und nachhaltig fördern. Auch die mehr als 500 Hörspiele, die jährlich in den Studios der Landes-
Bleibt Rundfunk Rundfunk?
287
rundfunkanstalten entstehen, zeugen von einer regen Produktionstätigkeit im kulturellen Sektor. Und schließlich betätigt sich die ARD als Kulturförderer. Mit zahlreichen kulturellen Kooperationen unterstützen wir bundesweit bedeutende Kulturveranstaltungen und örtliche Kulturvereine, Musik- oder Theatergruppen. Manches Kulturereignis wird erst durch die Partnerschaft mit einer Landesrundfunkanstalt möglich. Mit Diskussionsveranstaltungen zum kulturellen Leben oder durch Beteiligung am kulturpolitischen Diskurs befördert die ARD den kulturellen und gesellschaftlichen Dialog insgesamt. Und durch etliche Wettbewerbe und Preise soll insbesondere der künstlerische Nachwuchs Deutschlands gefördert werden. Besondere Beachtung verdient in dem Zusammenhang der Internationale Musikwettbewerb der ARD, einer der renommiertesten Wettbewerbe für den Klassik-Nachwuchs. Natürlich sind diese drei Bereiche eng miteinander verwoben. So sind zum Beispiel die Kulturprogramme im Hörfunk auf einzigartige Weise in den Regionen verankert und eng mit Kulturschaffenden und Kulturinteressierten verbunden. Und die ARD-Sinfonieorchester sind ohne die Kulturradios der ARD nicht denkbar. Die Orchester produzieren für die Programme und sind neben den Konzertübertragungen an vielen Programmplätzen präsent. Durch den künstlerischen Austausch zwischen Musikredaktionen und Orchestern kommt es zu einer fruchtbaren gegenseitigen Weiterentwicklung und Unterstützung. In der digitalen Medienwelt jedenfalls wird der öffentlich-rechtliche Rundfunk gerade mit seinem Kultur-Bouquet, das neben den Informationsangeboten, neben Sport und Unterhaltung zu seinem Auftrag gehört, wichtiger denn je sein. Welch wichtige Funktion den Öffentlich-Rechtlichen hier zukommt, wird besonders deutlich, wenn man einen Blick auf die Programme der kommerziellen Rundfunkunternehmen wirft. Mit Kultur lässt sich weder Quote noch Umsatz machen. Daher findet man bei den privatwirtschaftlichen Sendern nur selten kulturelle Angebote. Die ARD hingegen wird auch in Zukunft ihr kulturelles Engagement fortsetzen und, wenn möglich, noch verstärken. Denn Rundfunk ist nicht nur ein Wirtschaftsgut. Rundfunk ist ein Kulturgut. Und auch als solches wird Rundfunk in der digitalen Zukunft Rundfunk bleiben.
Über den Autor Fritz Raff, geb. 1948, Diplom-Verwaltungswirt, wurde vom SR-Rundfunkrat erstmals im Mai 1996 an die Spitze des Senders gewählt und wurde mittlerweile in dritter Amtszeit als Intendant des SR bis Juli 2012 bestätigt.
288
Fritz Raff
2007 und 2008 war er auch Vorsitzender der ARD. Er begann seine berufliche Laufbahn 1971 als Geschäftsführer des Südwestdeutschen Journalisten-Verbandes und war von 1977 bis 1985 beim Deutschen JournalistenVerband als Hauptgeschäftsführer tätig. 1985 wurde er Oberbürgermeister der Großen Kreisstadt Mosbach in Baden-Württemberg. 1990 wechselte Raff zum SR als Verwaltungsdirektor, ab 1994 auch als stellvertretender Intendant. In bisher 15 Jahren im öffentlich-rechtlichen Rundfunk war er in verschiedenen Kommissionen von ARD und ZDF als Leiter oder als Mitglied tätig, zum Beispiel: Sportrechte-Agentur, Lenkungsausschuss Hybnet, AG ARD-Marketing-Strategie, Digitalkommission von ARD und ZDF, ARTE-Mitgliederversammlung, KEF-Lenkungsgruppe, Deutsch-Französische Hörfunkkommission, ARD-Strategiegruppe.
Vom Wert des Rundfunks in der Netzwelt
Jürgen Doetz Albert Einstein lobte in seiner Rede zur Eröffnung der Berliner Funkausstellung 1930 den Rundfunk als demokratisches Mittel, durch das die Werke herausragender Künstler und Denker einer breiten Öffentlichkeit zugänglich würden.1 Mit seiner Hilfe könne der Horizont der Menschen kontinuierlich erweitert werden. Er betrachtete den Rundfunk als Medium der Völkerverständigung. Andere hegten seinerzeit schon Zweifel, was den (Mehr-)Wert solcher technologischen Entwicklungen anbelangt. So verwies der Kulturkritiker Egon Friedell in seiner „Kulturgeschichte der Neuzeit“2 auf den nivellierenden Aspekt des Radios. Es erlaube, gleichzeitig Mozart, Sauerkraut, Sonntagspredigt und Skatspiel zu genießen und befreie auf diese Weise allenfalls vom Zwang zur Konzentration. Die Nationalsozialisten wiederum hatten für sich den Wert des Rundfunks früh als massenwirksames Medium politischer Propaganda erkannt und missbrauchten ihn als politisches Machtinstrument. Die Sender erhielten die Vorgabe, als „Herolde des Reichsgedankens“3 zu wirken und zur politischen Gleichschaltung der Bevölkerung beizutragen.
„Wert des Rundfunks“ – bislang eine einseitige Betrachtung Als Folge dessen waren die deutschen Nachkriegsjahre von der Idee geprägt, Rundfunk als einen Dienst an der Öffentlichkeit, einen „Public Service“, 1 2
3
http://www.einstein-website.de/z_biography/redefunkausstellung.html. Friedell, E. (1989): Kulturgeschichte der Neuzeit, 3 Bde. (ursprünglich 19271931), München. Bittmann, J. (2007): Der Volksempfänger. Ein Erfolgsmodell. Im dritten Reich stand der Rundfunk im Dienst der Propaganda, in: Traunsteiner Tagblatt, http:// www.traunsteiner-tagblatt.de/includes/mehr_chiemg.php?id=667, 47/2007.
290
Jürgen Doetz
zu etablieren. Gerungen wurde um ein neues, von Staat und Politik unabhängiges öffentlich-rechtliches Rundfunksystem. Vor allem wohl deshalb wurde in der Vergangenheit, wenn es um den „Wert des Rundfunks“ ging, nahezu ausschließlich eine Seite des dualen Rundfunksystems beleuchtet – die öffentlich-rechtliche. Der öffentlich-rechtliche Rundfunk gilt seither noch immer Vielen in Politik und Öffentlichkeit als hoher gesellschaftlicher Wert per se, als Garant für Qualität und damit als unverzichtbarer, gebührenfinanzierter Teil der Daseinsvorsorge. Die Auseinandersetzungen um den 12. Rundfunkänderungsstaatsvertrag (RÄndStV), der voraussichtlich im Frühjahr 2009 in Kraft treten und den öffentlich-rechtlichen Auftrag auf das Internet ausweiten wird, haben das jüngst noch einmal eindrücklich gezeigt. Im Mittelpunkt der Diskussion stand vor allem der Wert und damit verbunden die Frage nach der Aufgabe des öffentlich-rechtlichen Rundfunks in der digitalen Ära – kein Wunder, spricht doch das Bundesverfassungsgericht in seinem Urteil vom September 2007 den kommerziellen Rundfunkanbietern ihren publizistischen und kulturellen Wert dem Grunde nach vollständig ab. Die Landesmedienanstalten versuchen dem privaten Rundfunk auf der anderen Seite wissenschaftlich nachzuweisen4, er wolle sich „seiner Doppelnatur als Kultur- und Wirtschaftsgut entledigen (…), um seine Programme künftig im Sinne der EUKommission nur noch als kommerzielle Dienstleistung zu verstehen“5.
Privater Rundfunk – „Pest für jede Kultur“ oder gesamtgesellschaftlich relevant? Schelte für den privaten Rundfunk hat wegen einer vermeintlich sinkenden Programmqualität regelmäßig Konjunktur. Abgesehen davon, dass diese Debatte zumeist verkürzt aus der bildungsbürgerlichen Perspektive geführt wird, werden die privaten Programme mit schöner Regelmäßigkeit ebenso pauschal wie unangebracht als Hauptursache gesellschaftlicher Fehlentwicklungen disqualifiziert – egal, ob es die Verrohung der Sitten bei der Jugend, die Verschuldung der Haushalte oder eine lange Zeit fehlgeschla4
5
Vgl. Schulz, W. / C. Kaserer / J. Trappel (Hrsg.) (2008): Finanzinvestoren im Medienbereich, Gutachten im Auftrag der Direktorenkonferenz der Landesmedienanstalten. Privater Rundfunk und Public Value – einige Forderungen der LMS angesichts aktueller Entwicklungen im dualen System; http://www.lmsaar.de/front_content.php?client=7&lang=3&idcat=101&idart = 797&m=&s, 2007.
Vom Wert des Rundfunks in der Netzwelt
291
gene Integrationspolitik betrifft: Die Privatsender sind schuld. Ginge es danach, müsste der Untergang des Abendlandes längst Realität sein. Soweit ist es zum Glück nicht. Wie aber steht es nun tatsächlich um den Wert des privaten Rundfunks in der heutigen Medienwelt und wie wird sich dieser perspektivisch mit einer wachsenden Digitalisierung und einem sich ändernden Mediennutzungsverhalten wandeln? Was den gesellschaftlichen Wert des privaten Rundfunks anbelangt, wird inzwischen niemand mehr ernsthaft auch die gesamtgesellschaftliche Relevanz des privaten Rundfunks bestreiten wollen. Der private Rundfunk hat sich mit mehr als 350 TV- und 230 Radioprogrammen, die hierzulande zu empfangen sind6, als wichtiger Garant für Vielfalt und wirtschaftliche Größe in der deutschen Medienlandschaft etabliert. Die privaten Hörfunkund TV-Sender beschäftigen heute gemeinsam über 23 000 Menschen – angrenzende Branchen nicht eingerechnet – und erzielen Nettoumsätze von mehr als 8,3 Milliarden Euro.7 Abgesehen von diesen wirtschaftlichen Eckdaten erfüllt der private Rundfunk, der noch zu seiner Gründungszeit als gesellschaftliche Gefahr – „gefährlicher als Kernenergie“ – und als „Pest für jede Kultur“ betrachtet wurde8, eine öffentliche Aufgabe. Er engagiert sich gesellschaftlich – sei es für die Integration von Bürgern mit Migrationshintergrund, für Menschen in Not oder zur Prävention von Alkoholmissbrauch bei Kindern und Jugendlichen. Vor allem aber leistet er seinen Beitrag zur Meinungsvielfalt und -freiheit. Er erfüllt das Bedürfnis nach Information, Orientierung und natürlich Unterhaltung ebenso wie nach Teilhabe an gesellschaftlich bedeutsamen Ereignissen. Das Angebot reicht dabei von hochwertigen Sport-, Informations- und Dokumentationsangeboten (z. B. DSF, Biography Channel, National Geographic Channel) über erfolgreiche Nachrichtenangebote (z. B. RTL aktuell, Spiegel TV, N24), politische Talkshows (z. B. Studio Friedmann, busch@n-tv), die Vermittlung von natur- und geisteswissenschaftlichen Inhalten auf unterhaltende Art (z. B. „Clever“, „Der große IQ-Test“), spezielle CoachingFormate, die sich mit sozial und gesellschaftlich relevanten Themen befassen (z. B. „Die Super Nanny“, „Raus aus den Schulden“), bis hin zu hochwertigen Spielfilmen (z. B. „Der Tunnel“, „The Day after Tomorrow“) und interessanten Serien (z. B. Mein Leben XXL, Rome), die gesellschaftlich 6
7 8
Vgl. Vielfalt durch privaten Rundfunk – Eckdaten einer Leistungsbilanz, Studie der Goldmedia GmbH im Auftrag des VPRT, 27. März 2008. Ebd. Die Anmacher, http://www.tagesspiegel.de/medien-news/Medien-PrivatsenderFernsehen; art290, 2339546, 15. Juli 2007.
292
Jürgen Doetz
relevante Themen auf den Bildschirm bringen sowie besonderen Angeboten für Kinder, die in Fernsehen9 und Hörfunk (z. B. Radio Teddy) anspruchsvolle Unterhaltung für Kinder und Jugendliche bieten. Pauschale Behauptungen, wie die von Bundesfamilienministerin Ursula von der Leyen, Fernsehen mache dick, dumm, traurig und gewalttätig10, sind daher ebenso fehl am Platz wie Forderungen nach noch mehr Auflagen und strengeren Kontrollen für den privaten Rundfunk, weil sonst nur noch „Schwachsinn produziert“11 würde. Privater Rundfunk leistet in ganz unterschiedlichen Bereichen einen durchaus wertvollen Beitrag zu dem, was spätestens seit der Diskussion um den 12. RÄndStV neudeutsch als „Public Value“ bezeichnet wird, auch wenn er sich im Verlauf der vergangenen 25 Jahre bis heute vielleicht stärker hin zu einem wichtigen Wirtschaftsfaktor mit hoher kultureller Bedeutung entwickelt hat.
Im Spannungsfeld zwischen Wirtschaft und Kultur In diesem Spannungsfeld wird sich die Rolle des Rundfunks auch in Zukunft bewegen. Die Erkenntnis, dass Kultur und Kommerz nicht ohne einander auskommen12, ist grundsätzlich sicher richtig. Wirtschaftlicher Erfolg und publizistischer (Mehr-)Wert sind für private Anbieter untrennbar miteinander verknüpft, denn die Privatsender sind Wirtschaftsunternehmen, die zwar einerseits dazu gezwungen sind, wettbewerbs- und gewinnorientiert zu arbeiten. Ihre Inhalte und Angebote, die sich aus dem Markt refinanzieren müssen, werden das aber andererseits umso erfolgreicher tun, je attraktiver sie sind, je mehr Zuschauer sie erreichen und je mehr Erlöse sie dadurch erzielen, die wiederum in interessante Inhalte investiert werden können. Im Spannungsfeld zwischen gesellschaftlichem und kommerziellem Wert des Rundfunks wird es in einer digitalisierten Medienwelt künftig 9
10
11
12
Derzeit sind neun private Kinderprogramme bei den Landesmedienanstalten lizenziert, u. a. Super RTL, Jetix, Junior, Playhouse, Toon Disney, Nick, Boomerang und Cartoon Network. „Unterschichtenfernsehen: TV ersetzt die reale Welt“, http://www.stern.de/politik/deutschland/: Unterschichtenfernsehen-TV-Welt/575310.html, 1. November 2006. Helmes, M. (2007): Sat.1 kann seine Sendelizenz verlieren: http://www.spiegel.de/wirtschaft/0,1518,494907,00.html, 17. Juni 2007. Schneider, N. (2008): Vom Wert der Medien: http://www.lfm-nrw.de/downloads/redeschneider 09062008.pdf, medienforum.nrw, 9. Juni 2008.
Vom Wert des Rundfunks in der Netzwelt
293
jedoch noch stärker als bisher von den ordnungspolitischen Spielregeln abhängen, wie sich beide Seiten der Medaille zueinander verhalten und von den privaten Anbietern gewichtet werden.
Aus dem Gleichgewicht: Rechte und Pflichten des privaten Rundfunks Hier steht die Medienpolitik in den kommenden Monaten – verbunden mit der Anpassung eines veralteten Rundfunkbegriffs – vor großen Herausforderungen, denn das System der Rundfunklizenzierung ist aus dem Gleichgewicht geraten. Für private Rundfunkunternehmen besteht keine Balance mehr zwischen den ihnen auferlegten Pflichten und den zugestandenen Rechten. Rundfunkprivilegien sind anders als früher nicht mehr vorhanden oder werden gezielt regulatorisch minimiert. Die Pflichten nehmen dagegen weiter zu. Gesetzgeber und Medienaufsicht fordern zwar die Erfüllung einer öffentlichen Aufgabe vom privaten Rundfunk ein. Auf der anderen Seite wird aber nicht sichergestellt, dass diese Aufgabe auch erfüllt werden kann. Befördert wird stattdessen die Expansion des öffentlich-rechtlichen Angebotes in sämtliche inhaltliche und technische Nischen. Dass damit die wirtschaftlich tragfähige Etablierung eines entsprechenden Public ValueAngebotes auf privater Seite immer schwieriger wird, gerät leicht aus dem Blick. Mit dem 10. RÄndStV wurden zudem die Privilegien des privaten Rundfunks beim Zugang zu den Netzen deutlich zurückgenommen und damit das Machtverhältnis zwischen Rundfunkveranstalter und Infrastrukturanbieter zu Lasten des privaten Rundfunks verschoben. Wenn – etwas überspitzt formuliert – bald nicht mehr oder nur noch eingeschränkt für alkoholhaltige Produkte, schnelle Autos oder süße und fetthaltige Nahrungsmittel geworben werden darf, drohen auf europäischer wie auf nationaler Ebene zusätzlich massive Einschnitte hinsichtlich der Werberefinanzierung. Dazu kommt ein dramatischer Wandel der Wettbewerbssituation bei den elektronischen Medien, die – ebenso wie die demographische Entwicklung – mindestens bei den klassischen Rundfunkveranstaltern unweigerlich zu Reichweitenverlusten führen wird13 – eine Entwicklung, die sich mit zunehmender Digitalisierung und einer Vielzahl neuer Konkurrenten aus dem Infrastruktur-, Telekommunikations- oder Internetbereich, die den Rundfunkmarkt für sich erschließen wollen, noch beschleunigt. Das, die 13
Weiß, H.-J. (2007): Private Fernsehvollprogramme 1998-2007, in: ALM Programmbericht: Fernsehen in Deutschland 2007, S. 37-66.
294
Jürgen Doetz
Zersplitterung der technischen Infrastrukturen, die Individualisierung der Mediennutzung und viele weitere Aspekte zunächst einmal außen vorgelassen, ist es also: dass die private Rundfunkseite die Risiken für ihre programmliche Vielfalt und Qualität weitgehend ohne große Abfederung oder Förderung allein zu tragen hat.
Sanktionen oder Privilegien? Public Value muss sich lohnen Es ist abzusehen, dass immer mehr private Rundfunkveranstalter das Regulierungsregime, dem sie derzeit unterworfen sind, aus gutem Grund in Frage stellen werden – vor allem dann, wenn möglicherweise künftig immer weniger von ihnen Reichweiten erzielen, die die bisherige Auflagenpolitik rechtfertigen. Das heutige System der Rundfunklizenzierung, die restriktive Rundfunkregulierung und die damit verbundene Auflagenpolitik sind durch die technischen und inhaltlichen Entwicklungen des elektronischen Medienmarktes überholt. Die deutsche Rundfunkregulierung bietet zudem nur eine unvollständige Abbildung der Realität, weil bestenfalls der Wettbewerb innerhalb des (öffentlich-rechtlichen und privaten) Rundfunks geregelt wird, der Wettbewerb mit anderen Branchen, die einer anderen Regulierung unterliegen, jedoch keine Berücksichtigung findet. Deshalb bedarf es einer grundsätzlichen Reform der Medienordnung, die der veränderten Wettbewerbssituation auf dem Rundfunk- und Medienmarkt Rechnung trägt und neue Angebots-, Zugangs- und Nutzungssituationen entsprechend berücksichtigt. Möglicherweise nähert man sich der Frage, ob und wie viel „Public Value“ der private Rundfunk bieten muss in einer digitalen Welt, in der die Nutzer in Fernsehen, Hörfunk und Internet aus einer Vielzahl von verschiedenen Medienangeboten wählen können, künftig weniger durch schlichten Aktivismus, Verbote, Auflagen oder ein Korsett aus strikten Regeln als vielmehr über ein neu austariertes, hinsichtlich der Meinungsbildungsrelevanz abgestuftes Regulierungssystem und entsprechende Honorierungen für bestimmte Angebote. Public Value muss sich lohnen – für den Empfänger wie für die Anbieter. Denkbar wäre deshalb, dass z. B. für Rundfunkangebote, die besonders meinungsrelevant sind, ein im Detail noch zu definierendes Anreizsystem greift – und zwar nicht nur bezogen auf medienkonzentrationsrechtliche Fragen, sondern auch mit Blick auf andere Bereiche wie z. B. Must Carry, Auffindbarkeit, Refinanzierung oder Zugang zu Kapazitäten. Ziel muss es sein, auf liberaler Grundlage eine rechtliche Basis zu schaffen, die die An-
Vom Wert des Rundfunks in der Netzwelt
295
gebots- und Anbietervielfalt stärkt, die der Gleichbehandlung vergleichbarer Medienangebote Rechnung trägt und die eine abgestufte, von der bisherigen Rundfunkzentrierung losgelöste Regulierungsdichte für die unterschiedlichen Medienangebote vorsieht. Für die Zukunft sollte demnach gelten, dass dem Rundfunk, soweit er eine spezifische Aufgabe im öffentlichen Interesse erfüllt, sie weiterhin erfüllen soll und dahingehend durch den Gesetzgeber mit besonderen Pflichten bedacht wird, besondere Rechte und Privilegien u. a. beim Zugang zu Frequenzen, zu Übertragungswegen und zum Zuschauer zugestanden werden. Sie sollten gemessen am jeweiligen Beitrag zur Meinungsbildung oder sonstigen gesellschaftlich relevanten Aufgaben in ein faires Verhältnis zu den Pflichten gesetzt werden.
Gebrauchs- und Stellenwert des Rundfunks in der vernetzten Gesellschaft Norbert Schneider hat einmal vorausschauend formuliert: „Nicht der Wert des Rundfunks hat sich verändert, sondern sein Gebrauchswert. Nicht seine Qualität, sondern deren manchmal schwer auffindbaren Orte in einer anschwellenden Quantität.“14 Genau das trifft mit Blick auf die Rolle und den Wert des Rundfunks in einer konvergenten, vernetzten Welt den Kern: Die klassischen Medien, wie Fernsehen und Hörfunk, werden ihre Rolle als Leit- und Massenmedien noch über eine lange Zeit behaupten, selbst wenn sie im Online-Zeitalter vor allem bei jungen Rezipienten etwas an Bindungskraft verlieren.15 Selbst wenn sich junge Zielgruppen im Netz einer Vielzahl von unterschiedlichen Aktivitäten widmen, gehen Medienexperten davon aus, dass der Medienkonsum insgesamt über verschiedene Plattformen wachsen wird – und zwar zusätzlich zum Fernsehen. Vorausgesetzt es werden hochwertige Inhalte geboten und die Marke ist klar definiert, kann sie nach Auffassung der Fachleute über alle Plattformen herunterdekliniert werden.16 Auch, wenn es heute zum Teil so scheint, als büße der Rundfunk an Stellenwert gegenüber anderen Medien ein, hat dieser doch gerade in einer zunehmend fragmentierten, vernetzten und durch die Digitalisierung geprägten Gesellschaft mit seinen hochwertigen, spannen14
15
16
Schneider, N. (2006): Dynamische Technik – Medien in einer beschleunigten Konvergenz: http://www.lfm- nrw.de/downloads/rede-schneider-061204.pdf. Vgl. Markt-Analyse – Am Ende des Wachstums? in: medienforum.magazin 2/2008, S. 4 f. Vgl. Neue Medien: Chance für das Fernsehen, in: text intern, 97, 3. Dezember 2008, S. 6.
296
Jürgen Doetz
den Inhalten – wie einst von Albert Einstein beschworen – die Chance, ein virtuelles Lagerfeuer und „Medium für Völkerverständigung“ zu sein, dessen Wirkungskreis in der Netzwelt auf das Internet ausgeweitet wird. Nahezu alle privaten Programmanbieter werden der Nachfrage nach individuell abrufbaren und interessengerechten Angeboten inzwischen durch neue digitale Spartenangebote und einem umfassenden Angebot im WWW gerecht.
„Content anytime, anywhere“ … Eine zentrale Herausforderung für die privaten Programmanbieter ist es heute, für sämtliche Plattformen zielgruppengerechte Inhalte zu produzieren. Schon seit Jahren verfolgen die Sender erfolgreich eine gezielte Diversifikationsstrategie zwecks Erschließung neuer Geschäftsfelder und Erweiterung der Erlösquellen. Schaut man sich die derzeit über die „neuen“ Plattformen verbreiteten attraktiven Inhalte an, wird man feststellen, dass sie zu einem ganz maßgeblichen Teil von den privaten Programmveranstaltern kommen. „Content anytime, anywhere“ heißt beispielsweise die Maxime der ProSiebenSat.1 Media AG, mit der dafür gesorgt wird, dass die bestehenden Ressourcen durch die Mehrfachverwertung von Inhalten effizienter genutzt werden können. Schon heute werden etwa sämtliche redaktionellen Inhalte des Nachrichtensenders N24 über einen gemeinsamen so genannten Newsdesk produziert und über verschiedene Kanäle, wie TV, Internet, Mobile und Podcast verbreitet.17 Auch die Mediengruppe RTL Deutschland arbeitet daran, mit ihren Inhalten auf allen Bildschirmen und im Internet präsent zu sein. Die analogen Programme wurden durch digitale Spartenkanäle ergänzt und auf den sendereigenen Websites können die Zuschauer via „Catch up TV“ eine am Vorabend verpasste Sendung nachträglich im Internet ansehen.18 Eine ähnliche Strategie verfolgen auch deutsche Pay-TV-Anbieter, wie z. B. die Premiere AG. „Erstklassige Qualität, Exklusivität oder die Eignung für eine spezielle Zielgruppe“ stehen hier ebenso im Fokus wie die Präsenz auf verschiedenen Plattformen19. So 17
18
19
Vgl. de Posch, G. / M. Englert (2008): Zukunft Fernsehen – Content is King Kong, in: Kaumanns, R. / V. Siegenheim / I. Sjurts (Hrsg.): Auslaufmodell Fernsehen? Perspektiven des TV in der digitalen Medienwelt, Wiesbaden, S. 166. Vgl. Schäferkordt, A. (2008): Wie und warum das lineare Fernsehen überlebt, in: medienforum.magazin 2, S. 7. Börnicke, M. (2008): Premium Pay-TV in Deutschland – Erfolgsfaktoren und Wachstumspotenziale, in: Kaumanns, R. / V. Siegenheim / I. Sjurts (Hrsg.): Auslaufmodell Fernsehen? Perspektiven des TV in der digitalen Medienwelt, Wiesbaden, S. 176.
Vom Wert des Rundfunks in der Netzwelt
297
investiert das Unternehmen „verstärkt in Rechte oder die Produktion von Programmen, die Synergien bei der Verwertung oder neue Angebote ermöglichen“ und kauft „Rechte möglichst plattformneutral für alle wichtigen Verbreitungswege“ ein20.
… und auf allen Verbreitungswegen Den privaten Medienanbietern fehlt es also nicht an Risikobereitschaft, Mut und Kreativität. Deutlich werden anhand dieser Beispiele vor allem zwei Dinge: Auch wenn die Digitalisierung eher als eine langsame und „leise Revolution“21 daherkommt, wird der Wettbewerb, geprägt durch den technologischen Wandel, neue Geschäftsmodelle und Zielgruppen hervorbringen, auf die sich die privaten Fernseh- und Hörfunkanbieter einstellen müssen, um ihren Stellenwert und damit auch ihren gesellschaftlichen Wert beim Verbraucher zu halten und erfolgreich auszubauen. Sie müssen auf allen Verbreitungswegen dabei sein, um zum Endkunden zu gelangen. Hierher gehört deshalb auch die Frage der Refinanzierung der für die Digitalisierung notwendigen Investitionen und der entstehenden Kosten – etwa für den Aufbau und die Bereitstellung der technischen Infrastruktur, für den Einkauf von Rechten oder die Produktion neuer Inhalte – zu sehr zentralen ordnungspolitischen und wirtschaftlichen Aspekten.
Vielfalt der Angebote – Fluch und Segen zugleich Ein noch viel eklatanteres Problem wird in einer Web 2.0-Welt in diesem Zusammenhang mit steigender Zahl der Angebote in der digitalen Vielfalt künftig, wie oben angedeutet, die Frage der chancengleichen Auffindbarkeit sein. Die große Menge verschiedenartiger Medienangebote ist für Konsumenten wie Anbieter Fluch und Segen zugleich: Denn letztlich muss sich jeder Veranstalter mit unzähligen anderen Angeboten messen lassen und dabei den Weg zum Zuschauer oder Hörer finden respektive gefunden werden. Auf vielen Übertragungswegen wird es zwar auch mittelfristig 20 21
Ebd. Schneider, N. (2008): Faktoren des Wandels – Massen- und Individualmedien auf dem Weg in eine digitale Gesellschaft, in: Kaumanns, R. / V. Siegenheim / I. Sjurts (Hrsg.): Auslaufmodell Fernsehen? Perspektiven des TV in der digitalen Medienwelt, Wiesbaden, S. 27.
298
Jürgen Doetz
noch Kapazitätsengpässe geben. Für die Zukunft ist allerdings von einer digitalen Welt auszugehen, in der theoretisch jedes Angebot grundsätzlich zum Kunden kommen kann und dabei zumindest keine technischen Hindernisse überwinden muss. Die Anforderungen an die Regulierung werden diesbezüglich deshalb weniger in der Mangelverwaltung knapper Kapazitäten, als in der Festlegung transparenter und chancengleicher Bedingungen beim Zugang zum Nutzer liegen. Hier sind jedoch wesentliche Fragen bislang nicht oder nicht ausreichend geklärt – etwa, wenn es darum geht, wie sich der diskriminierungsfreie Zugang von inhaltlichen Plattformanbietern zu Netzinfrastrukturen gestaltet, die in der Hand von vertikal integrierten Infrastrukturanbietern liegen. Unklar ist, wie die Vielfaltsicherung bei Kapazitätsengpässen, in der vertikalen Integration oder bei proprietären Plattformmodellen vonstatten gehen kann. Insbesondere wenn der Netzund Plattformbetrieb mit dem Angebot oder der Vermarktung von eigenen und fremden Inhalten aus einer Hand einhergeht, besteht potenziell die Gefahr einer Beeinträchtigung der Rundfunk- und Meinungsfreiheit. Es bedarf neben der telekommunikations- daher auch der medienrechtlichen Regulierung. In jedem Fall muss eine Vielfalt sowohl im Angebot als auch in der Vermarktung gewährleistet werden. Und da auch der Zugang zu Netzen und Plattformen künftig noch keine absolute Gewähr für eine chancengleiche Auffindbarkeit der Programme bietet, werden elektronische Programmführer und Navigatoren von besonderer Bedeutung sein, um das sicherzustellen.
25 Jahre privater Rundfunk – Konstanz und Flexibilität in der Netzwelt In einer technologisierten, vernetzten Welt, in der neue Medien den Alltag der Medienkonsumenten prägen und das Internet, die Art und Weise revolutioniert, wie Medien genutzt werden, wird der Wert des Rundfunks trotz der Anpassungen an neue Entwicklungen ein Stück weit auch in seiner Konstanz und Verlässlichkeit liegen. All jenen, die das Gespenst eines Mediendarwinismus an die Wand malen und den klassischen Rundfunk bereits als Auslaufmodell22 betrachten, sei an dieser Stelle noch einmal das so genannte Rieplsche Gesetz23 in Erinnerung gerufen: In der gesamten 22 23
„Abschied vom Pantoffelfernsehen“ in: Horizont, 11. Dezember 2008, S. 6. http://de.wikipedia.org/wiki/Rieplsches_Gesetz.
Vom Wert des Rundfunks in der Netzwelt
299
Mediengeschichte ist seit Beginn des Buchdrucks bis heute noch kein Medium durch ein neues komplett verdrängt worden. Der Hörfunk wird deshalb noch lange der Tagesbegleiter Nr. 1 für die Menschen sein und das Fernsehen als Massenmedium in seiner Grundfunktion als „Lean backMedium“ bleiben. Auch wenn die heute 14- bis 19-jährigen inzwischen mehr Zeit im Netz als vor dem TV-Bildschirm verbringen24, zeigen doch Beispiele wie das Experiment „Second Life“, dem nach und nach zahlreiche Unternehmen den Rücken kehren25, dass es nicht lohnt, jedem „virtuellen“ Trend bereitwillig hinterherzulaufen, was nicht heißt, dass Märkte sich nicht grundlegend verändern, Geschäftsmodelle nicht überdacht werden müssten und Werte sich nicht wandeln. Denn das Internet entwickelt sich mit beispielloser Geschwindigkeit und das so genannte Web 2.0 ist mit seinen Blogs, Communities, Podcasts und zahlreichen interaktiven Angeboten im Alltag der Mediennutzer allgegenwärtig. Genau darin aber liegt eine große Chance für den Rundfunk, weil die Menschen auch auf den neuen Plattformen vorwiegend das suchen werden, was sie von ihrer bisherigen Mediennutzung her kennen. Konvergenz und Interaktivität hin, Selbstbestimmung her: Fernsehzuschauer und Radiohörer werden auch künftig im Wesentlichen auf der Suche nach seriöser Information, verlässlicher Orientierung und spannender Unterhaltung sein. Mit der Gründung des privaten Rundfunks wurden Fernsehen und Hörfunk vor 25 Jahren quasi noch einmal ein wenig neu erfunden. Die Privatsender haben experimentiert, sind Risiken eingegangen, hoben zahlreiche erfolgreiche neue Formate aus der Taufe – trotz aller ordnungspolitischen Hürden und einem immer finanzkräftigeren öffentlich-rechtlichen Konkurrenten. Wer, wenn nicht diese Unternehmen, hätte mit all den Erfahrungen, die seither gesammelt wurden, das Know-how und die notwendige Flexibilität, ihrer gesellschaftlichen Aufgabe auch in einer konvergenten Medienlandschaft nachzukommen und den Bedürfnissen der Konsumenten zu entsprechen? Der Wert und die Zukunft des (privaten) Rundfunks liegen – allen Medien- und Kulturkritikern zum Trotz – deshalb auch künftig in seinen attraktiven, flexibel verfügbaren Inhalten und Marken. 24 25
ARD/ZDF-Online-Studie 2008: http://www.ard-zdf-onlinestudie.de. „Mercedes verabschiedet sich aus Second Life“, http://www.horizont.net/aktuell/digital/pages/protected/Mercedes-verabschiedet-sich-aus-Second-Life_75314. html, 20. März 2008 sowie „Aus für den Avatar: Springer beerdigt „Bild“Ableger bei Second Life, http://www.faz.net/s/Rub4C34FD 0B1A7E46B88B0 653D6358499FF/Doc~ED998E3D7BDBA4B2AB5B7C7611072985F~ATpl~ Ecommon~Scontent.html, 25. November 2008.
300
Jürgen Doetz
Über den Autor Jürgen Doetz, geb. 1944, war nach einem Studium der Politik, Geschichte und Soziologie war von 1971 bis 1982 zunächst Pressesprecher und später stellvertretender Regierungssprecher in Rheinland-Pfalz. 1982 wurde er Geschäftsführer der PKS Programmgesellschaft für Kabel- und Satellitenrundfunk mbH, aus der 1985 der Fernsehsender SAT.1 hervorging, dessen Geschäftsführer er bis 2004 war. Von 2000 bis 2004 hatte er zudem den Vorstandsposten „Medienpolitik und Regulierung“ bei der ProSiebenSat.1 Media AG inne. Seit 1985 vertritt Jürgen Doetz die Interessen des privaten Rundfunks in der Medienpolitik. Er war fünf Jahre Präsident des Bundesverbandes Kabel und Satellit (BKS) und ist seit 1996 Präsident des Verbandes Privater Rundfunk und Telekommunikation – seit Oktober 2006: Verband Privater Rundfunk und Telemedien (VPRT).
Wandel der Medienqualität: Reduktion und/oder Substitution?
Dieter Klumpp Die seit dem „medienpolitischen Urknall“ vor 25 Jahren1 immer intensiver diskutierte Frage nach der künftigen „Finanzierung von Qualitätscontent“ enthält bereits die Feststellung „Qualitätscontent im Wandel“ mit der Vermutung einer Qualitätsreduktion sowie die Folgefrage „Ersetzen neue Angebote klassische Medien?“. Hinter dem Begriff „Qualitätscontent im Wandel“ steht eine seit den achtziger Jahren durchaus kontinuierliche Entwicklung, die sich in der gesamten Medienbranche – wie in anderen Wirtschaftsbranchen auch – durch betriebswirtschaftliche Optimierungen in einer Wettbewerbswirtschaft kennzeichnen lässt. Dieser Wandel kann in einer ersten Näherung beschrieben werden als ein Beitrag zur kostenoptimierten Produktherstellung auch von Informationsgütern in starker Abhängigkeit von der Nachfrage. Die Frage nach der Substitution „klassischer“ durch „neue“ Medien erbringt mit Blick auf die – als nachfragende Marktsubjekte unverzichtbaren – Konsumenten nur eine durchaus ambige Antwort: Gewiss wird einerseits vielfach und lapidar festgestellt: Die Printmedien sind in der Krise, das Fernsehen verliert Zuschauer, und „die Jugend geht ins Internet“, womit eine Substitutionsvermutung im Diskussionsraum steht. Andererseits ist aber der Zusammenhang zwischen beidem – dem „Klassischen“ und dem „Neuen“ – nicht eindeutig herzustellen, wenn man sich vor Augen hält, dass offensichtlich schon die quantitative Nachfrage nach „Information“ in den letzten Jahrzehnten nicht annähernd so stark gestiegen ist wie das Angebot und der Konsum von anderem Content, etwa Musik oder Unterhaltung.
1
Vgl. Mai, M. (2005): Medienpolitik in der Informationsgesellschaft, Wiesbaden.
302
Dieter Klumpp
Wenn denn die plausible Annahme stimmt, dass es in den „klassischen“ Medien eine nachfragebedingte Reduktion von Contentqualität gibt, dann ist diese medieninstitutionell durch „neue“ Angebote nicht aufzufangen – was weg ist, ist weg. Eine Reduktion der klassischen Medienqualität bis hin zum Ende von kompletten Geschäftsmodellen und damit der Existenz dieser Medien ist wegen ihrer Funktionen für eine demokratische Öffentlichkeit gesellschaftspolitisch bedeutsam. Gero von Randows Hinweis2, dass dies nicht im Begriffspaar „klassisch-neu“ abgehandelt werden kann, ist völlig zutreffend: „Dass die Öffentlichkeit atomisiert werde, diese Klage wird seit einiger Zeit geführt. Sie ist älter als das Internet, und sie ist ernst zu nehmen“. Die Erklärungsansätze sind vor allen Dingen deswegen so vielfältig und schwierig, weil mit Begriffen operiert werden muss, die bei genauer Betrachtung ebenso schwammig wie komplex sind, allen voran die „Qualität“. Die „Qualität von Medien-Content“, also „Medien-Inhalten“, umfasst funktional wie metaphorisch ganz Gegensätzliches wie „Essen und Trinken“, aber auch „Kochen und Essen“ oder „Weinbau und Prädikatswein“. Der Sammelbegriff entzieht sich nicht nur jeglicher empirischer und nichtempirischer Wissenschaft, sondern im Hinblick auf seine Funktion sogar einer methodischen Approximation. In solchen Fällen bleibt immerhin die als objektiv ausgegebene Meinung, und letzteres ist wiederum als Alltags-Hermeneutik empirisch belegbar. Gewiss, man kann Erzeugnisse des menschlichen Geistes zu verstehen oder wenigstens zu erklären versuchen, wobei ein Wilhelm Dilthey gewiss nicht einverstanden wäre, dass auch Geschehnisse, die man nicht verstanden hat, dennoch erklärt werden können. Dem Begriff „Qualität von Content“ ist nur mit der Einschränkung auf die Gewinnung, Verarbeitung und Perzeption von solchen „Informationen“ einigermaßen diskutierbar, die in der „klassischen“ Journalistik „Nachricht“ genannt wurden. Schon die davon unterschiedene Kategorie „Kommentar“ entzieht sich einer vergleichenden Qualitätsbewertung: Ein im Vergleich hochqualitativ verfasster und unterlegter Kommentar wird alltagsweltlich von all denen nicht kaufkräftig nachgefragt, die eine darin enthaltene Meinung oder Auffassung nicht teilen. Gemäß dem grausamen, aber seit Tausenden von Jahren unerschütterlichen Marktmechanismus heißt dies, dass „Kommentare“, die sich im Markt auch an Nichtinteressierte oder Andersdenkende richten, mindestens einen geldwerten Zuschuss brauchen, 2
von Randow, G.: Geistesaristokratie, in: Die ZEIT v. 28.5.2009.
Wandel der Medienqualität: Reduktion und/oder Substitution?
303
sei es nun eine Quersubventionierung durch anderen, mehr nachgefragten Mediencontent, eine Finanzierung durch Gleichdenkende (seien sie nun Abonnenten oder Verleger) oder letztlich eine Gebührenumlage bei allen, die guten Willens sind (Philanthropen) oder keinen eigenen Willen haben (Steuerzahler). Aus diesem Mechanismus erklären sich marktwirtschaftlich nicht nur die Gebührenfinanzierung des Grundauftrags der öffentlich-rechtlichen Anstalten, sondern auch die Notwendigkeit der Grundfinanzierung von KulturContent sowie im Kern die Umlagefinanzierung jeglichen gesamtgesellschaftlich gewollten und erhaltenswerten Contents. Er erklärt auch, warum gerade bei populären Massenmedien, die sich an verkaufter Auflage oder Quote zu orientieren haben, der „Kommentar“ in seiner berechenbaren Grundlinie möglichst populistisch „middle of the road“ ausgerichtet sein muss. „Berechenbar“ im Sinne von Marktsubjekten ist der tatsächliche materielle oder ideelle Nutzen, den man als Konsument beim Kauf erwarten darf. Die „Ware Information“ unterliegt bekanntlich dem Informationsparadox, demzufolge der Wert einer Information erst dann bestimmt werden kann, wenn man sie vollständig hat. Die Implikationen für eine „Internetökonomie“3 und für die „Informationsgesellschaft“ sind hinreichend beschrieben, sie sind auch ein Grund für permanente Plädoyers, „Mittelwege zur Informationsgesellschaft“4 zu suchen. Der Marktwert eines Mediums aus Sicht des Konsumenten bestimmt sich aber nicht allein aus dem – nahezu völlig kontextabhängigen – Wert der zu erwartenden Nachricht. Es gibt Indizien dafür, dass die Nachfrage nach Information einem bedeutsamen Wandlungsprozess unterliegt, der qualitäts- und ökonomieneutral erfolgt.
Medien auf Abruf oder Abonnenten auf Abruf? Im Wandlungsprozess steht die Frage „Medien auf Abruf“. Die deutsche Sprache lässt einen Doppelsinn des Worts „Abruf“ zu. Einmal bedeutet er natürlich die Übersetzung des englischen „on demand“, also „auf Nachfrage“, zum anderen aber auch „auf Abruf“ – sozusagen am Ende einer Funktion zu sein, die Schuldigkeit getan zu haben. 3
4
Vgl. Zerdick, A. et al. (1999): Die Internet-Ökonomie. Strategien für die digitale Wirtschaft, Berlin Heidelberg New York. Vgl. Klumpp, D. (2001): Die schwierigen Mittelwege zur Informationsgesellschaft, in: Schierl, T. et al (Hrsg.).; Politik, Medien, Technik, Festschrift für Heribert Schatz, Wiesbaden, 2001, S. 434-457.
304
Dieter Klumpp
Seit Mitte der neunziger Jahre, vollends aber in den letzten fünf Jahren, kann ich im eigenen Freundes- und Bekanntenkreis ein zunächst unerklärliches Bekennertum von langjährigen ZEIT-Abonnenten beobachten, das sich plausiblerweise in Statistiken gar nicht widerspiegeln kann. Den durchgängigen Tenor der Aussagen stellt die Formulierung dar „Ich komme in letzter Zeit gar nicht mehr dazu, die ZEIT zu lesen“. Es sind mittlerweile nur knapp zwei Dutzend solcher „Bekenner“ aus der Altersgruppe 37-67, Männer wie Frauen, Beschäftigte wie Pensionierte, wahrscheinlich also die „typischen“ ZEIT-Leser, ohne Ausnahme jahrzehntelange Abonnenten. Allesamt also politisch, wirtschaftlich und kulturell Interessierte, mit offenem Blick für das Weltgeschehen, keiner in wirtschaftlichen Nöten. Das Bekenntnis ging regelmäßig weiter mit „eigentlich könnte ich das Abonnement abbestellen, aber ich habe doch gar keinen Grund dafür, die ZEIT ist doch gut und wichtig wie immer“. In keinem Fall gab es irgendeine Kritik an der Qualität des Blattes oder seiner Macher, im Gegenteil: „Man muss die doch unterstützen“ und: „die sind doch besser als diese Schlagzeilenmacher“. Bisher einzige Ausnahme war ein befreundeter Hochschullehrer, der sich über einen Gast-Kommentar eines Bildungsforschers derart geärgert hatte, dass er sein Abonnement wutentbrannt kündigte; dies war jedoch unschwer als „gefundener Anlass“ zu interpretieren, wenngleich nicht zu beweisen. Und in keinem Fall stand irgendein Medien-Substitut in Rede, schon gar nicht ein Online-Medium, auch nicht „ZEIT online“. Die Frage nach dem „warum?“ wäre selbst für das Verlagsmanagement – mangels statistischer Erfassbarkeit – nur spekulativ zu beantworten. Ausgerechnet die konkurrenzlose Wochenzeitung „Die ZEIT“ mit ihren 84 Prozent Abonnenten, die sich allesamt einer „Informations-Elite“ (respektive einer „Informationsminderheit“) der „oberen“ drei Prozent von „Informierten“ zuordnen lassen, hat demnach bei sogar leichtem Zuwachs der Abonnentenzahlen (2008) einen Nachfrageschwund von „real-tatsächlichen Lesern“ zu verzeichnen. Diesen Argwohn, dass Käufer nicht zwangsläufig Leser sind, hat die Buchbranche schon lange, aber auch ungelesene Bücher stehen zuhause wenigstens in den Regalen, so lange die Buchrücken farblich zur Einrichtung passen. Im Bereich des Fernsehens entspräche diese Situation der Aussage „Stell dir vor, das Programm läuft, aber trotz bereits bezahlter Gebühren schaut niemand hin“. Allerdings hat das Fernsehen – anders als die Printmedien – neben der Gebührenzahlung noch eine weitere Messmöglichkeit, nämlich die „Quote“. Scharfsinnig hat dies Peter Paul Kubitz in der ZEIT5 im Oktober 1997 im Hinblick auf die Auslandsberichterstattung von ARD und ZDF unter dem 5
http://www.zeit.de/1997/10/weltspie.txt.19970228.xml
Wandel der Medienqualität: Reduktion und/oder Substitution?
305
Titel „Immer mehr Blitzlichter – kaum mehr Hintergrund“ aufgegriffen: „Noch erfreuen sich die beiden renommierten Sendungen zwar relativ konstanter Zuschauerzahlen (3,4 und 2,8 Millionen Zuschauer 1996); aber weder Jürgen Thebrath, seit 1994 ‚Weltspiegel’-Chef des WDR, noch Joachim Holtz, seit 1993 Hauptabteilungsleiter Außenpolitik beim ZDF, machen sich etwas vor: Verschärft sich die wirtschaftliche Krise in der Bundesrepublik – und es sieht ja ganz danach aus –, ‘werden sich die Leute lieber mit sich selbst beschäftigen’, prophezeit Holtz“. Das war 1997, in den letzten zwölf Jahren haben sich die Zuschauerzahlen des Weltspiegels um fast 20 Prozent auf 2,8 Millionen reduziert, die des Auslandsjournals auf 1,5 Millionen fast halbiert. Nota bene: Das „Lagerfeuer“ insgesamt, um das herum man mit Vielen gleichzeitig sitzen konnte, ist schon seit 1984 mit der Programmvielfalt kleiner geworden, ein größeres, etwa „digitales“ Lagerfeuer wird nicht entstehen. Die Antwort der Anstalten war im letzten Jahrzehnt eine „Strukturreform“, etwa beim WDR: „Der Lust am provinziellen Vollprogramm scheint – zumal sich die Dritten Programme generell und wider Erwarten zunehmender Beliebtheit erfreuen – am Appellhofplatz zu wachsen. Da wird zum Beispiel die West-3-Reihe „Reporter“ eingestellt, die sich immerhin zu fünfzig Prozent mit Auslandsthemen befasste. Konjunktur haben stattdessen am Rhein mehr denn je Ratgeber-und Servicesendungen sowie regionale Nachrichten“ bemerkte Kubitz6 in der ZEIT dazu. Gegen eine Reduktion von Nachfrage nach Auslandsinformation seitens des Publikums ist angesichts des – nicht nur aus betriebswirtschaftlicher Sicht – harten Urteils, demzufolge etwas, das die Zuschauer nicht einmal kostenlos wollen, wohl schwerlich mit „On-Demand-Modellen“ substituierbar ist. Es gibt darauf nur eine schmerzliche Antwort: Dann und nur dann, wenn „Auslandsberichterstattung“ als Teil eines gesellschaftlich erhaltenswürdigen „Kultur-Content“ verstanden und die Auslandsberichterstattung quersubventioniert wird, ist sie in allen Medienformen in einer – wie immer zu definierenden – Mindestqualität zu halten. Auslandsberichte gehören überwiegend zur Kategorie der Nachrichten, auch wenn sie im Verständnis demokratischer Gesellschaften – dies ist ein extra zu behandelnder Punkt – im globalen Spiel der Kräfte weit mehr Funktionen haben. Auslandsberichterstattung aber ist ohne Zweifel teuer, vor allem durch den Vorhalt von Korrespondenten, aber auch durch höheren zeitlichen Aufwand bei der Verifikation von Nachrichten. Die Überprüfung von eingehenden Nachrichten vor der Weitergabe an Leser und Zuschauer ist unstrittig ein relevantes 6
Kubitz (Fn. 5).
306
Dieter Klumpp
Qualitätsmerkmal. Uwe Schmitt sagt es überdeutlich in seinem markanten Beitrag über das Zeitungssterben: „Guter Journalismus mit gründlichen Recherchen und der nötigen Unabhängigkeit von Politik, Verbänden, Unternehmen kostet Geld. Umsonst ist Online und der Tod, was frei ist, ist auf Dauer nichts wert.“7
„Rohstoffveredlung“ Nachricht? Einem Medien-Qualitätsbegriff, der über der Zeitachse einen validen Vergleich erlaubt, kann man sich also am ehesten über die Contentkategorie „Nachricht“ nähern. Einzelne Eigenschaften des Produkts „Content“ sind durchaus je für sich messbar. Zur „Rohstoffveredlung“ der Nachricht gehört unzweifelhaft nicht nur in der Journalistik die Recherche und Überprüfung von vorliegenden Nachrichten, deren Einordnung in den jeweiligen Kontext sowie der Vergleich mit der gesamten Nachrichtenlage. Hier ist ein Wandel erfolgt. Hilfsweise kann man sich die Gestehungskosten von Nachrichten anschauen. Die ZEIT vom 30.09.1994 schrieb über den Marktwettstreit der „klassischen“ Wochenmagazine angesichts des nach dem Fokus ebenfalls neu platzierten Objekts „Tango“: „Noch bevor der Wettbewerb zwischen den Wochenmagazinen (Stern, Spiegel, Focus und jetzt noch Tango) so richtig losgeht, hat die neue Info-Illustrierte schon einen Preis gewonnen: den Anzeigenpreis. Tango ist der billigste Eintänzer, den die Branche je gesehen hat“. Abgesehen von möglichen Dumpingstrategien darf man unterstellen, dass die Endprodukte unterschiedliche Herstellungskosten im Markt erlösen müssen. Darin spielt auch der hier besprochene Qualitätsbegriff von Content eine Rolle, denn, so hat die ZEIT im selben Artikel beobachtet, „die Verlagsspitzen sparen Journalisten ein und aus. Willkommen da oben sind dagegen Drucker, Betriebswirte, Controller. Und Journalisten? Sie werden zu Ausgabeposten, sind ‚kostenmäßig’ zu optimieren“. Der Gestehungskostenunterschied zwischen den Magazinen war eindeutig größer als der Preisunterschied am Kiosk – ein Blick ins Impressum8 auf die Dokumentationskräfte und Auslandsvertretungen macht das deutlich. Der von allen am Standort Deutschland heute bemühte Merksatz „Wir müssen 7 8
Schmitt, U.: Das große Zeitungssterben, in: Welt Online vom 15. April 2009. Dies ist nur in Heft-Sammlungen möglich, das Netz „vergisst doch“ – das Impressum des Spiegel der letzten Jahrzehnte steht nämlich nicht im Netzarchiv.
Wandel der Medienqualität: Reduktion und/oder Substitution?
307
um so viel besser sein, wie wir teurer sind“, wird vom unbeeinflussbaren Marktmechanismus nicht unterstützt. Die Beobachtung der ZEIT zum „Willkommen“ und den „Ausgabeposten“ ist sicher zutreffend. Ein Drucker – gemeint ist eine Druckfachkraft – hat nach Optimierung seiner Arbeitskosten im Prozessablauf keinen Spielraum mehr, mithilfe von Qualitätsabsenkung weitere Kosten pro Druckseite zu sparen. Hingegen kann ein Journalist seine Nachrichten-Zeilen pro Druckseite (oder Sendeminute) durch Einsparung von Nachrecherchen qualitativ absenken. Nimmt man einer Redaktion bei gegebenem Aktualitätsdruck und Wettbewerbsdruck hinreichend Kapazität weg, kann die Nachrichten-Weiterverarbeitung sich nach dem Weglassen von Überprüfung bis hin zum völligen Aussparen des Nachdenkens zeitlich auf das Schreiben und Eintippen (bzw. das Einkopieren bis hin zum Schwarzkopieren) asymptotisch einpegeln. Auch der nach einer Spitzenausbildung im Metier kundigste und erfahrenste Redakteur kann unter diesen prekären Rahmenbedingungen („keine Zeit und kein Geld“) kaum bessere Qualität abliefern als der Praktikant von der Medienhochschule. Man kann seit vielen Jahren schon hinreichend genau eine Tendenz beschreiben, nach der die Nachrichtenfront von den klassischen Mustern des Journalismus gemäß der „Fünf W’s“, also „wer-wann-wo-was-wie?“ – und zwar nur noch von diesen, meist ohne die beiden weiteren „warum und welche Folgen?“ – strukturell geprägt ist.
Rohstoff „Nachricht“ Gerade im Nachrichtengeschäft ist auch die Rolle der Nachrichtenagenturen im Wandel. „Nachrichtenagenturen sind Großhändler, die als Zulieferbetriebe die Medien mit dem Rohstoff Nachricht versorgen. In jüngster Zeit ist die hart umkämpfte deutsche Agenturszene mächtig in Bewegung geraten. Spektakulärstes Ereignis: der Ausstieg der WAZ-Gruppe aus dem Vertrag mit Marktführer dpa. Im Gefolge von Medienkrise und sinkenden Printauflagen macht den Agenturen auch die zunehmende InternetPiraterie zu schaffen. Die digitale Ära zwingt die Nachrichtengroßhändler mehr denn je in den Spagat zwischen Grundversorgung und Profilschärfung“. Unter der Überschrift „Rohstoff Nachricht – Sparsames Grundrauschen“ zeigt Günter Herkel im Journalisten-Verbandsblatt deutlich auf: „Schon 2003 wurde die dpa wegen ihrer vergleichbar hohen Preise bei kontinuierlich sinkenden Auflagen kritisiert. (…) Der Wettbewerb werde ‚nicht über den Journalismus ausgetragen, sondern über die Preise’ erkannte
308
Dieter Klumpp
schon damals dpa-Chefredakteur Herlyn.“ Und Herlyn selbst sagte im Interview: „Wie die Angebote (unserer Mitbewerber) zustande kommen, kann ich nur raten. Wir alle wissen, dass die französische Agence France Presse vom Staat subventioniert wird. 40 % des Etats von AFP wird von Paris bezahlt“. Herlyn konstatiert, „(…) dass man Informationen aus dem Web herausnehmen kann, ohne diese Informationen zu bezahlen. (…) Der Journalismus ist wesentlich schneller geworden. Er ist manchmal quick and dirty wegen des Konkurrenzdrucks. Der Wettbewerb bewirkt, dass die Nachrichtenagenturen in Echtzeit produzieren müssen. (…) Wir haben jetzt immer Prime Time, immer Hauptproduktionszeit – egal, zu welcher Stunde.“ 9 Diese Struktur lässt sich übrigens von den Agenturen nicht ohne weiteres in die multimedial „konvergente“ Netzwelt übertragen. „Das 2007 gestartete Video-Angebot der dpa scheiterte mangels Kundschaft, ein überarbeitetes Konzept wird gerade getestet. Ob der neue Ansatz über ‚kleine Blaulicht-Reportagen’ (Branchenjargon für Unfall- und Katastrophenberichte) auf lokaler Ebene (gefertigt von bimedial ausgerüsteten Reportern – hinausgeht, bleibt noch abzuwarten.“ Neben den lokalen und regionalen Katastrophen sind bekanntlich zeitkritische Enthüllungen von Skandalen durchaus im beschriebenen Sinne „Middle-of-the-Road“-Nachrichten für ein breites Publikum. Auch wenn in Wirklichkeit die der Enthüllung vorausgehende Recherche gar nicht von den Medien selbst geleistet wird, sondern diese meist nur die institutionelle Plattform für Insider-Informanten darstellen, wird diese „Funktion“ von Medienvertretern gerne herausgestellt. Der „so genannte Enthüllungsjournalismus (ist) heute breiter aufgestellt als früher“ befindet Hans-Ulrich Jörges, Mitglied der Chefredaktion des Stern: „Alle Skandale der jüngsten Zeit wurden durch Medien aufgedeckt“. Hier sind Zweifel angebracht: Was nicht einmal bei der Watergate-Affäre von Bob Woodward und Carl Bernstein ohne heftiges Zutun von „Deep Throat“ (alias seit 2005: FBIAssociate Director Marc Felt) gelang, war auch dem ZDF nicht möglich, das monatelange Forschungen über den Fall Kurras in den Stasi-Unterlagen durch den Mitarbeiter der Birthler-Behörde Helmut Müller-Enberg erst nach dessen Alarmierung der ZDF-Redaktion als eigene journalistische Großtat ankündigte. Die „Enthüllungsarbeit“ des ZDF bestand vor allem darin, als erstes TV-Team an der Haustüre von Kurras zu stehen.
9
Herkel, G. (2009): Milchmädchenrechnung. dpa-Chefredakteur Wilm Herlyn über neue Module und Content-Klau, in: Menschen machen Medien, Medienpolitische ver.di-Zeitschrift Nr. 5/2009, S. 16.
Wandel der Medienqualität: Reduktion und/oder Substitution?
309
Der taz-Mitbegründer Tom Schimmek10 hielt auf dem taz-Kongress Mitte April 2009 denn auch solchem investigativen Selbstbewusstsein entgegen: „Wir haben seit über zehn Jahren dreieinhalb Leitmedien und 500 Gleitmedien. Es singen alle das gleiche Lied und bestimmte Sachen werden komplett ausgeblendet.“11 Tom Schimmek blieb – sicher aus Zeitmangel – den Nachweis schuldig, dass wir „dreieinhalb“ Leitmedien haben und auch seine Aussage, dass es 500 Gleitmedien gibt, scheint nicht exakt nachrecherchiert zu sein. Denn die Zahl der in Berlin ansässigen Verlage beträgt alleine schon 500, hinzu kommen 45 Radiostationen und neben fünf großen TVHauptstadtstudios auch noch Vertretungen ausländischer Sendeanstalten (vgl. Berliner-Adressen.de). Außerdem: Mit dem „gleichen Lied“ berichten die Gleitmedien ja nichts als die ganze Wahrheit, denn andere „bestimmte Sachen“ gibt es nicht, sonst würden sie ja in den Medien stehen. Ganz ohne Ironie: Tom Schimmeks Einschätzungen auch des Qualitätswandels in der Journalistik sind völlig zutreffend. Schmerzlich deutlich wird dies bei den freien Journalisten: gerade als „Freier“ kann man von Qualitätsarbeit nicht leben, einen „Zettels Traum“ (Arno Schmidt) muss man sich mit Gelegenheits-Arbeiten verdienen.
Qualität von Nachrichten – kurz, schnell und pseudo-exakt Nicht nur die Katastrophenberichterstattung steht in einem rettungslosen Wettbewerb von publizistischen Akteuren, die sich nach einem Ereignis der Kürze und der Eile wegen nur noch an dem Fünf-W-Gerippe festkrallen können, notfalls mit einer mittlerweile hoch entwickelten PseudoExaktheit. Unvergessen bleiben wird die erste Meldung vom großen Erdbeben in China am 13. Mai 2008, in der es hieß, dass bei diesem „stärksten Erdbeben seit Jahrzehnten nach Angaben der chinesischen Regierung vier Todesopfer zu vermelden sind“. Der aktuelle Nachrichtenredakteur hatte keine Zeit, darüber nachzudenken, dass ein solch gewaltiges Erdbeben in China mehr als nur eine Handvoll Todesopfer zeitigen musste. Erst nach Eintreffen weiterer aktueller Meldungen wurde stündlich der „Body10
11
Schimmeck, T. (2007): Haltungen, Popper und Moneten, Rede zur Jahreskonferenz des Netzwerks Recherche, 15./16. Juni 2007, in: Tom Schimmecks Archiv, http://klugschiss.org/Texte/Medienrede.html. Linß, V. (2009): Leitmedien und Gleitmedien, in: Menschen Machen Medien Nr. 5/2009, S. 16.
310
Dieter Klumpp
Count“ bis zur endgültigen Zahl der Opfer von über zehntausend Menschen nachrichtenmäßig angepasst. Andere Katastrophen – ein Schiffsuntergang oder eine Touristenentführung werden zusätzlich nur noch getreu der eingeübten middle-of-the-roadWichtigkeitsstufe „global-national-regional-lokal“ gemeldet. Man kann es als Nachrichtenkonsument spätestens seit dem Tsunami Weihnachten 2004 fast schon mitsingen: Tausende Opfer, darunter „möglicherweise“, dann „sicher auch“ Deutsche (der Außenminister ist bereits angefragt), dann – je nach Regional- oder Lokalmedium – der jeweilige Anteil pro Bundesland und Kommune (Ministerpräsident und Bürgermeister müssen Stellung nehmen). „Pseudoexakt“ will mir heißen, dass es sich um einen FroschhüpfWettbewerb mit den schnellsten und besten Darstellungsmöglichkeiten durchaus exakter aktueller Zahlen handelt. Der Ausbruch der MexikoGrippe war ein symptomatisches Beispiel für dieses neue Nachrichtenritual: Schon am zweiten Nachrichtentag wurden in den TV-Nachrichtensendungen mit ihrem „Zwang zum Bild“ Weltkarten eingeblendet, auf denen die ersten Erkrankungsfälle in den USA, Kanada, Swasiland, Australien und drei weiteren von 180 Ländern der Erde dargestellt wurden. Selbstverständlich warteten alle Medien nun begierig auf die ersten Opfermeldungen aus Deutschland, aber diese Stufe wurde übersprungen und es wurde gleich direkt über Fälle in Bayern, Bremen und Schleswig-Holstein berichtet. Die medienstrukturbedingte Aktualitätserfordernis führte denn unter Zeitdruck auch zu neuen reduktionistischen Kategorien der Formulierung von Überschriften. Am 30. April begann die Badische Zeitung Online um 0:19 Uhr (der erste Mai hatte wohl schon begonnen?) die Wiedergabe einer dpa-Meldung (dpa/bz) mit dem prägnanten Titel „Schweinegrippe: erste Mensch-zu-Mensch-Infektion in Deutschland“. Am Morgen des 1. Mai meldete Spiegel Online im Titel der Nachricht die „erste Mensch-zuMensch-Infektion mit Schweinegrippe in Deutschland“. Die Deutsche Welle, ZEIT.de, WELT und Tagesspiegel bis hin zu die-newsblogger.de und greenpeace-magazin.de (9:56 Uhr) folgten diesem unbedachten Muster, das ja eine vorherige Kategorie der „Tier-zu-Mensch-Infektion“ unterstellt. Allein die netzeitung titelte ebenfalls am 1. Mai um 9:57 Uhr, aber völlig anders, mit „Neues Grippevirus: Erste Ansteckung innerhalb Deutschlands“. Man könnte sagen, dass alle außer der Netzeitung durchaus die Kriterien der „Gleitmedien“ von Tom Schimmek erfüllen, „alle schreiben das Gleiche“. Sollte denn die netzeitung tatsächlich als einzige bemerkt haben, dass die dpa Schlagzeile „Mensch-Mensch-Infektion“ (vorsichtig gesagt) etwas unglücklich formuliert war, weil ja wohl auch die Infekti-
Wandel der Medienqualität: Reduktion und/oder Substitution?
311
onsfälle in Mexiko unter diese Kategorie fallen? Die Erklärung ist wohl eher, dass die netzeitung keine dpa-Meldung brachte (vermutlich kein Abonnement) und dass diese Meldung in der netzeitung unter der Rubrik „Gesundheit“ steht. Zusammen mit dem fachsprachlich korrekten Neutrum („das“ Virus) kommt nach dem Blick in die Mitarbeiterliste der Verdacht auf, dass in der „ersten deutschen Tageszeitung mit Vollredaktion, die nur im Internet erscheint“ vielleicht einer der explizit als „Wissenschaft“ deklarierten Mitarbeiter hier trotz Zeitdrucks eine aktuelle Meldung ins Korrekte und Zutreffende transponierte. Die „Schweinegrippe“ machte auch das medieninstitutionelle Momentum deutlich. Gemäß den journalistischen fünf W’s muss ein bedeutsames Ereignis wegen der Kürze der Zeit und der Beschränkung des Medienplatzes möglichst einen „Markennamen“ bekommen. Dies ist nichts Neues, die Schlagzeile mit einem prägenden Stichwort ist schon immer Bestandteil des Mediencontent. Bei den ersten Grippemeldungen wogte der MedienWettbewerb noch hin und her, ein Teil der Medien präferierte – analog zur Spanischen Grippe 1918-1920 mit ihren Millionen Opfern – eine „mexikanische Grippe“, andere waren für die „Schweinegrippe“. Vielleicht aus Mitleid mit den um den Tourismus bangenden Mexikanern und europäischen Schweinezüchtern wurde dann doch überwiegend die „Schweinegrippe in Mexiko“ als Marke festgelegt.
Reduktion klassischer Formate Das Format eines Mediums bildet schon immer eine „klassische“ Begrenzung. Wer als Journalist noch traditionell „in Blei ausgebildet“ ist, weiß, was gemeint ist: Auf eine volle Zeitungsseite passt eben kein Buchstabe mehr. Auch von Tagesschau und ZDF-heute ist der Merksatz für Politiker: „Sagen Sie, was Sie wollen, nur nicht über Einsdreißig (1 Minute 30 Sekunden)“ allgemein bekannt. Die Qualität eines Mediums muss dies nicht zwangsläufig absenken, im Gegenteil: längere Politiker- oder Expertenaussagen gemahnen die Zuhörer schon an kubanische Verhältnisse vor Fidels Rückzug in die Pflegestation. Gewiss, mit der Kürzung kann man es auch übertreiben, wie es die Boulevardpresse als „Verkürzung“ schon seit vielen Jahrzehnten belegt. Die Tendenz, dass Nachrichtentexte auch außerhalb der Boulevard-Presse nur noch ein Textteppich für die Schlagzeile sind, was dem altbekannten Zwang zum „Bildteppich“ bei TV-Nachrichten entspräche, ist überdeutlich.
312
Dieter Klumpp
Ob die Verkürzung eines Diskussionsbeitrags auf die 140 Zeichen von Twitter.com einer diskurshygienischen Prüfung standhält, muss noch eingehender erörtert werden. Andererseits gilt: die „neuen Angebote“ über OnlineMedien beseitigen althergebrachte Formatzwänge, denn – um es kurz zu sagen – auf die volle Webseite passt ganz unten immer noch der Hyperlink „(mehr…)“ oder der Querverweis auf andere „weiterführende“ Dokumente und Websites. Im Guten wie im Schlechten entdeckt man in diesen Begrenzungen und Zwängen eher Hinweise darauf, dass die „klassischen Funktionen“ schon bei der Betrachtung der heutigen Nachrichtenmedien nicht von den „neuen Angeboten“ übernommen werden können Die Hinweise darauf, dass zum Beispiel Zeitungen auf eine funktional wichtige Minderheit abzielen, die es so in der „Netzwelt“ nicht zu geben scheint, häufen sich. Philip Meyer, Emeritus der North Carolina University, „Zeitungen müssen sich auf ein Elitepublikum konzentrieren, also jene Bürger, die wirklich am öffentlichen Leben und den demokratischen Institutionen interessiert sind, die nach investigativem Journalismus und intelligenter Analyse verlangen und genau verfolgen, was ihre Regierung macht“. Das aber heißt wiederum, dass das Geschäftsmodell der Zeitung rebus sic stantibus nicht zu halten ist. Entgegen dem allgemeinen Trend in der Wirtschaft diskutierten die US-Zeitungen bereits vor der Finanzsektorkrise sämtliche Alternativmodelle, die vom „philanthropischen“ bis zum „gebührenfinanzierten“ oder gar „steuerfinanzierten“ Modell reichen. Eine Diskussion in Deutschland und Europa über die eventuelle Notwendigkeit, die Funktionen von Zeitungen und Zeitschriften in ein „Gebührenzahlermodell“ zu überführen, kann man sich in einer Zeit des Dreistufentests für programmbezogenen Content von öffentlich-rechtlichen Anstalten nun wirklich nicht vorstellen. Die Zeitungen aber, Verlage wie Redaktionen, stemmen sich mit aller Kraft gegen das entstehende Leservakuum, die Tatsache nicht berücksichtigend, dass es für einen Abonnenten, der die Zeitung erst gar nicht mehr aufschlägt, reichlich unwichtig ist, ob das Layout oder die „Contentaufbereitung“ noch „lesergerechter“ gestaltet ist.
Funktionales Ende der Massenmediums-Funktion? Es sind also sehr vielfältige Faktoren bei der Annäherung an das Muster „klassisch-neu“ zu betrachten. Es scheint, dass sich hinter der – hier zunächst ökonomisch betrachteten – Reduktion der Nachfrage von Nachrichten allgemein – ganz zu schweigen solcher von „gesellschaftspolitischer
Wandel der Medienqualität: Reduktion und/oder Substitution?
313
Dimension“ bereits ein Wandel klassischer Medien weg vom „MassenMedium“ und hin zu einem „Minderheiten-Medium“ vollzogen hat. Der Zürcher Medienwissenschaftler Roger Blum bemerkte auf der Mediarena 2005 dazu: „Je mehr die Demokratie ausgebaut wurde, umso wichtiger wurden Medien als Garanten des Informationsflusses. Lange war die Medienkommunikation kombiniert mit der Versammlungskommunikation: Bis in die fünfziger Jahre des 20. Jahrhunderts konnten politische Parteien ihre Klientel nicht nur über eigene Medien erreichen, sie konnten die Leute auch zusammentrommeln und an Versammlungen auf ihren Kurs einschwören. Dies ist heute vorbei. Die Versammlungen sind zu einer Rarität geworden. Der direktdemokratische Betrieb ist auf die Medien angewiesen. Wenn Medien vor Abstimmungen und Wahlen nicht ausführlich und anschaulich berichten, ist die direkte Demokratie nicht mehr funktionsfähig. Dann muss sie sich für bankrott erklären.“12 „Ausführlich und anschaulich“ bezieht sich ohne Zweifel auf die oben so genannte „Kommentarfunktion“, auf die qualitative Komponente, die von der Nachfrage her bedroht scheint. Philip Meyer sieht zwar das „Verschwinden der Tageszeitung” in spätestens 40 Jahren voraus, aber nicht (das) des investigativen Journalismus. Meyers Überzeugung, dass das „Hauptprodukt der Zeitungen nicht Information ist, sondern Einfluss. Sie haben kommerziellen Einfluss durch die Anzeigen und gesellschaftlichen Einfluss durch die Berichterstattung, und je größer der letztere, desto wertvoller wird das Anzeigengeschäft“13, ist zwar zunächst trostreich für die Zukunft, aber die Schraubzwinge für die Medien als Institution wird bereits zugezogen; mit dem weiteren Rückgang von „dreieinhalb Leitmedien“ im Sinne von Tom Schimmeck schwindet eben auch das Anzeigengeschäft. Denn ein Medium ist für Anzeigenkunden nur so lange interessant, wie es eben bei der Zielgruppe „Einfluss“ hat oder dieser Einfluss durch die in der Anzeigenwertschöpfungskette (noch) fest verankerten Werbeagenturen wenigstens plausibel behauptet werden kann. Die Bedeutsamkeit der Massenmedienfunktion im gesellschaftspolitischen Raum führt zu Hoffnungen, dass die Netzwelt diese Funktionen substituieren kann und wird. Unter der Überschrift „Quo vadis, vierte Gewalt?“ wird geschrieben: „Debatten um Web 2.0, Internetzugang als Menschen12
13
Blum, R. (2005): Atomisiert, uniformiert oder arenisiert? Die politische Öffentlichkeit morgen. Vortrag auf der Mediarena 2005: Das Stelldichein revolutionärer Kommunikation, Zürich, 1. Juni 2005. Schön, G. (2009): Die spezialisierte Zeitung. Kein Ende in Sicht: Weitere Blätter werden eingehen, in: Menschen Machen Medien Nr. 5/2009, S. 31.
314
Dieter Klumpp
recht und öffentlich-rechtliches Onlineangebot lassen es erahnen: Das Internet avanciert zum Massenmedium. Logisch, dass eine solche Entwicklung an der Journalismusbranche nicht spurlos vorbeigeht“. Christoph Klimmt, Juniorprofessor für Onlinekommunikation am Institut für Publizistik der Uni Mainz, relativiert die Sachlage: „Das, was wir aus der klassischen Medienwirkungsforschung zu wissen glauben, muss für die Onlinekommunikation nicht genauso anwendbar sein.“ Die Gewaltenteilung eines John Locke (1690) und Montesquieu (1748) im Sinne aufgeklärter Herrschaft hat aber nun mangels formal- oder direktdemokratischer Legitimation nicht zu einer „Vierten Gewalt“ geführt. Denn: „Nicht nur Konnotationen, sondern auch Grundannahmen ändern sich. In meinem Abitursaufsatz von 1969 zum schönen Thema, ob Presse, Radio und Fernsehen eine „vierte Gewalt“ darstellen sollten, habe ich ganz selbstverständlich dafür affirmativ sogar den schönen Begriff „Informative“ erfunden. Eine „Informative“, die über rationale Information in der Öffentlichkeit Missstände anprangert und Reformen (damals noch ein Positivbegriff) erzwingt, erschien nicht nur mir damals als besserer Ansatz als eine „außerparlamentarische Opposition“. Das damals grundlegende Pressebild von „Medien als Institution“ – die Spiegel-Affäre 1962 war erst sieben Jahre her – ist heute natürlich nicht mehr nachvollziehbar“14. Insofern sollte man Zurückhaltung üben und nicht diesen Funktionswandel der Öffentlichkeit euphemistisch gleich als „Öffentlichkeit 2.0“ betiteln. Wir erleben eine unaufhaltsame Reduktion der Qualität von Medienfunktionen: An die Stelle der „Furcht vor investigativem Enthüllungsjournalismus“ ist mittlerweile die Angst vor unsachlichen und sogar rufmörderischen Überschriften schnell dahingepfuschter Boulevard-Schlagzeilen auch der einstigen „Qualitätsblätter“ getreten, gepaart mit der Sorge von aufrechten Demokraten, dass über die Gesellschaftskommunikation eine entpolitisierende und nachrichtenferne Berlusconi-Sauce einer trivial ablenkenden „Gesellschafts-Unterhaltung“ gegossen wird. Reduktion steht in Sachen Qualität im Ranking heute deutlich vor der Substitution, und die Nachfrage nach einem „räsonierenden Publikum“ (Habermas) scheint tatsächlich zu schrumpfen. Ignacio Ramonet, bis 2008 Direktor der Monde diplomatique, sieht dennoch (oder deswegen) sogar die Notwendigkeit einer Fünften Gewalt: „Il faut, tout simplement, créer un cinquième pouvoir qui nous permette 14
Vgl. Klumpp, D. (2003): Wissen in der Informationsgesellschaft – was ist das wert? in: Bsirske, F. / H. Endl / L. Schröder / M. Schwemmle (Hrsg.): Wissen ist was wert, Hamburg, S. 59-72.
Wandel der Medienqualität: Reduktion und/oder Substitution?
315
d’opposer une force civique citoyenne à la nouvelle coalition des dominants.“15 Ob es 250 Jahre nach Rousseaus Gesellschaftsvertrag („du contrat social“ 1762) einen „contrat reseau 2.0“ als eine Ordnung überhaupt geben kann, die auf Vereinbarung – womöglich einem „Netzwillen“ – und der Entwicklung von „Prosumenten“ in einer „Zivilgesellschaft“ beruht, erscheint auch nach 20 Jahren Web noch mehr als zweifelhaft, aber spätestens in 200 Jahren sehen wir das alle klarer. Natürlich nur, wenn das Zeitalter der Aufklärung in der ganzen Welt nicht doch wider Erwarten abrupt oder schleichend endet. Dann würde man nicht einmal mehr wagen zu fragen.
Über den Autor Dr. Dieter Klumpp, Direktor Alcatel-Lucent Stiftung für Kommunikationsforschung im Stifterverband für die Deutsche Wissenschaft. Studium der Politikwissenschaft und Geschichte an der Universität Stuttgart, Promotion Kommunikationswissenschaft an FU Berlin. Seit 1978 Alcatel-Lucent Deutschland AG, Stuttgart. Ehrenämter: Sprecher Fachbereich 1 (Informationsgesellschaft und Fokus-Projekte) der Informationstechnischen Gesellschaft (ITG) im VDE, Frankfurt. Mitglied Fachausschuss Kommunikation und Information der UNESCO Deutschland; Beirat Institut für Europäisches Medienrecht e. V., Saarbrücken; Vorstand Kompetenzzentrum „TechnikDiversity-Chancengleichheit“, Bielefeld; Wissenschaftlicher Beirat Internationales Zentrum für Kultur- und Technikforschung an der Universität Stuttgart; Beirat Fraunhofer-Zentrum E-Government (FOKUS); Arbeitsgruppen „E-Government“ beim Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (bitkom e. V.) und der Initiative D21, Berlin; Beirat Stiftung Digitale Chancen, Berlin; Beirat Forschungszentrum für Informationstechnik-Gestaltung, Kassel; Mitglied VDIBereichsvertretung „Gesellschaft und Technik“, Düsseldorf; Mitglied Arbeitskreis Gesellschaft und Technik des VDE/VDI, Stuttgart.
15
Ramonet, I.: Le cinquième pouvoir, www.monde-diplomatique.fr/2003/10/ RAMONET.
Perspektiven für die Bürgergesellschaft – Politische Kommunikation im Web 2.0
Dietrich Boelter, Hans Hütt
Buschtrommeln Kandidat imposant, Budget begrenzt, Zeit knapp, Wettbewerb mit unendlichen Ressourcen. Herbert Achternbusch lässt grüßen. Man kennt das. Du hast keine Chance, aber nutze sie. Der eingeflogene Chefberater und sein Kollege, ein erfahrener Journalist, machen sich an die Arbeit. Sie lassen durchsickern, ihr Kandidat werde mit modernsten Methoden arbeiten. Schon buchen die anderen Kampas weltweit alle verfügbaren Ressourcen. In der Zwischenzeit feilen die beiden Helden an ihrem eigenen Drehbuch und ihrer Organisation. Als die ersten Werbeslogans der Wettbewerber am Himmel erscheinen, verbreiten Buschtrommeln: wer die Zeichen lese, riskiere Unaussprechliches … Der Plot des Politromans „The Seersucker Whipsaw“ (vom Lieblingskrimischreiber Peer Steinbrücks, Ross Thomas) ist verzwickt. Die Methoden sind ausgekocht. Bei Lichte betrachtet erweisen sich Buschtrommeln als robuste Netzwerktechnologie. Das Ausfallrisiko ist vernachlässigbar. So weit entfernt vom Szenario eines modernen Onlinewahlkampfs ist das gar nicht. Ja, der vergleichende Blick auf die robusten Methoden dieses Wahlkampfkrimis in einem postkolonialen westafrikanischen Land hilft sogar, ein Missverständnis auszuräumen: Das Internet ist weit mehr als ein modernes Kommunikationsmedium. Nicht die Inhalte, nicht die Botschaften, nicht die Modernität der Formate machen es zu einem wichtigen Instrument im politischen Wettbewerb: Erst in der Verbindung moderner Formate mit effektiver Organisation gewinnt ein Onlinewahlkampf neue Dimensionen.
318
Dietrich Boelter, Hans Hütt
Blick in die Zukunft Im Weißen Haus entsteht zur Zeit das „Office of Public Liaison“. Seine Chefin kommt von Google. Ihre Aufgabe wird es sein, eine Plattform für den direkten Dialog mit den Bürgern zu etablieren. Das tradierte Top-DownModell der regierungsamtlichen Online-Kommunikation wird nicht nur um einen einfachen Rückkanal ergänzt (nach dem Motto: Bürger fragt oder meckert und wir geben die mehr oder weniger wasserdichte Antwort). Es sieht vielmehr so aus, als entstehe hier eine Plattform nicht nur für Meinungen, sondern auch für neue Modelle direkter Politikbeteiligung. Erinnern wir uns an den Web-Auftritt des „President Elect“: www. change.gov (wie schade, dass sie die Seite nicht konserviert haben!). Was da schon möglich war, von der Diskussion offener Fragen, der Möglichkeit, virtuell am Tisch der Mitarbeiter Platz zu nehmen, ihnen über die Schulter zu schauen und mit ihnen zu diskutieren! Zugegeben, die „Feedbacks“, die zu diversen Themen der Obama-Agenda gegeben wurden, griffen versiert Anregungen auf, die eben diese Agenda bekräftigten oder ihre Relevanz illustrieren halfen, insofern schienen Partizipation und Interaktion eher einer Affirmation der präsidentiellen Agenda zu dienen. Das Interessante daran (und das für die neue Administration Modellhafte) bleibt, dass hier ein direkter und sichtbarer Rückkanal etabliert wurde. Neben den klassischen Instrumenten wie Meinungsumfragen als Sondierungsinstrument der politischen Klasse und ihres Apparats gewinnen die Bürger so ein klug reflektiertes Bild ihrer eigenen Beteiligung am politischen Prozess. Man kennt solche Methoden aus der Konfliktmoderation und Mediation, auch aus der Metaplan-Moderationstechnik. Ein eindrücklicheres Bild, das ein mögliches Muster der elektronischen Demokratie „made in White House“ illustriert, liefern die Caucus-Vorwahlen, der Winterabend von Iowa lässt grüßen. Künftig kann sich die Nation im elektronischen Caucus mit dem Weißen Haus wiederfinden. Denn Katie Jacob Stanton hat bei Google an der Entwicklung des Google Moderators mitgewirkt, ein Tool, über das sie am Vorabend der TV-Duelle zwischen den Präsidentschaftskandidaten sagte, es sei geeignet, die Beteiligung vieler Menschen an politischen Meinungsbildungs- und Entscheidungsprozessen zu ermöglichen.1
1
http://googleblog.blogspot.com/2008/09/what-would-you-ask-senators-mccainand.html.
Perspektiven für die Bürgergesellschaft
319
Weisheit und Macht der Vielen Zurück in die Gegenwart. Erinnern wir uns an den amerikanischen Präsidentschaftswahlkampf. Obama hatte mit modernstem Online-Management Millionen von Freiwilligen für seine Kampagne mobilisiert. Den Slogan „Yes we can“ verstehen wir als zivilreligiöses Glaubensbekenntnis, in dem das moderne Amerika seine Schaffenskraft wieder erkennt und das der Präsident im Rahmen seiner Wirtschaftspolitik daran erinnern wird, über welche Kräfte es verfügt. Eine Vorahnung dieser bürgergesellschaftlichen politischen Potenz gibt Obamas Netzwerk bei Facebook: Über dreieinhalb Millionen Menschen waren dort mit dem Kandidaten vernetzt. In der Rede zu seiner Amtseinführung erinnerte Obama daran und projizierte diese Erfahrung auf die Lösung der anstehenden Probleme, von der Wirtschaftskrise bis hin zur Erneuerung Amerikas insgesamt: was für eine tolle Erfahrung es sei, sich für etwas zu engagieren. Das sind keine leeren Worte. Kürzlich berichtete David Pogue2, Kolumnist der New York Times, von einem Experiment, das er während einer Konferenz zum Web 2.0 in Las Vegas durchführte. Er verließ kurz seine Powerpoint-Präsentation und gab folgende Meldung in das TwitterNetzwerk: „I need a cure for hiccups… RIGHT NOW! Help?“ Seinem Publikum kündigte er an, innerhalb von höchstens 15 Sekunden Antworten zu erhalten. Tatsächlich trafen die ersten Antworten schon früher ein, Pogue zitiert in seiner Kolumne an die 30 Schluckauf-Kur-Ideen und resümiert: „Gab es je eine witzigere und patentere Sammlung von Schluckauf-Kuren? Das Publikum und ich lachten und wunderten uns gleichzeitig. Denn das war es: Das Experiment dokumentierte die in Echtzeit verfügbare Klugheit von Wildfremden.“ Zugegeben: Pogue hat eine größere Gefolgschaft als irgendein x-beliebiger Unbekannter in den Weiten des Netzes. Das Beispiel macht dennoch die kommunikative, aber auch politisch und ökonomisch relevante Qualität solcher Instrumente wie Twitter deutlich. Es gibt eine – altväterliche Ordnungspolitiker würden sagen: subsidiäre – verlässlich abrufbare Hilfsbereitschaft. Diese Bereitschaft ist übertragbar auf so gut wie jedes Feld möglicher Anteilnahme. Es wäre voreilig, dahinter puren Altruismus zu erkennen. Emphatisch könnten wir sagen: Hier zeigen sich die Umrisse einer zivilgesellschaftlichen Produktivität jenseits von Markt und Macht. Wer die Instrumente so nutzt, dass die Menschen (reden wir nicht mehr von Usern!) 2
http://www.nytimes.com/2009/01/29/technology/personaltech/29pogue-email. html?8circ&emc=circ.
320
Dietrich Boelter, Hans Hütt
bzw. die Bürger eine Chance erkennen, sich sinnvoll zu engagieren, der entfesselt eine bürgergesellschaftliche Ökonomie der Koproduktivität, die Schluckauf kurieren – oder auch Berge versetzen hilft. Zurück zur politischen Kommunikation im Netz. Mit Pogues Beispiel vor Augen liegt es nahe, die bisherige politische Arbeit im Internet mit neuen Augen zu sehen. Wir können die anstehende Aufgabe, eine neue Dramaturgie zu entwickeln, mit einer technischen Aufgabe aus der Energiewirtschaft vergleichen – z. B. der Erhöhung der Energieeffizienz etwa in der Photovoltaik, ohne die die massenhafte Anwendung Wunschdenken bleibt: In der Onlinekommunikation sind wir technisch längst so weit, dass wir mit den verfügbaren Formaten eine vielfach höhere aktive Beteiligung erreichen können, wenn wir die Logik der bisher überwiegenden Top-DownKommunikation durch einen Rückkanal und die unendlich vielfältigen Knoten eines sich selbst weiter entwickelnden Netzwerks ergänzen. Zugegeben: Das erfordert die Bereitschaft zu einem partiellen Kontrollverlust, mit dem auch Risiken verbunden sind. Die Aussichten des erzielbaren Ertrags sind grandios, fast könnte man pathetisch hinzufügen: Die Früchte der Freiheit hingen noch nie so greifbar nah wie in diesem historischen Augenblick. Marx und Engels hätten das mit dem Bild der entfesselbaren Produktivkräfte beschrieben, denn um nichts Anderes als einen sich selbst fesselnden Riesen handelt es sich, wenn man die verstopften Arterien eines Netzes vor Augen hat, das politisch gerade mal nur den Weg von oben nach unten nutzt. Oder erinnern wir an jenes Epochenbuch von Alexander Kluge und Oskar Negt, „Öffentlichkeit und Erfahrung“ – denn auch das ist übertragbar: Wir haben es inzwischen mit einem historisch fast beispiellosen selbst organisierten Lernprozess zu tun, der in Deutschland über 65 Prozent der Bevölkerung erreicht hat und auch in denjenigen Segmenten und Alterskohorten Anschluss findet, die bisher eher nicht als netzaffin galten – wie etwa die 60-79-Jährigen, die auch mehr und mehr das Internet zu nutzen beginnen3. Zugegeben: 35 Prozent sind nicht dabei und der Aufwand, sie aus der nicht nur kommunikativen Exklusionsfalle zu holen, hat einen offenbar sinkenden Grenznutzen. Abschreiben aber geht nicht – und es scheint nicht abwegig, auf neuen Wegen und durch die Kraft des guten Beispiels auch hier auf Dauer Exklusion überwinden zu können. Das Web 1.0 hat die Anschlüsse gelegt, das Web 2.0 verbindet die Menschen in nn+1 Knoten und ermöglicht die beglückende Erfahrung, mit wildfremden Menschen zu kooperieren. Glück aber, oder wie die Amerikaner sagen: „The pursuit of happiness“ kann ziemlich ansteckend sein. 3
http://www.media-perspektiven.de/2649.html.
Perspektiven für die Bürgergesellschaft
321
Politik neu denken Die Masse macht es. So einfach ist das. Die Einsicht leuchtet unmittelbar ein. Nun gilt es, sie herunter zu brechen auf neue politische Formate der Interaktion. Durch Meinungsumfragen und Fokusgruppen wissen wir fast viel zu viel darüber, wie die Bürger denken und fühlen. Auch Meinungsumfragen und Herrschaftstechniken haben offenbar rapide sinkenden Grenznutzen. Interaktion und Partizipation ermöglichen, aber erfordern auch einen anderen neuen Lernprozess – auf beiden Seiten: bei Politik und Bürgern. Lernen Sie zusammen! Das macht Spaß. Das ermöglicht Aha-Erlebnisse. Das stiftet Sympathie und die Bereitschaft, sich zu engagieren. Der Umkehrschluss funktioniert fast wie ein Beweis: Wo es um nichts geht, geht auch nichts (mehr). Natürlich werden die Online-Auftritte der Parteien weiter Themen setzen und ihre Kanäle zur schnellen Verbreitung ihrer Botschaften nutzen und ihre Kampagnen fahren. Aber machen Sie den Rückkanal auf. Lassen Sie zu, dass sich in Eigenregie neue Knotenpunkte bilden. Hören Sie hin, was die Bürger zu sagen haben. Finden Sie eine glaubwürdige Sprache, wenn Sie darauf antworten. Denn es gibt auch Online-Stelzen, die jeder auf Anhieb erkennt. „Rubbing Shoulders“ und Hemdsärmeligkeit gehen auch im Internet, ohne plumpe Anbiederung, aber auf Augenhöhe, denn darauf kommt es an. Wer das Format der Marktplatzrede beherrscht, hat gute Gründe, die elektronischen Marktplätze nicht abseits liegen zu lassen, die großen wie studiVZ oder Facebook, aber auch die kleinen. Denn mit rasanter Geschwindigkeit verbreitet das Internet auch Inhalte aus den kleinen feinen Knotenpunkten. Das heißt, auch die Mediaagenturen müssen umdenken. Bald werden wir neue mathematische Formeln studieren, die belegen, wie man Wirkung maximiert durch vermeintliche Streuverluste. Im Internet nennt man das den langen Schwanz, den „Longtail“ der vielen kleinen Plattformen, die mit den großen vernetzt sind. Politische Onlinekommunikation hat in Deutschland in Superwahljahren Hochkonjunktur. Dann folgte nach dem Muster von Schweinezyklen eine viel zu lange Sauregurkenzeit, die bei frühen Generationen programmierte Enttäuschung hinterließ. Das wirkt im Rückblick nicht ernsthaft, ganz davon abgesehen, dass die kostbare Infrastruktur bei nachlassender Nutzung rasant altert und Attraktivität verliert. Auch hier können wir von Obama lernen. Hier war zum ersten Mal unmittelbar nach der Wahl eine Anschluss-Kampagne sichtbar, die auf der Website www.change.gov zeigte,
322
Dietrich Boelter, Hans Hütt
wie man das Interesse an der Politik auch über den Wahltag hinaus auf hohem Niveau anfeuert. Die Graswurzel-Aktivisten von Obamas Kampagne taten sich anfangs zwar schwer mit der Idee, nun mit einem Mal für die designierte neue Regierung zu arbeiten. Aber bisher scheint der Enthusiasmus anzuhalten. „Hey, Leute, das ist neu, ungewohnt, auch schwierig, aber das macht Spaß“: So können wir in wenigen Worten zusammenfassen, wie eine auch für die USA ungewohnte politische Bewegung nicht an Kraft und Motivation verliert. Es gibt Beispiele aus der jüngeren Zeit, die nicht so erfolgreich waren. Denken wir etwa an die französischen Präsidentschaftswahlen. Denn was passiert, wenn eine attraktive Kandidatin eine eindrucksvolle Kampagne startet mit dem Ziel, die Wähler auch an ihrer Programmplanung zu beteiligen, aber die Granden im Hintergrund dagegen intrigieren? Damit das Beispiel fruchtbar wird, darf nicht der irrige Eindruck entstehen, dass nur eine zusammenhaltende geschlossene Kaderpolitik einen interaktiven Wahlkampf zum Erfolg führt. Politik ist das Werben um Zustimmung unter gegenläufigen Bedingungen. Wenn man diese Einsicht für die eigene Organisationsarbeit akzeptiert, dann verwandeln sich vermeintliche strategische Schwächen plötzlich in substanzielle Vorteile. Was die Bürger selbst in ihren Familien kaum mehr kennen, brauchen die Parteien auch nicht als so genannte Geschlossenheit zu inszenieren. Vielmehr kommt es darauf an, dass Programmarbeit und öffentliche Diskussion von der erkennbar gemeinsamen Absicht getragen werden, mit dem besten Programm in den Wahlkampf zu ziehen, Gegenstimmen mit guten Argumenten also ausdrücklich erwünscht sind. Die Kultur des Dialogs scheint unter den Bedingungen der modernen Online-Kommunikation die glaubwürdigste Strategie mit dem größten Ertragspotenzial zu sein.
Organisationskultur als Erfolgsfaktor Aus der Organisationssoziologie kennt man den Begriff der „Soft Skills“. Es scheint an der Zeit, in dem heterogenen Gefüge der politischen Parteien jenseits der Programmarbeit organisationsrelevante „Soft Skills“ als wichtige Voraussetzung für den gemeinsamen Erfolg zu pflegen. Ein OnlineWahlkampf muss die gesamte Organisation einbeziehen. Ohne definierte Schnittstellen, die sicherstellen, dass die gesamte Partei zeitgleich erreicht wird, droht der Aufwand empfindlich an Wirksamkeit zu verlieren.
Perspektiven für die Bürgergesellschaft
323
Jede politische Partei hat ihre traditionellen Eliten, die mit dem Internet und der elektronischen Kommunikation insgesamt fremdeln. Ja, es soll sogar eine relativ junge Partei geben, deren linker Flügel wie wild im Internet organisiert und debattiert und sich vernetzt, während ihre Realos in Abständen von Vierteljahren einsame Beiträge in einer ansonsten vakanten Seite posten. Oder denken wir an eine liberale Partei, die sogar einen virtuellen Verband pflegt, deren Vorsitzender aber seine Website nach dem Motto pflegt: nach Diktat (vor ein paar Jahren) verreist. Worin können die „Soft Skills“ bestehen, die einen Online-Wahlkampf beleben helfen? Bescheiden könnten wir antworten: Neugier, scharfe Ohren, um das Gras wachsen zu hören, und eine authentische Sprache. So einfach kann das sein – für jeden, der sich elektronisch vernetzen will. Dem steht eine Kommunikationskultur etwas sperrig im Wege, die man früher etwas abschätzig unter dem Begriff der Querulantenpost abgelegt hätte: die Welt der so genannten Politblogger, die eine eher robuste rigorose, manchmal auch auf Krawall gebürstete Diskussionskultur pflegen. Um diesem Stil Stand zu halten, schadet auch eine gewisse Schlagfertigkeit nicht, ja sie erhöht sogar die Wahrscheinlichkeit, dass interessante Debatten aus dem Netz positives Echo in der analogen Welt finden.
Wie wollen wir über Politik reden? In einer Welt, in der jedem Bürger eine Vielzahl von Informationsquellen zur Verfügung steht, in der die Informationselite wie selbstverständlich über verschiedene abrufbare Sprachen und Sprachstile verfügen, riskiert das tradierte Format der generalistischen Wahlkampfrede, im Abseits zu versanden. Zu unterschiedlich und vielfältig sind die Voraussetzungen – bei dem Publikum auf den Marktplätzen wie beim elektronischen Publikum im Netz. Wir können das Bild des Surfens in Erinnerung bringen, um eine politische Tugend zu illustrieren, die das politische Kommunizieren im Internet erleichtern und wirksam machen hilft. So wie die Surfer auf eine Welle lauern, die ihnen einen langen Ritt ermöglicht, braucht der politische Surfer einen Sinn für die Gunst der Stunde (oder sollten wir doch sagen: Sekunde?), also Geduld, Aufmerksamkeit und schnelle weitsichtige pointierte Reaktion, vielleicht wohl auch die Schubkraft, selbst gelegentlich eine lange Welle in Bewegung zu setzen. Surfer haben Gleichgewichtssinn, das heißt, sie wissen, wie sie die Welle reiten können, ohne vom Brett zu kippen, sie verfügen über eine Leichtigkeit des Seins, die auch argumentativ gelernt sein will, einen Sinn für das spielerisch platzierte
324
Dietrich Boelter, Hans Hütt
Argument, eine gut pointierte Gegenfrage. Das geht nicht ohne Mitspieler. Die besten Mitspieler müssen nicht das eigene Parteibuch haben, aber helfen Wirkung zu entfalten, weil sie selbst so gut vernetzt sind. Wer im Netz politisch unterwegs ist, muss auch unscheinbare Knotenpunkte und ihr kommunikatives Potenzial richtig einschätzen können. In den Begriffen der Aufmerksamkeitsökonomie geht es darum, eine leichte Hand für die unaufwendige glaubwürdige Inszenierung zu haben (man denke an Franz Münteferings Auftritt bei „Hart aber fair“). Ein guter Sinn für den emotionalen Gehalt politischer Sachfragen, die Fähigkeit, komplexe Themen zuzuspitzen und eine gute Rollenverteilung im Mannschaftsspiel tun das Ihrige, um einen politischen Internetauftritt spannend zu machen.
Verlust der „conversation of democracy“ Die bisherige Argumentation könnte den Eindruck erwecken, als ginge es politisch nicht mehr um das große Ganze, sondern um ein mehr oder weniger opportunistisches Hüpfen über Stock und Stein. Nichts könnte verheerender sein für das politische Selbstverständnis der eigenen Organisation, aber auch für ihr Bild in der medial vermittelten Öffentlichkeit. Die oben beschriebenen kommunikativen Tugenden verfehlen ihre Funktion, wenn sie nicht alle beitragen zu einer konsistenten politischen Debattenfähigkeit: also selber Debatten zu starten, Debatten des Wettbewerbs zu drehen und autonome Debatten der Bürgergesellschaft im Netz glaubwürdig aufzugreifen. Politische Kampagnen im Internet brauchen deshalb auch so etwas wie eine integrierende Klammer, die das Selbstverständnis auf den Punkt bringt, aber zugleich anschlussfähig sein muss für die Debattenkultur insgesamt, offline wie online. „Yes We Can“ ist ein Slogan, der wie eine Projektionsfläche wirkt, er erzeugt ein Kraftfeld zwischen Kandidaten und Wählern, das scheinbar ohne Relais, ohne Zwischenstationen Optimismus ausstrahlt und ansteckend macht. Erfolgreiche „Klammern“ etablieren Plattformen, auf denen auch Unabhängige bereitwillig mitwirken – darum geht es, wenn man die Kohärenz des politischen Gemeinwesens nicht unfreiwillig unterminieren will. Solche Klammern helfen, durch ihr eigenes Legato die fragil gewordenen politischen, sozialen und kulturellen Bindungen (Dahrendorfs Ligaturen) wieder zu kräftigen und damit dem Staccato der vielen konkurrierenden Medienstatements so etwas wie einen wieder erkennbaren Generalbass entgegenzusetzen.
Perspektiven für die Bürgergesellschaft
325
Andernfalls erwächst Verdruss. Erstmals im November 2006 äußerte eine Mehrheit der Befragten im ARD-Deutschland-Trend Unzufriedenheit mit dem Funktionieren der Demokratie. Insgesamt 51 Prozent von ihnen gaben an, mit der Demokratie in der Bundesrepublik weniger zufrieden (38 %) oder gar nicht zufrieden (13 %) zu sein.4 Das ist ein Alarmsignal, das ernst zu nehmen ist. Das unentwegte Rennen der Hasen gegen die Igel wird zur Stolperfalle für alle politischen Akteure: Niemand hat was davon, wenn die Verständigungsräume des Politischen in der Öffentlichkeit dauerhaft strategisch zugestellt werden.
Sprachverlust der Politik Warum sind Politiker nicht mehr in der Lage, so miteinander zu reden, dass auch der „Normalbürger“ dem Gespräch folgen kann und seine persönlichen Anliegen wieder findet? In der öffentlichen Debatte geht es ja schon lange nicht mehr darum, Gründe für oder gegen einen Vorschlag zu bewerten, sondern in einer Aussage wird der Teil herausgesucht, mit dessen Hilfe sich mühelos die Gesamtaussage des politischen Gegners diskreditieren lässt. Verbal wird aufgerüstet, weil der knappe „Sound Bite“ besser trägt als der langatmige Vortrag. Wer in 30 Sekunden Sendezeit auf den Punkt kommen will, drischt lieber auf den Gegner als die Sache, um die es geht, selber anschaulich zu vermitteln. Diese Tendenz wird durch den schnellen Nachrichtendurchsatz der elektronischen Medien befördert. Verstärkt wird das zudem durch ein Beratungsangebot, das sich diesem besinnungslosen medialen Diktat unterwirft, statt auf Wandel zu setzen. Bisher aber bringen nur die wenigsten politischen Akteure den Mut auf, das Risiko ergebnisoffener Kommunikation einzugehen.
Trendwende: Dem medialen Wettlauf Einhalt gebieten In Berlin hat sich durch den beschriebenen Teufelskreislauf ein StatementZirkus etabliert, dessen Sinn auch in den Verlagshäusern der Qualitätsmedien zunehmend bezweifelt wird. In kluger Verbindung zwischen offline und online entstehen neue Kommunikationsräume für Debatten und zur Vertiefung komplexer Themen, wie etwa der FAZ-Lesesaal5 zu Hans4 5
Infratest dimap: ARD-Deutschland-Trend; November 2008. http://lesesaal.faz.net/wehler.
326
Dietrich Boelter, Hans Hütt
Ulrich Wehlers Deutscher Gesellschaftsgeschichte. Hier gibt das Forum des Lesesaals klugen Argumenten den nötigen Entfaltungsraum. Diese Tendenz zur Vertiefung deutet eine Trendwende an. Wenn selbst die amtlich bestellten Auguren einräumen, inmitten der Wirtschaftskrise keine verlässlichen Prognosen mehr abgeben zu können, sehen sich die Medien selbst in der Pflicht, die gesellschaftliche Intelligenz am Nachdenken über die Zukunft substanziell zu beteiligen. Es wäre zu wünschen, dass sich dieser Trend auch politisch durchsetzt. Die Spiegel-Online-Leserforen belegen ebenso, dass das möglich ist, auch wenn dabei in Kauf zu nehmen ist, dass das eine oder andere Argument auf Krawall gebürstet sein mag.
Erwartungshorizont des Publikums Krawall macht Kasse. Das bleibt das Geschäftsgeheimnis des Boulevards. Was der Boulevard auf die Agenda setzt, kann mühelos auch bedeutsame politische Tagesthemen in den Hintergrund drängen. Deswegen muss man als Politiker nicht in das Dschungelcamp umsiedeln oder gar für die Umerziehung des Publikums plädieren. Das wäre ziemlich weltfremd. Denn ein Kreativer verdient ein sehr hohes Gehalt, weil er komplexe Sachverhalte auf eine griffige Schlagzeile herunter bricht. Wenn die gut ist, transportiert sie das Verständnis des Themas auch in politikferne Köpfe und liefert darüber hinaus auch noch ein Angebot zur emotionalen Einordnung. Politik hat nur selten gegen den Boulevard Punkte gemacht. Das ist kein Plädoyer, der Politik den nötigen Raum zur öffentlichen Selbstreflektion abzuschneiden. Aber für Kampagnen braucht man das eine wie das andere, den Boulevard und das Denken. Manchmal können sie sich sogar wechselseitig beflügeln.
Neue Spielräume für politische Debatten Der demokratische politische Wettbewerb lebt von der zugespitzten Vereinfachung, aber auch von der Möglichkeit, die jeweiligen Positionen in Debatten fundiert zu vertiefen. Es fehlt nicht am Vermögen der Politiker oder der Bürger, diese Chance in dafür geeigneten Internet-Foren wahrzunehmen. Es fehlt an Routinen und es fehlt die wechselseitige Erfahrung, miteinander zu debattieren. Die TV-Polit-Talkshows sind zu Muppet-Shows von Sprechpuppen verkommen. Diese Formate haben sich überlebt. Selbst ein so frischer Sendeplatz wie „Hart aber fair“ gerät manchmal schon in das gleiche Fahrwasser. Es sieht so aus, als ob der Politik der Schneid, selber
Perspektiven für die Bürgergesellschaft
327
Debatten zu starten, von der Bürgergesellschaft in eigenen Internet-Foren abgenommen worden ist. Darüber braucht man sich nicht zu grämen. Vielmehr ist es doch erfreulich, wenn trotz des viel beschworenen Politikverdrusses mit Engagement und erstaunlicher Kompetenz politische Themen nicht nur im Arkanum des politischen Betriebs selbst diskutiert werden. Früher hieß es ein wenig paternalistisch, die Bürger sollten sich doch einmischen. Heute, wo sie das mit erstaunlicher Lebendigkeit tun, ist die Aufforderung umzudrehen: Politiker, mischt euch ein in die Debatten eurer Bürger, tut das aber nicht herablassend, sondern auf Augenhöhe – und alle haben was davon.
Potenzial des Netzes Die entscheidende Frage lautet: Gibt es echte Interaktion und damit ein neues Gespräch der Demokratie? Oder werden die Debatten bloß simuliert, um interaktiv zu scheinen, ohne es zu sein? Darüber genauer nachzudenken lohnt sich. Bisher sieht es so aus, als seien die neuen Foren nicht mehr nur eine kleine Nische für die Debatten von alten Hasen, sondern in der Tat offene Foren für eine Vielzahl erfrischend sachlich, sachkundig, manchmal auch polemisch argumentierender Bürger. Die Befürchtung, dass darüber die Integrationsmechanismen der massengesellschaftlichen Öffentlichkeiten in ihrer Wirkung geschwächt würden, erweist sich als voreilig. Netzbasierte Kommunikation unterscheidet sich durch ihre formale Unangepasstheit gegenüber der bisher üblichen Kampagnenkommunikation der Politik, die bisher eher Angebote der klassischen Massenmedien für ihre Zwecke adaptiert hat. Es geht im Netz mehr und mehr um Inhalte. Die jungen politischen Netzaktivisten bemühen sich darum, ihre Diskurse in den sozialen Netzwerken in einer verständlichen Sprache zu führen. Die neuen Netzangebote fangen damit einige der Verluste an Informationstiefe und Debattenfähigkeit in den Massenmedien auf. Das Netz bietet inzwischen bessere Möglichkeiten für ein zivilgesellschaftliches Engagement, das die gesellschaftliche Diskussionen sucht und den „Sound Bites“ in Fernsehen und Boulevardpresse wieder so etwas wie ein gesellschaftliches Gespräch entgegensetzt.
Ausblick: Schwimmen wie ein Fisch Wer im Netz kommuniziert, ist willkommen – das ist im Grundsatz so, aber nicht immer auf Anhieb erkennbar. Netzaktivisten haben einen fast
328
Dietrich Boelter, Hans Hütt
untrüglichen Sinn dafür, wenn sie bloß funktionalisiert werden sollen als Pappkameraden für irgendwelche politische (Neben-)Kriegsschauplätze. Sie verfügen über mehr oder weniger bewusste Verifikationsinstrumente, ob politische Debatten- und Partizipationsangebote ernst gemeint sind. Wer also zu Beginn einer Webdebatte zurückschreckt vor mitunter harschen oder galligen Bemerkungen, braucht vorher nicht in Drachenblut zu baden, sondern tut gut daran, entspannt zu kontern. Augenhöhe, authentischer Tonfall und Glaubwürdigkeit stärken die Debattenfähigkeit und das Ansehen bei den Mitdebattierern augenblicklich. Stelzen aber, Besserwisserei und Politchinesisch führen unweigerlich ins Abseits. Der Tonfall egalitärer Debatten will gelernt sein. Mit etwas Geduld und Aufmerksamkeit findet aber schließlich jeder seinen gleichberechtigten Platz in dieser Welt. Schön ist es, als politischer Groß- oder Kleinfisch mal mit und mal gegen den Strom zu schwimmen. Beides kräftigt.
Über die Autoren Dietrich Boelter Dietrich Boelter ist Gründer und geschäftsführender Gesellschafter der Online-Kommunikationsagentur A&BFACE2NET. Er studierte Kommunikationswissenschaft und begann seine Laufbahn als Berater bei Rudolf Stilcken & Partner in Berlin und Hamburg. Nach Engagements als freier Consultant in Werbe- und Multimediaagenturen war er Mitgründer von A&BFACE2NET. Dort verantwortet er seit 2000 als geschäftsführender Gesellschafter die Konzeption und Realisierung von digitalen Kampagnen. 2002 und 2005 war er für den Internet-Wahlkampf der SPD mitverantwortlich. Auch 2009 ist er mit seiner Agentur für die SPD als strategischer Berater im Wahlkampfteam tätig. Hans Hütt Hans Hütt ist Public Affairs-Berater und Publizist in Berlin. Nach dem Studium der Politikwissenschaft, Musikwissenschaft, Psychologie, Empirischen Kulturwissenschaft, Vergleichenden Literaturwissenschaften und Religionswissenschaft in Tübingen und Berlin arbeitete er zehn Jahre als Strategischer Planer für Agenturen in Frankfurt, London und Berlin; von 1996 bis 1999 war er Geschäftsführer der Schader-Stiftung in Darmstadt.
Individualisierung in der Netzwelt
Klaus Kamps Vom Funkpionier Guglielmo Marconi wird die schöne Geschichte erzählt, eines Tages habe ihm einer seiner Mitarbeiter freudig eröffnet, seine drahtlose Technologie erlaube ja tatsächlich, „mit Florida zu sprechen“ – worauf Marconi geantwortet haben soll: „Und? Haben wir Florida etwas zu sagen?“1 Heute verbreitet (nicht nur) der Papst Stimme und Botschaft tagtäglich über das Netz – über einen eigenen Internet-Kanal bei YouTube. Und hatte Boris Beckers „Bin ich schon drin?“ im AOL-Spot von 2000 noch manch Heimeliges, so steht Twitter schon (semantisch-)sinnbildlich für das Web 2.0, also einem veränderten Internet, „in dem sich Vielfalt über die Kreativität der vielen Einzelnen definiert“2. Freilich mag man in Marconischer Tradition einige Skepsis entwickeln gegenüber dem (kreativen) „Zwitschern“ oder Plattformen wie – um nur wenige zu nennen – Friendster, MySpace, StudieVZ, Facebook, Flickr oder Xing (oder der Schwarmintelligenz von Wikipedia). Immerhin aber: Barack Obama – bekanntlich – war auch schon da und hat jüngere Wählerinnen und Wähler dort abgeholt, wo sie sind: im Netz. Die zahlreichen Kommunikationsmodi, die das „digitale Evangelium“3 Internet parat hält, sind individuell, massenmedial, synchron wie asynchron angelegt: E-Mail, News- und Chat-Groups, News-Ticker, Live-Streaming, Usenet, Community-Plattformen, Weblogs und mehr erlauben neuartige 1
2
3
Zit. n. Barber, B. (1998): Wie demokratisch ist das Internet? Technologie als Spiegel kommerzieller Interessen, in: Leggewie, C. / C. Maar (Hrsg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie, Köln, S. 120-133, hier S. 131; Marconi gelang 1899 die erste transatlantische Funkübertragung. Meckel, M. (2008): Aus Vielen wird das Eins gefunden – wie Web 2.0 unsere Kommunikation verändert, in: Aus Politik und Zeitgeschichte, 39/2008, S. 1723, hier S. 17. Enzensberger, H. (2000): Das digitale Evangelium, in: Der Spiegel v. 10. Januar 2000, S. 92-101.
330
Klaus Kamps
soziale Beziehungsmuster, Kommunikations-Chancen und -Intentionen, seien sie gerichtet oder dispers, dialogisch oder doch eher symbolisch, seien sie informationsorientiert oder explizit an sozialen Kontakten interessiert, gar an „virtuellen Gemeinschaften“4. Dabei beherrscht das „Netz der Netze“ als Metapher wie Agens eines grundlegenden kulturellen, wirtschaftlichen und gesellschaftlichen Wandels schon seit mindestens 15 Jahren die Überlegungen optimistischer wie pessimistischer Kommentartoren. Darf „Interaktivität“ (wohl in Verbund mit „Multimedia“) in diesem Kontext noch als prägende Parole der Jahrtausendwende gelten, so hat, wenn nicht vieles täuscht, „Web 2.0“, das „Social Web“ dem seit kurzem den Rang abgelaufen. Und hatte schon „Interaktivität“ nicht nur technische Belange, sondern auch soziale Dynamik im Sinn, so dominiert im „Mitmach-Netz“ und seinem „User Generated Content“ nunmehr die Idee dezentraler Kommunikationsnetzwerke auf der Basis professionell angebotener und verwalteter, gelegentlich redaktionell betreuter Plattformen. Diese Technik-Genese bzw. die Entwicklung neuer Anwendungen wirft aus sozialwissenschaftlicher Sicht geradezu konventionelle Fragen auf zu „Wegen, Werten und dem Wandel“ des gesellschaftlichen Diskurses und „Selbstgesprächs“. Zwar dürfte man das Internet als medialen Unterbau mit Heilserwartungen etwa im Duktus einer normativ hochbelastbaren politischen Öffentlichkeit sicher überfrachten; gleichwohl birgt ein technisch indizierter Wandel des gesellschaftlichen Kommunikationssystems immer auch normative Implikationen. Vor diesem Hintergrund konzentriert sich der Beitrag auf Überlegungen zur Individualisierung in der Netzwelt, wobei im Kern die Fragen im Vordergrund stehen, ob mit dem Web 2.0 ein neuerlicher Trend, gar ein „Schub“ an Individualisierungsphänomenen zu beobachten wäre – wie dies theoretisch zu verorten sei, was dem für die politische Kommunikation folgt und welche sozialen und gesellschaftlichen Probleme (etwa desintegrative Impulse) sich dabei abzeichnen (könnten).
Individualisierung und Kommunikation Die Sozialwissenschaften verstehen unter Individualisierung meist einen soziologischen Makrotrend, der etwa Ende der 1960er Jahre einsetzte und auf gesellschaftlicher Ebene zur Herausbildung individueller Lebensstile führte – „auf Kosten“ familiärer, gruppenspezifischer oder wirtschaftlicher 4
Vgl. etwa früh: Rheingold, H. (1994): Virtuelle Gemeinschaft. Soziale Beziehungen im Zeitalter des Computers, Bonn u. a.
Individualisierung in der Netzwelt
331
Bindungen, alternativloser Verhaltenserwartungen und Rollenmuster.5 Konstatiert wurden eine Lösung der Fixierung von Biographien, eine Flexibilisierung der beruflichen und sozialen Orientierung sowie verändertes Freizeit- und Konsumverhalten: eine neue, vielgestaltige (und nicht: vereinzelte) Lebensstilorientierung, die sich nicht mehr überwiegend an überkommenen kollektiven Erfahrungen und Traditionen ausrichtet (z. B. Zunft, Schicht, katholischer Niederrhein, Familie usf.).6 Dabei weist der Individualisierungsbegriff in der Soziologie einige Facetten auf – und in der wohl weitesten Version erscheint dann eine „das ganze Leben umgreifende ‚Bastelexistenz’ zeitgenössischer Individuen als herausragendes Merkmal einer Gesellschaft, die sich etwa durch Lockerung der Ein- und Austrittsregeln von posttraditionalen Gemeinschaften unterscheide“7. Wenngleich die empirischen Evidenzen doch recht ambivalent erscheinen – wie im Übrigen auch die theoretischen Modelle hinter den verschiedenen soziologischen Individualisierungsbegriffen –, wirft der (an und für sich nicht bestrittene) Wandel der sozialen Ordnung Fragen auf zur Integrationskraft der Gesellschaft per se. Zudem ist seit etwa Mitte der 1980er Jahre eine „kommunikative Revolution im globalen Maßstab“ zu beobachten, die sich im Kern durch eine „ungeheure Vermehrung, Beschleunigung, Verdichtung und Globalisierung von Kommunikation“ auszeichnet8. In dieser „Informations“- oder „Kommunikationsgesellschaft“ beruhen nicht nur wirtschaftliche Aktivitäten und Erfolg, sondern auch soziales, gesellschaftliches und politisches Handeln zunehmend auf der Fähigkeit, Informationen aufzuarbeiten, sie zu verarbeiten, systemisch zu integrieren und gegebenenfalls auch (öffentlich) zu vermitteln.9 Die Mehrdimensionalität und reflexive Dynamik, mit der 5
6
7
8
9
Vgl. Quiring, O. / B. Rauscher (2007): Individualisierung von Medienangeboten – ökonomisches Potenzial versus gesellschaftliche Bedrohung?, in: Friedrichsen, M. / W. Mühl-Benninghaus / W. Schweiger (Hrsg.): Neue Technik, neue Medien, neue Gesellschaft? Ökonomische Herausforderungen der Onlinekommunikation, München, S. 339-363, hier S. 341. Vgl. auch Göttlich, U. (2001): Individualisierung im Spannungsfeld von Öffentlichkeit und Privatheit, in: Abromeit, H. / J.-U. Nieland / T. Schierl (Hrsg.): Politik, Medien, Technik, Wiesbaden, S. 421-433. Kron, T. (2000): Individualisierung und soziologische Theorie – Einleitung, in: Ders. (Hrsg.): Individualisierung und soziologische Theorie, Opladen, S. 7-12, hier S. 8. Münch, R. (1992): Dialektik der Kommunikationsgesellschaft, Frankfurt a. M., S. 13. Vgl. insbes. Münch, R. (1995): Dynamik der Kommunikationsgesellschaft, Frankfurt a. M.
332
Klaus Kamps
die technologischen (und wirtschaftlichen) Transformationsprozesse – begleitet meist von De-Regulation beim Rundfunk und der Telekommunikation – die materielle Basis von Gesellschaften weltweit dann ergreift, arbeitet Manuel Castells in der „Netzwerkgesellschaft“ heraus: „(S)obald sich die neuen Informationstechnologien ausgebreitet hatten und von anderen Ländern, von verschiedenen Kulturen, von unterschiedlichen Organisationen und für alle möglichen Ziele angeeignet worden waren, kam es zu einer explosionsartigen Entwicklung aller Arten von Anwendungen und Nutzungen, die wieder in die technologische Innovation rückgekoppelt wurden und damit das Tempo des technologischen Wandels beschleunigten, seine Reichweite erweiterten und seine Quellen diversifizierten.“10 Hatten vor wenigen Jahren noch Internet-Auktionshäuser die Anmutung exotischer Blumen und wurden gesellschaftliche, wirtschaftliche oder politische Positionspapiere zum Einsatz und Nutzen der IuK-Technologien im Stil von Visionen gehalten, so darf man heute – zumindest in den westlichen Industriestaaten – von einer „Parallelwelt“ sprechen, von einem „E-Everything“; kein Teil der Gesellschaft, wie es scheint, kommt ohne das Präfix aus: E-Commerce, E-Learning, E-Journalism, E-Logistics, E-Government, E-Campaigning, E-usf. Nahezu jeder Bereich unserer Lebenswelt diesseits des Bildschirms findet seine Entsprechung und vielgestaltige Anwendungen im Netz, in der Telekommunikation, in crossmedialen oder sich abzeichnenden konvergenten Strukturen oder Plattformen. Unter dem Gesichtspunkt der Diversifikation neuer Entscheidungs-Chancen im sozialen, kommunikativen Handeln darf man hier von einer Makro-Technik sprechen, die makrosoziale Individualisierungsphänomene stützt und vielleicht auch leitet. Im medien- und kommunikationswissenschaftlichen Zusammenhang meint Individualisierung dann meist den Ersatz einseitiger, klassischer Massenkommunikation durch reziproke Individualmedien11 – mit der Folge selbst bestimmter, selbst gesteuerter Information und autonomer Kommunikation. Dass gerade beim Internet ein solcher Zugang zu mancherlei Visionen völlig neuer gesellschaftlicher (oder politischer) Kommunikationsstrukturen geführt hat, soll hier nur angedeutet werden. Begünstigt – etwa – das Internet die Bildung neuartiger Gemeinschaften und erlaubt es
10
11
Castells, M. (2004): Das Informationszeitalter I. Der Aufstieg der Netzwerkgesellschaft, Opladen, S. 6. Vgl. Krämer, S. (1997): Vom Mythos „Künstliche Intelligenz“ zum Mythos „Künstliche Kommunikation“, in: Münker, S. / A. Roesler (Hrsg.): Mythos Internet, Frankfurt a. M., S. 83-107.
Individualisierung in der Netzwelt
333
effektivere politische Partizipation?12 Sind virtuelle Gemeinschaften am Ende gar „wirkliche“ Gemeinschaften? Oder verstärkt die Netzwelt im Gegenteil eine Vereinzelung, eine Lösung sozialer Bindungen? Liegt im Web 2.0 demgegenüber eine den herkömmlichen Massenmedien vergleichbare Integrationskraft in Form einer außerordentlichen Orientierungsleistung über allgemein akzeptierte Werte, Normen, Tabus, sozial wünschenswerte Verhaltensweisen, aktuelle Problem-„Lagen“?13 Analytisch betrachtet und an den gesellschaftlich zentralen, funktionalen Dimensionen von Medien orientiert – Information, Artikulation, Organisation – lassen sich dann folgende Fragen konkret ableiten: ņ Trägt das Internet in Form des Web 2.0 dazu bei, dass Nutzer im Vergleich zu anderen Medien Informationen selbst bestimmter und autonomer (also unabhängig von anderen Akteuren) erlangen können? ņ Trägt es dazu bei, dass Individuen ihre Interessen und Ansprüche stärker, effektiver, effizienter als bisher gegenüber anderen, gesellschaftlich relevanten Akteuren (etwa politischen Entscheidungsträgern) formulieren können? ņ Inwieweit steigert es die Fähigkeit von Individuen zur Selbstorganisation und Selbstreflexion? Bevor darauf eingegangen wird, sollen kurz das Web 2.0 und soziale Netzwerke betrachtet werden. In dieser Skizze wird einmal mehr deutlich, dass das Internet als Medium eigentlich gar nicht existiert; eher lässt es sich als technische Infrastruktur verstehen, die sich im Augenblick und im Kontext je spezifischer Kommunikationsakte zu dieser oder jener spezifischen Kommunikationsplattform konstituiert.
Web. 2.0 2004 durch Tim O’Reilly geprägt, um die nächste Stufe in der Entwicklung des globalen Daten- und Kommunikationsnetzes zu beschreiben14, ist 12
13
14
Vgl. dazu etwa die Beiträge in Kamps, K. (Hrsg.) (1999): Elektronische Demokratie? Perspektiven politischer Partizipation, Opladen, Wiesbaden. Vgl. Holtz-Bacha, C. (1998): Fragmentierung der Gesellschaft durch das Internet?, in: Gellner, W. / F. von Korff (Hrsg.): Demokratie und Internet, BadenBaden, S. 219-226. Vgl. Meckel (Fn. 2).
334
Klaus Kamps
das Web 2.0 im Grunde genommen kein neues Netz, sondern (erst einmal) „nur“ „a-synchronous javascript and XML“, wodurch Netzseiten Daten nachladen können, ohne die jeweilige Seite komplett aktualisieren zu müssen. Doch trägt der Begriff inzwischen in erster Linie die selbstorganisierte Interaktion und Kommunikation der Netznutzer durch „User Generated Content“: Wikis, Weblogs und Social Networks. Anders ausgedrückt: „Über kommunikative und soziale Vernetzung verändern die Nutzer die gesellschaftliche Kommunikation – weg von den Wenigen, die für Viele produzieren, hin zu den Vielen, aus denen Eins entsteht: das virtuelle Netzwerk der sozial und global Verbundenen“15. In der Tat sind verändertes Informationsverhalten, reflexive Wissensstrukturen und neuartige Kommunikationsformen prägend für das „Social Web“. Wikis: Peer-Production Bereits das „alte“ Internet strukturierte Informationen im Hypertext; im Web 2.0 bilden sich darüber hinaus flexible kommunikative Verbindungen, die gemeinschaftlich Inhalte produzieren und aktualisieren. Es werden also nicht nur Links zusammengeführt, sondern soziale Handlungen. Das bekannteste Beispiel für eine informationsorientierte Peer-Production dürfte Wikipedia sein16 – ein (überspitzt ausgedrückt) „Leitmedium des World Wide Web“17. Kernprinzip der „freien Enzyklopädie“, die dem „Open Source“Gedanken folgt, ist der Konsens: Bestand hat letztlich das, was von der Gemeinschaft der Autoren, die die Themen und Einträge bearbeiten, überprüfen und diskutieren, akzeptiert wird. Der Produktionsprozess ist transparent organisiert, so sind z. B. die verschiedenen Versionen, Diskussionen und Kommentare von Bearbeitern auch im Nachhinein einsehbar. „Neu an dieser Veränderung der informationellen Güter in der Netzwerkgesellschaft ist die Kombination individueller Informationen, Bewer-
15 16 17
Meckel (Fn. 2), S. 17. Weitere wären z. B. Wikisource, Wikibooks oder Wiktionary. Die Zeit, Nr. 6 v. 31. Januar 2008, S. 37. Wikipedia-Artikel erscheinen in rund 230 Sprachen; 1,8 Mio. Artikel sind auf Englisch, immerhin 600 000 auf Deutsch; weltweit beteiligen sich rund 400 000 registrierte Bearbeiter – und noch einige unregistrierte; vgl. Ziewitz, M. (2008): Viel Ordnung, wenig Recht: Kollaborative Selbstkontrolle als Vertrauensfaktor am Beispiel Wikipedias, in: Klumpp, D. et al. (Hrs.g): Informationelles Vertrauen für die Informationsgesellschaft, Berlin, Heidelberg, S. 173-188.
Individualisierung in der Netzwelt
335
tungen und Vorlieben zu einem Ganzen“18. James Surowiecki nennt das die „Weisheit der Vielen“19 – Schwarmintelligenz eben. Prämisse und „These“ dieser Struktur ist damit, dass durch diese Art der Informationsherstellung und -verbreitung nicht ein kleinster gemeinsamer Nenner entsteht (d. h.: was alle kennen), „sondern Exzellenz, die der Einzelne alleine für sich in der Regel nicht herstellen und gewährleisten kann“20. Dass eben dieses Angebot eine eigene Copy-and-Paste-Kultur hervorgebracht hat – Plagiatismus 2.0 – und damit die Nischen für spezielle Suchmaschinen wie etwa Copyscape, sei nur nebenbei erwähnt. Bei aller Skepsis, die man etwa aufgrund schlagzeilenträchtiger Fehler im Detail, einer eigenen „Wikiality“ oder als „Themen“ getarnten PRAktionen gegenüber Wikipedia hegen mag: hier zeigt sich durchaus die kollektive Dynamik einer dezentralisierten und (weitgehend) enthierarchisierten Informationsstruktur, die in der Lage ist, mit hoher Aktualität und Flexibilität zu agieren – und bei umstrittenen Themen oder Details doch gelegentlich zu „Edit-Wars“ neigt21. Weblogs: Jeder (s)ein Journalist Eine weitere wichtige, prägende Entwicklung des Web 2.0 sind zweifellos Weblogs – die „Blogosphäre“ wächst derzeit täglich um rund 120 000 neue Weblogs und umfasst etwa 70 Millionen Blogs weltweit.22 Klassifikatorisch sind Weblogs meist öffentliche, häufig täglich aktualisierte und in der Regel aus persönlicher (Autoren-)Perspektive konstituierte Diskussions- und Kommentarseiten, die aufgrund ihrer weiten Verbreitung und insbesondere der Vernetzung innerhalb der „Blogosphäre“ inzwischen „zu einem wichtigen Multiplikations- und Verstärkerinstrument für das Agenda-Setting im Netz“ geworden sind23. „Ich blogge, also bin ich“ betitelte Die Zeit ein Interview mit dem Medientheoretiker Geert Lovink – und ahnte gleich in der ersten Frage, man 18 19
20 21 22 23
Meckel (Fn. 2) S. 19. Surowiecki, J. (2005): Die Weisheit der Vielen. Warum Gruppen klüger sind als Einzelne und wie wir das kollektive Wissen für unser wirtschaftliches, soziales und politisches Handeln nützen können, München. Meckel (Fn. 2), S. 19. Vgl. Ziewitz (Fn. 17). Meckel (Fn. 2) S. 20. Meckel (Fn. 2) S. 20.
336
Klaus Kamps
bewege sich mit dem Web 2.0 auf eine „Kultur der Amateure zu, die den Informations- und Meinungsprofis Konkurrenz“ mache24. (Lovink, übrigens, sieht die „alten Instanzen der Wissens- und Geschmacksvermittlung … bedroht“.) Mit dem Ahnen lag das Interview durchaus im Trend auch der akademischen Auseinandersetzung zumindest mit den journalistisch orientierten Weblogs. So spricht die jüngere Kommunikationswissenschaft dann auch von einer „Entgrenzung“25 des Journalismus, von einem „partizipativem Journalismus“26, bei dem sich auch die Nutzer (nicht beruflich) maßgeblich an der Produktion von Inhalten beteiligen und damit aktiv an einer Medienöffentlichkeit teilnehmen, sie mit formen. Freilich wird ein neuer, quasi-institutioneller Wandel einer gesellschaftlich relevanten Öffentlichkeit, bei dem die Schleusenwärter-Funktion der klassischen Massenmedien durch einen Bürger- und Laienjournalismus ersetzt wird, in theoretischer, systemischer Perspektive durchaus bezweifelt. Gerade die Beispiele, in denen Blogs in real life Nachrichten setzten, zeigten, dass sie insgesamt mangels gesellschaftsweiter Organisationskraft in einer Themenöffentlichkeit verhaftet blieben: „Nur als Intermediäre sich ausflaggende und von den Rezipienten anerkannte Organisationen (also die Massenmedien, K. K.) können dauerhaft publizistische Leistungen erbringen und gesellschaftsweite Anerkennung erwarten“.27 Social Networks Abgesehen von YouTube, dessen Claim „Broadcast Yourself“ tagtäglich etliche Tausende folgen, findet sich die Kreativität und Kommunikation der Vielen derzeit vor allem in Social Networks Sites: „(W)eb based services that allow individuals to (1) construct a public or semi-public profile within a bounded system, (2) articulate a list of users with whom they share a connection, and (3) view and traverse their list of connections and
24 25
26
27
Die Zeit, Nr. 52 v. 19. Dezember 2007. Loosen, W. (2007): Entgrenzung des Journalismus: empirische Evidenzen ohne theoretische Basis?, in: Publizistik, 53, S. 63-79. Engesser, S. (2008): Partizipativer Journalismus: Eine Begriffsanalyse, in: Zerfaß, A. / M. Welker / J. Schmidt (Hrsg.): Kommunikation, Partizipation und Wirkungen im Social Web. Bd. 2, S. 47-71. Jarren, O. (2008): Massenmedien als Intermediäre. Zur anhaltenden Relevanz der Massenmedien für die öffentliche Kommunikation, in: Medien & Kommunikationswissenschaft, 56, S. 329-345, hier: S. 329.
Individualisierung in der Netzwelt
337
those made by others within the system.“28 Zu denken ist natürlich an Plattformen wie MySpace, Facebook, studiVZ und viele mehr. In kurzer Zeit erreichte MySpace eine geschätzte Mitgliederzahl von 220 Mio. weltweit, Facebook 175 Mio; bei schülerVZ, studiVZ und meinVZ – den Seiten von Bertelsmann-Holtzbrinck – tummeln sich rund 13,1 Mio. Mitglieder, bei StayFriends 7,5 Mio, bei Xing 7,0 Mio., bei wer-kenntwen.de 5.5 Mio., bei den Lokalisten 2,85 Mio.29 Und die Zahlen steigen exponentiell: erfolgreiche Community-Sites scheinen rasch zur „Norm“ zu werden. Mehr als die Hälfte der deutschen Jugendlichen ist mehrmals die Woche in einem sozialen Netzwerk; mehr als die Hälfte der US-Bürger mit Internetzugang nutzt Social Communities. Auf diesen Seiten können sich die Nutzer nicht nur „profilieren“, d. h. ihre Lebenswelt (Freunde, Biographie usf.) darstellen, sondern sich über verschiedene Kommunikationswege (E-Mail, Chat, Messaging usf.) austauschen und Beziehungen pflegen – und eben sich und das eigene Netzwerk mit anderen, möglicherweise Fremden und deren Netzwerk verknüpfen. Es geht also auch um Netzwerkvernetzung. Interpersonale Kontakte sind dabei in der Regel in soziale Off-Line-Beziehungen integriert – „fulltime intimate communities“: das gilt für Messaging-Dienste wie Skype oder MSN, das gilt für E-Mail und auch solche Netzwerk-Communities wie Xing, die eher als „Karriereplattformen“ intendiert sind.30 Doch sind diese Seiten aus vielerlei Gründen auch problematisch – nicht nur aus datenschutzrechtlichen – Stichwort: Personalisierung von Werbebotschaften. Beispielsweise stürzen sich die jugendlichen Intensivnutzer häufig in argloser Auskunftsfreude (man kann eben nicht nicht kommunizieren) und ohne an die Risiken und Nebenwirkungen zu denken in ihr computergestütztes Sozialleben – und ohne etwa zu bedenken, dass die Netzwerkeffekte umschlagen können in unkalkulierbare Netzschmäheffekte. Offenbar – und das zeigt sich ja schon länger auf diesen Aufmerksamkeitsmärkten – geht online die Beißhemmung leicht verloren. Und das umfasst weit mehr als die so schlichte wie gelegentlich heikle Frage, wer wen auf welchen Platz in der Liste seiner besten Freunde setzt (und ob die Nominierung erwidert wird) oder wie gehaltvoll das Zwitschern in der „Weltzentrale der Plattitüden“31, Twitter, letztlich ist. 28
29 30
31
Boyd, D. M. (2007): Social Network Sites: Definition, History, and Scholarship, in: Journal of Computer-Mediated Communication, 13, S. 1-31, hier: S. 2. Der Spiegel, Nr. 10/2009, S. 120 f. Vgl. hierzu insbesondere Stegbauer, C. (2008): Raumzeitliche Struktur im Internet, in: Aus Politik und Zeitgeschichte, 39, S. 3-9, hier S. 7. Der Spiegel (Fn29), S. 126.
338
Klaus Kamps
Diskussion: Information, Artikulation, Organisation Das soll nur skizzieren, dass die Vielfalt der Anwendungen des Web. 2.0 nicht nur einfach ein „Mehr“ an Kommunikations-Chancen eröffnet, sondern auch qualitativ höchst unterschiedliche Kommunikationsbeziehungen etabliert – und über seine Netzwerkgestalt eine herkömmliche SenderEmpfänger-Beziehung überwindet. Kommunikation beschleunigt, „alte“ Ordnungen und Hierarchien lösen sich, Information wird kollektiv und kollaborativ organisiert.32 Kein Zweifel: das Web 2.0 steht zunächst einmal aus der Warte des einzelnen Internet-Users unter Individualisierungsverdacht – im Vergleich zur klassischen Mediennutzung. Wie sieht es nun aus, wenn die aus individualisierungstheoretisch zentralen Dimensionen Information, Artikulation und Organisation herangezogen werden?33 Information Sicher erweitert das Web 2.0 das soziale Informationsdarstellungs- und -verbreitungspotenzial. Hatte der Computer in den 1960er Jahren noch die Vision der künstlichen Intelligenz genährt, so tritt jetzt an deren Stelle die Idee künstlicher Kommunikationsnetze. Und dieses Informieren im Netz ist nunmehr bestimmt durch vergleichsweise selbst bestimmte Pull-und PushVerfahren, wobei die schiere Masse der Informationen (und InformationsVerknüpfungen) weiter steigt; die Möglichkeiten der Informationsverbreitung und -verarbeitung für den Einzelnen wachsen. Allerdings stößt das Web 2.0 als Markt und Umschlagplatz – einmal allgemein gesprochen – von Informationen (und Aufmerksamkeit für Informationen) zwangsläufig auf Grenzen, auf einen Grenznutzen, als mit der Masse der Informationen der Wert einer einzelnen Information immer geringer wird und das Risiko des Missverstehens, Täuschens und Selbsttäuschens steigt: In einem Kommunikationsraum, in dem jeder über alles, was er mitteilen mag, auch informiert, sinkt die Differenzierungskraft jeder einzelnen Information, ja sie tendiert gegen Null: Wenn Informationen Unterschiede sind, die einen Unterschied machen, dann führt die totale Informiertheit letztlich zu totaler Desinformation, weil nicht mehr ausgemacht werden 32 33
Vgl. Meckel (Fn. 2), S. 21 f. Vgl. hierzu auch Kamps, K. (1999): Individualisierung und Integration durch das Netz? Der Grenznutzen des Internet für die politische Partizipation, in: Hasebrink, U. / P. Rössler (Hrsg.): Publikumsbindungen. Medienrezeption zwischen Individualisierung und Integration, München, S. 21-40.
Individualisierung in der Netzwelt
339
kann, warum diese eine Information einen Unterschied macht. Das ist übrigens auch der theoretische Grund für den (vorläufigen) Erfolg von Google, intelligente Assistenten und den Wunsch nach semantischen Suchmaschinen. Mehr Transparenz durch die Vervielfachung von Information und Informationssträngen benötigt Auswahlverfahren – was aber u. U. die eigentliche Funktion direkter, nicht-mediatisierter Information aufhebt. Im „Social Web“ werden dann auch Glaubwürdigkeit, Vertrauen und vielleicht sogar Objektivität des „Informanten“ und damit die „Brauchbarkeit“ der Informationen durch die spezifische Definition von Peer Groups bestimmt – womit sich zugleich eine begrenzte Reichweite durch begrenzte Relevanz einstellt (ohne die Potenz globaler Relevanz individualisierter Kommunikation an und für sich in Frage zu stellen). Allerdings trägt ja gerade die innerhalb der einzelnen Netzwerke intrinsisch hergesellten Relevanzen eine sehr soziale Form des Vertrauens – was die klassischen Massenmedien nicht leisten können. Dieser spezifische Glaubwürdigkeitsvorsprung von sozialen Netzen dürfte mit ein Grund dafür sein, dass Angela Merkel bei Facebook „Fans“ sammelt, Frank-Walter Steinmeier bei Twitter Urkunden an „Followers“ verteilt und Guido Westerwelle sich auf YouTube auf das „Gruscheln“ freut – um nur wenige zu nennen. Artikulation Analog „Grenzwertiges“ gilt für die Artikulation. In einem Kommunikationsraum, in dem sich jeder artikulieren kann, wächst mit der Zahl der Kommunikatoren deren Distinktionsbedarf. Im totalen Artikulationsraum werden sich Aufmerksamkeitsstrukturen herausbilden bzw. weiter „schärfen“ – also erneut so etwas wie Selektionsmechanismen –, die die eigentliche Funktion nicht-mediatisierter, individueller Interessensartikulation aufheben. Und je mehr nun artikuliert wird, desto geringer wird der Wert einer einzelnen distinkten Artikulation, desto größer wird die Wahrscheinlichkeit, relevante Äußerungen zu verpassen. Artikulation als gerichtete Kommunikation muss Aktualität und Distinktion gegenüber anderen Artikulationen besitzen, sonst könnte sie keinerlei Aufmerksamkeit beanspruchen: In einer beschleunigten und entgrenzten Kommunikationsstruktur bedarf es eines Zuweisungsmechanismus. Wenn Barack Obama praktisch „eine Standleitung zu Millionen Wählern“34 unterhielt (geschätzte 13 Mio. Anhänger wurden dauerhaft per Mail und my.barackobama.com in den Wahlkampf einbezogen), dann wurde 34
Der Spiegel FN (Fn. 29) S. 127.
340
Klaus Kamps
ihm diese Distinktion durch das politische System ermöglicht – als (zunächst selbst erklärter, dann nominierter) Präsidentschaftskandidat. Ashton Kutcher, Schauspieler und vorgeblich einer der Menschen mit den meisten „Followers“ bei Twitter, dürfte seine Relevanz nicht beim „Schnatterservice“ erworben haben, sondern in der Abteilung „Celebrity-Hochglanz“. Anders ausgedrückt: Die Aufmerksamkeitsstruktur des Web 2.0 ist systemisch gekoppelt. Die sozialen Gemeinschaften des Web 2.0 mögen dann Gemeinschaften sein, aber nicht im herkömmlichen Sinne, sie operieren auf mindestens zwei Analyseebenen – zumindest dort, wo die Artikulation mittels Masse und „Spill-Over-Effekt“ dann tatsächlich in Richtung gesellschaftlicher Koorientierung gehen könnte. Ansonsten bleibt das Netz als Sozialstruktur ein begrenzter Bereich der sozialen Selbstbeobachtung, der Artikulation im Rahmen kleiner Gemeinschaften (was indes genau diese Funktion nicht schmälert). Zudem sind die Social Communities nicht nur neue Populärmedien, sondern eben auch recht persönliche Medien mit eigentümlicher Intimität und Privatheit, mit eigenen Inszenierungs-Charakteristiken, einer eigenen Artikulationskultur, die von Seiten beispielsweise der politischen Kommunikation einige Adaption erfordert. Die durchgängige Präsenz etwa von AgendaKommunikation im Stil „textbasierte(r) Soap-Operas“35 bei Twitter – „gleich Berzirksvorstandssitzung in Bad Münstereifel“ – kann wohl kaum politische Relevanz jenseits des Gartenzauns einfordern, ist also hoch risikoanfällig. Organisation Zweifelsohne unterstützt das Web 2.0 die autonome Selbstorganisation sozialer Gemeinschaften. Es eröffnet Koorientierung und kooperative Handlungsoptionen – in sozialen Gruppen. Die eigentliche Frage ist dann nicht mehr das Becker’sche „Bin ich schon drin“?, sondern: „Wer ist mit mir drin und wem sag ich es noch?“ Nun lässt sich das Netz dann in der Tat als sozialer Raum verstehen mit Kopräsenz ohne physische Bindung, wenngleich diese Gemeinschaften meist lebensweltlich basieren und gebunden bleiben und damit einen bescheidenen Relevanzhorizont aufweisen: „On many of the large SNSs, participants are not necessarily ‚networking’ or looking to meet new people; instead, they are primarily communicating with people who are already part of their extended social network“36. 35 36
Focus, 13/2009, S. 99. Boyd (Fn. 28), S. 3.
Individualisierung in der Netzwelt
341
Quantitativ wie qualitativ eröffnet Web 2.0 auch Institutionen und Akteure wie etwa Parteien – um erneut auf die politische Ebene einzuschwenken –, die allgemeine Relevanz beanspruchen, die Chance zur Organisation neuer Kommunikations-Wege. Allerdings scheint es, als entwickelte sich auch ein Kommunikationszwang: Schweigen im Web 2.0 ist ein Signal, das etwa einer Politik, die im Wahlkampf steht und „innovativ“ ist oder vorgibt, es zu sein, nicht gut zu Gesicht steht. Damit erhöht sich aber zweifellos das Risiko blauäugiger Web-Romantik, die von den herkömmlichen und von ihrer publizistischen Verbindlichkeit führenden Massenmedien vor allem im Wahlkampf wahrgenommen werden wird – und von den Netznutzern selbst. Für die Politik stellt sich also – und für kleinere soziale Gemeinschaften wohl auch – die Frage des Transfers von Online-Aufmerksamkeit in Offline-Status. Damit ergeben sich für die Organisation des politischen Kommunikationsmanagements – Stichwort Multi-Portal-Politik – eigene Herausforderungen. Dabei geht es nicht nur schlicht um den „guten Auftritt“ oder zumindest: den „angepassten Auftritt“, sondern um die Mobilisierung von Netzwerken in Netzwerken. Genau das ist im viel beobachteten ObamaWahlkampf gelungen. Eine symbolisch-generierte Rüstungsspirale der „Followers“ würde dieser funktionalen Koppelung der eigenen Organisation an die Netzwerke und Plattformen wohl kaum genügen. Aus der Perspektive von Gegen- und Alternativöffentlichkeiten zeigen Beispiele wie Independent Media Center (IMC) hingegen, wie das Netz zum performativen Raum geraten kann, mit dem Netzaktivisten sich organisieren, Themenagenden „buttom-up“ setzen und Aufmerksamkeit beanspruchen: IMCs versuchen nach dem open-publish-System autonome Online-Zonen zu schaffen, sie verknüpfen lokale Arbeit mit dem globalen Kontext. Meist werden dabei die „Praktiken der traditionellen Journalisten und ihre positivistischen Konzeptionen von Objektivität und Unparteilichkeit radikal in Frage gestellt“37. Freilich bleiben diese Alternativöffentlichkeiten sozial-kontextuell meist eng gebunden und auch sie benötigen – derzeit zumindest – für den Anspruch gesellschaftlicher Relevanz „SpillOver-Effekte“ in die Öffentlichkeit der klassischen Medien.
37
Winter, R. (2008): Perspektiven eines alternativen Internet, in: Aus Politik und Zeitgeschichte, 39/2008, S. 23-28, hier S. 26.
342
Klaus Kamps
Fazit Bereits für das „alte“ Internet hatte Manuel Castells festgehalten, dass das Kommunikationssystem durch den Zeitplan und die Form der technologischen Entwicklung modifiziert wird.38 In der Tat sind die Netztechnologien und insbesondere das Internet mit seinem wichtigsten Browser, dem World Wide Web, nicht nur als Querschnittstechnologie für die Wirtschaft, Gesellschaft und Politik zu verstehen, sondern auch als multidimensionales Kommunikationssystem, das sich weiterhin in einer dynamischen Entwicklung befindet. Mit dem „Web 2.0“ und seinen neuen Teilhaben- und Verweisfunktionen scheinen sich zentrale Fragen der sozialen Orientierung im Alltag zumindest für die junge Generation der Netznutzer bereits auf Dauer auch in die Netzwelt verlagert zu haben. Aus individueller Perspektive können die Anwendungen des „Social Web“ zumindest das Informieren, Artikulieren und Organisieren erleichtern, wenngleich das Modell des Grenznutzens zugleich auf Ambivalenzen verweist. Sicher kann man der These vorläufig zustimmen, dass das Internet seit seinen Anfängen schon existierende soziale und kulturelle Formationen verdichtete und durch besondere soziale und kulturelle Praktiken ergänzte – und dass das Web 2.0 nun besondere „digitale Taktiken“39 erlaube, hochaktuell und flexibel. Eine „Vereinzelung“ des Internet-Users in der Folge einer schärferen Variante der Individualisierungsthese, eine „Verarmung“ von persönlichen Beziehungen scheint durch die meist lebensweltlich gebundene Koppelung des „Social Web“ nicht gegeben. Gesellschaftspolitisch betrachtet ist dabei derzeit nicht abzusehen, ob aus dieser Synthese von individueller Kommunikation und kollektiver Vernetzung individueller und kollektiver Akteure nicht nur eine neue Kommunikationsstruktur entsteht, sondern auch ein der klassischen Öffentlichkeit beigestelltes eigenes soziales, politisches „Selbstgespräch“.
Über den Autor Dr. Klaus Kamps, geb. 1965, Studium der Politikwissenschaft, Medienwissenschaft und Neuere Geschichte an der Heinrich-Heine-Universität Düsseldorf, Northern Illinois University in DeKalb, USA, und Canterbury University in Christchurch, Neuseeland. Er war Wissenschaftlicher Assis38 39
Vgl. Castells (Fn. 10), S. 419. Vgl. Winter (Fn. 37) S. 24.
Individualisierung in der Netzwelt
343
tent in Düsseldorf, Vertreter einer Professur für Medientheorie und Medienpraxis in Münster sowie Leiter der Stabsstelle Medien und Telekommunikation in der Staatskanzlei Düsseldorf; derzeit ist er Hochschuldozent in Erfurt, Duisburg und Düsseldorf mit den Arbeitsschwerpunkten Medienpolitik, Politische Kommunikation, Mediensysteme, Medientheorie.
Sicherung der Vielfalt kultureller Ausdrucksformen
Verena Metze-Mangold Kultur ist im weitesten Sinne die Art und Weise, wie wir miteinander umgehen. So etwa lautete vereinfacht die Formel der Weltkulturkonferenz in Mexiko 1982. Geistesgeschichtlich religiösen Ursprungs, haben die Kulturen der Welt über die Jahrhunderte kategorische Werte hervorgebracht, aus denen politische und wirtschaftliche Systeme entstanden sind. Adolf Muschg hat das auf den schönen Begriff gebracht, Literatur sei – wie jede kulturelle Ausdrucksform – ebenso kulturgeprägt wie kulturprägend. Es ist diese Rückbezüglichkeit von Kultur auf Herkunft und Zukunft eines Gemeinwesens, die den Verfassungsrechtler Böckenförde zu dem inzwischen geflügelten Wort veranlasst hat, der Staat lebe von Voraussetzungen, die er selbst nicht herstellen könne. Denn unbestritten ist, dass die historisch gewachsenen Kulturen für die Menschen in Ländern und Regionen aller Welt seelische und geistige Kraftquellen ihrer Identität und ihres Selbstbewusstseins wie auch ihrer Kreativität im globalen Wettbewerb sind – was im „Europäischen Jahr der Kreativität und Innovation 2009“ von besonderem Interesse sein dürfte. Diese Kraftquellen nennt Bernhard Freiherr von Löffelholz „öffentliche Güter der Völker“1, die so unveräußerlich seien wie die Menschenrechte. Kluge Verfassungsväter und -mütter haben dem Staat daher wie in Deutschland ein Vielfaltsgebot auferlegt: Der Staat ist verfassungsrechtlich gehalten, Rahmenbedingungen für Anbieter zu schaffen, die ein vielfältiges, qualitativ hochwertiges Angebot an Informationen und Medien ermöglichen und fördern. Sie waren sich darüber im Klaren, dass nur ein solches Angebot eine Vielfalt an Meinungen garantiert, und diese Vielfalt ist das Lebenselixier jeder demokratischen Gesellschaft.
1
Löffelholz, B. v. (2005): Zur Bedeutung der Kultur für die globale Ordnung, in: Politik und Kultur, Juli – August, S.7.
346
Verena Metze-Mangold
Kulturelle Güter und Dienstleistungen haben allerdings einen Doppelcharakter. Sie sind ohne Frage „Vehicles of Values“, nichts geringeres also als Bedeutungsträger geistiger Werte und Lebensweisen, unbestritten aber sind sie auch Handelsprodukte. Und als Handelsprodukte, also Kulturgüter und Kulturdienstleistungen, ist ihre Bedeutung im Zuge der Entstehung und Ausweitung des Weltmarktes seit dem späten 19. Jahrhundert und erst recht im Zuge der Entstehung der „Netzwelt“ Ende des 20. Jahrhunderts exponentiell gestiegen. Wie sehr Kultur abhängig ist von wirtschaftlichen und politischen Bedingungen auf dem Weltmarkt, aber auch von wissenschaftlichen und technologischen Errungenschaften, lässt sich in diesen hundert Jahren bis zu der tiefgreifenden Erschütterung der Weltwirtschaft am Ende des ersten Jahrzehnts des 21. Jahrhunderts nachzeichnen. Kultur und Wirtschaft stehen in ständiger Wechselwirkung, wenn sie im Gleichgewicht sind, blühen beide, wenn das Wirtschaften sich von der Kultur trennt, kommt es zu Brüchen. Dem Bruch, der eine weltweite „Krise“ des Kapitalismus zeitigte, folgt nun, nach einer kurzen Debatte über das Gespenst „Systemwandel“, beherzt die Forderung nach einer „Charta der Werte“2. Man fühlt sich an Robert Musils Mann ohne Eigenschaften erinnert: „Es erging Arnheim nicht anders wie seinem ganzen Zeitalter. Dieses betet das Geld, die Ordnung, das Wissen, Rechnen, Messen und Wägen, alles in allem also den Geist des Geldes und seiner Verwandten an und beklagt das zugleich“: Ein tief zerrissenes Zeitalter, das, während es besinnungslos rechnet, eine innere Mahnung zur Umkehr nicht los wird.
Paradigmenwechsel Ende des 20. Jahrhunderts Das Paradigma der Welt des 20. Jahrhunderts, so ließe sich schlussfolgern, war Homogenität. Der Pragmatismus und der Erfolg der Amerikaner haben bei aufstrebenden Eliten in vielen Teilen der Welt die Übernahme amerikanischer Marktregeln gefördert. Über die neoliberale Wirtschaftswissenschaft der Chicagoer Schule haben diese Marktregeln in alle internationalen Wirtschaftsverträge und Weltorganisationen Eingang gefunden, so auch in die Welthandelsorganisation (WTO) und sogar in die Kommission der Europäischen Union. Sie beanspruchten „absolute Priorität für die Weltordnung – nicht nur im Außenverhältnis der Staaten zueinander – sondern, mit dem Endziel totaler Liberalisierung, auch im Umgang der 2
Merkel, A. / J. P. Balkenende: Die Chance jetzt ergreifen, in: Frankfurter Allgemeine Zeitung v. 18. März 2009, S. 10.
Sicherung der Vielfalt kultureller Ausdrucksformen
347
Menschen miteinander. Es liegt in der Logik dieses Prozesses, dass mehr und mehr demokratische Macht durch wirtschaftliche Macht, Staatsbürger durch Marktteilnehmer, Wählerstimmen durch Kaufkraft ersetzt werden … Die Ideologen der totalen Liberalisierung übersehen (jedoch), dass nicht das billigste Angebot, woher immer es komme, sondern die kreativen und produktiven Kräfte im Lande das Wohlergehen der Menschen nachhaltig sichern“.3 Die neoklassische Wirtschaftstheorie, die auf dem verkümmerten Menschenbild des homo oeconomicus aufbaue, ließe die kulturellen Grundlagen des Wirtschaftens außer Acht, so die Schlussfolgerung. Die beste Allokation der Produktionsfaktoren – Boden, Arbeit, Kapital – zur Versorgung der Nachfrager: Das habe der Klassiker der marktwirtschaftlichen Theorie, Adam Smith, von der „unsichtbaren Hand des Marktes“ erwartet. Einen homo oeconomicus fände man bei ihm, dem von der Autonomie ethischer und ästhetischer Werte überzeugten Moralphilosophen, jedenfalls nicht. Der Paradigmenwechsel brach sich mitten im „Raubtierkapitalismus“ (Helmut Schmidt) Ende des 20. Jahrhunderts Bahn. Auslöser war der Bericht über die „Grenzen des Wachstums“ des Club of Rome. Wie verhalten sich diese Grenzen in einer kapitalistischen Welt zu den Möglichkeiten der Entwicklung, fragte der Brundlandt-Report, der 1987 als Weltbericht der Vereinten Nationen in der Frankfurter Paulskirche vorgestellt werden sollte. Ein wenig schien es, als hätte der genius loci seine Hand im Spiel gehabt: „Das Wichtigste sind die Bezüge, sie sind alles“ – dieser modernen, heute würden wir sagen „systemischen“, Einsicht Goethes war der Brundlandt-Report, und waren alle weiteren der in knapper Folge erscheinenden Weltberichte der Vereinten Nationen im ausgehenden 20. Jahrhundert verpflichtet. Den ersten Bezug stellte also der Brundlandt-Bericht 1987 her zwischen den Grenzen des Wachstums und den Möglichkeiten globaler Entwicklung. Es folgte der „Erdgipfel“ von Rio 1992. Sein Thema hieß Entwicklung und Nachhaltigkeit. 1995 folgte die Frage nach dem Verhältnis von Kultur und Entwicklung. Der Weltbericht von Pérez de Cuéllar unter dem Titel – hier ist der Begriff zum ersten Mal zu finden – „Our Creative Diversity“, unsere kreative Vielfalt, formuliert in einer seiner einprägsamsten Passagen: „Our most basic need is to be left free to define our basic needs“. Mit dem heutigen Abstand mutet es kaum als Zufall an, dass der Weltbericht im selben Jahr erschien, in dem der GATS-Vertrag zur Liberali3
Löffelholz (Fn. 1); siehe auch Metze-Mangold, V. / C. Merkel (2006): Magna Charta der Internationalen Kulturpolitik. Die UNESCO-Kulturkonvention vor der Ratifizierung, in: Media Perspektiven, S. 362- 374.
348
Verena Metze-Mangold
sierung der kulturellen Dienstleistungen der Welthandelsorganisation WTO in Kraft trat. Dann, 1998, der vierte Bezug, jener zwischen Nachhaltigkeit und Kultur, zu finden in der Formel der 3.Weltkulturkonferenz in Stockholm: „Cultural goods and services should be fully recognised and treated as being not like other forms of merchandise“ – also nicht wie Seife und Schnürsenkel. Und diese Aufforderung ging direkt an die Staaten als Zeichner des Aktionsplans der Stockholmer Weltkulturkonferenz. Zur Überraschung mancher Beobachter reagierten die meisten Staaten tatsächlich sofort. Im Rahmen der 31. UNESCO-Generalkonferenz (2001) verabschiedeten sie einvernehmlich die Deklaration zur Kulturellen Vielfalt (Declaration on Cultural Diversity). Die UNESCO, das „einzige ständige und weltweite Forum zur Erörterung von medienpolitischen Fragen“, so der Medien und Kommunikationsbericht der Bundesregierung4, verständigte sich erstmals auf gemeinsame Normen für internationale Kulturpolitik und setzte unter dem Gesichtspunkt des Völkerrechts das Paradigma Vielfalt als „soft law“. Der Paradigmenwechsel vom 20. zum 21. Jahrhundert ist jener von Homogenität zu Vielfalt. Keine vier Jahre dauerte es, bis aus den gemeinsam formulierten Normen ein Vertragsentwurf geworden war und die Weltgemeinschaft in Paris im Herbst 2005 mit überwältigender Mehrheit dem völkerrechtlichen Übereinkommen zustimmte. Bereits zwei Jahre später war das Übereinkommen in mehr als dreißig Staaten durch die Parlamente ratifiziert worden, die Konvention ist damit seit Anfang 2007 Teil des Völkerrechts. Der Weg dorthin war atemberaubend. Die Geschichte kennt keinen vergleichbaren Prozess der Entstehung internationalen Rechts. Er ist unter dem Gesichtspunkt der mentalen Erkenntnisse erhellend. Die Deklaration war eben gefeiert worden, da schaute die Welt auf den zweiten „Erdgipfel“. Sie hörte den Satz von Jacques Chirac im September 2002 in Johannisburg: Wir seien von einer physischen, doch ebenso von einer virtuellen, das Bewusstsein prägenden Umwelt umgeben – ein Satz, mit dem der damalige französische Staatspräsident den Bezug von biologischer zu kultureller Nachhaltigkeit aufzeigte. Dieser Zusammenhang sollte später in der UN-Dekade „Bildung für nachhaltige Entwicklung“ eine wichtige Rolle spielen. Neben der klugen politischen Arbeit der Kanadier war es schließlich Chirac, der den Weg zur Ausarbeitung der Konvention in die UNESCO wies – und Frankreich den Ausweg aus der Sackgasse des französischen Konzepts der „exception culturelle“. Der amerikanische 4
Beauftragter der Bundesregierung für Kultur und Medien (Hrsg.) (2008): Medien- und Kommunikationsbericht der Bundesregierung, Berlin, S. 15.
Sicherung der Vielfalt kultureller Ausdrucksformen
349
Präsident Obama würdigte zu Beginn seiner Amtszeit in einem Brief an Chirac die historischen Verdienste des ansonsten ja nicht unumstrittenen französischen Staatsmanns im Hinblick auf eine nachhaltige Entwicklung der Welt. Das schmerzt vor allem den derzeitigen Amtsinhaber Sarkoszy sehr. Dass Obama in diesem Brief auch die Haltung Frankreichs im Irakkrieg erwähnte, ist schön, weil es zeigt, wie sehr sich die weltpolitische Bühne verändert hat. Aber es ist ungerecht. Chirac ist dem deutschen Kanzler Schröder in der Irakfrage erst gefolgt, als Schröder im Januar 2003 in Paris anlässlich der Feierlichkeiten zu vierzig Jahre Elysée-Vertrag überraschend seine Zusicherung gegeben hatte, Deutschland werde für eine Konvention zur kulturelle Vielfalt eintreten. Was das völkerrechtliche Übereinkommen anbetrifft, war der Stein ins Rollen gekommen. Noch im selben Jahr forderten die Mitgliedsstaaten den UNESCO-Generaldirektor auf – die Amerikaner waren eben erst in die UN-Organisation zurückgekehrt –, einen internationalen Völkerrechtsvertrag ausarbeiten zu lassen und ihn der Generalkonferenz 2005 vorzulegen.
Die politische Herausforderung Es handelt sich um einen historischen Prozess mit ungewöhnlichem politischen Momentum. Während Juristen aus aller Welt auf Einladung des Generaldirektors mit Hochdruck an einem Konventions-Entwurf arbeiteten, ereignete sich in Europa das „Wunder von Brüssel“: Der Europäische Rat beauftragte die Kommission mit der Verhandlungsführung für alle 25 Mitgliedsstaaten bei den Vertragsverhandlungen in Paris. Europa, der regionale Wirtschaftsverbund, wollte in der multilateralen UN-Kulturorganisation mit einer Stimme sprechen. Die Direktionen Handel und Kultur bildeten gemeinsam eine „Task Force“. Nur die Briten behielten sich in ihrem Schreiben an den Ministerrat vor, das Mandat jederzeit aufkündigen zu können, um in der multilateralen Organisation UNESCO wieder mit nationalstaatlicher Stimme sprechen zu können. Sie kündigten es gleichwohl zu keinem Zeitpunkt auf. Vielmehr hatten sie in der entscheidenden Verhandlungsrunde über den Konventionsentwurf in der Generalkonferenz 2005 den Ratsvorsitz inne und waren damit im Delegationsvorsitz. Die Annahme des Entwurfs und die überwältigende Zustimmung in der UNESCOGeneralkonferenz im Oktober 2005 ist somit auch ein Verdienst der Briten. Regelungsgegenstand des neuen normativen Instruments ist der Schutz und die Vielfalt kultureller Ausdrucksformen. Wie in der praktischen Konkordanz im internationalen Recht, zielt die Konvention auf eine Kon-
350
Verena Metze-Mangold
kordanz der Politiken von Handelsrecht, Urheber- und Wettbewerbsrecht, von Forschungs-, Bildungs- und Medienrecht. Es handelt sich, wie ein kluger Diplomat nach der Annahme des Vertragswerkes sagte, um das erste völkerrechtliche Instrument zur Gestaltung der Folgen der Globalisierung. In der mit dem Ende des kalten Krieges entstandenen multipolaren Welt zeichneten sich die Folgen der Globalisierung in einer Reihe von Widersprüchen ab, die die Einbeziehung vielfältiger Kulturen in eine tragfähigen globalen Entwicklung vereitelten. Die Globalisierung „hatte zu einer Verflechtung und dadurch zu einer immer stärkeren Abhängigkeit der unterschiedlichen Gesellschaften von einander geführt. Das Streben nach kultureller Selbstbestimmung und die Betonung der jeweils eigenen Identitäten stehen in offenbarem Kontrast, zugleich jedoch in einem logischen Verhältnis zu dem durch die Globalisierung verursachten Druck zur Angleichung der Lebensstile und Konsummuster. Weltweit werden gewachsene Wertvorstellungen und soziale Gefüge durch die Globalisierung in Frage gestellt. Dies bietet Entwicklungschancen, ruft aber auch Verunsicherung hervor. Traditionen, hergebrachte Verhaltensmuster und das kulturelle Erbe werden in Frage gestellt.“5 Vor dem Hintergrund dieser Entwicklungen müsse die bisher bedeutendste kulturpolitische Setzung durch die UNESCO gesehen werden, wie der Generalsekretär der Deutschen Kommission, Roland Bernecker, Anfang 2009 im Auswärtigen Amt darlegte. Das „UNESCO-Übereinkommen zum Schutz und zur Förderung der Vielfalt kultureller Ausdrucksformen“ stehe im Kern für etwas, das uns gegenwärtig wieder sehr beschäftige: die Frage nach dem vernünftigen Gleichgewicht von freien Märkten und in diese eingreifenden ordnungspolitischen Rahmensetzungen zur Absicherung übergeordneter gesellschaftspolitischer Ziele. Vielfalt sei ein solches Ziel, weil die Sicherstellung der kulturellen Vielfalt für pluralistische Gesellschaften eine Ressource sei, die den Men5
Bernecker, R.: Kreativität und kulturelle Vielfalt – das UNESCO-Übereinkommen zum Schutz und zur Förderung der Vielfalt kultureller Ausdrucksformen. Transkript seiner Rede im Auswärtigen Amt im Dezember 2008. Insbesondere Entwicklungsländer setzten, so Bernecker, hohe Erwartungen in das neue Übereinkommen. Was Kader Asmal, der südafrikanische Vorsitzende der Verhandlungskonferenzen für den Vertragstext zur kulturellen Vielfalt, den „extraordinary enthusiasm for the Convention“ nenne, habe sich in seinem eigenen Land geäußert, als das südafrikanische Parlament, nachdem es den einstimmigen Beschluss zur Ratifizierung der Konvention gefasst hatte, sich zu minutenlangem stehendem Applaus erhoben hätte. In Rekordtempo sind 94 Vertragsparteien dem Instrument bis Anfang 2009 beigetreten, unter ihnen die Europäische Gemeinschaft.
Sicherung der Vielfalt kultureller Ausdrucksformen
351
schen erst wirkliche Handlungsoptionen eröffne. Das betreffe nicht zuletzt auch die problematische Konzentration der Medienlandschaft in immer weniger internationale Unternehmen. Eine Nivellierung des Medienpluralismus – und die völlig neuen Kapitalisierungsformen internationaler Medien, so muss man hinzufügen – wirke sich selbstredend auf die Informationsfreiheit der Bürger eines Landes aus.6
Internationale Beziehungen, internationale Verträge und die Rolle Europas Als Völkerrechtsvertrag, dem inzwischen fast hundert Staaten beigetreten sind, darunter China und Indien, steht das Übereinkommen auf Augenhöhe mit den Welthandelsverträgen GATT, GATS und TRIPS der 1995 gegründeten Welthandelsorganisation WTO.7 Es sind dieselben Staaten, die jene Verträge schlossen, die nun der Konvention beitreten. Sie müssen bestrebt sein, die Verhandlungen entsprechend einer normativen Richtschnur und nicht etwa gegensätzlicher Maxime zu führen. Als Übereinkommen zur Förderung der Vielfalt kultureller Ausdrucksformen ist der neue Vertrag allerdings in erster Linie eine Antwort auf den GATS-Vertrag (General Agreement on Trade in Services). Er hat die Verhandlungen zur Liberalisierung kultureller Dienstleistungen zu einem weltweiten Prozess gemacht und ihn zugleich institutionalisiert. Es geht um den sukzessiven Abbau von Handelsschranken und Wettbewerbshindernissen bei kulturellen, medialen und Bildungsdienstleistungen – und zwar just zu dem Zeitpunkt, zu dem das digitale Netz das Ende des anlogen Zeitalters einläutete. Damit lag auch die Frage nach der begrifflichen Zuordnung virtueller Produkte auf dem Tisch. Sind sie elektronische Güter oder elektronische Dienstleistungen? Rundfunk oder Telekommunikation? Wirtschaft oder Kultur? Habermas hat recht: Begriffe sind alles andere als neutral. Sie entscheiden in der internationalen Politik darüber, welcher Vertrag Anwendung findet – und damit auch über das Ergebnis. Ohne die Kulturkonvention führe die Liberalisierung kultureller Dienstleistungen, so Bernecker im Auswärtigen Amt, langfristig dazu, öffentliche Förderung kultureller Angebote als Eingriff in das Marktgeschehen zu bewerten und irgendwann einmal als wett6 7
Bernecker (Fn. 5). Vgl. Metze-Mangold (Fn. 3); s. auch Pauwels, C. / J. Loisen (2004): Von GAT zu GATS und darüber hinaus. Die Bedeutung der WTO für die audiovisuelle Politik, in: Media Perspektiven, S 489-500.
352
Verena Metze-Mangold
bewerbsverzerrend völlig zu untersagen. Ein Jahrzehnt globaler vernetzter Welt habe jedoch gezeigt, welche hohen gesellschaftlichen Risiken die Logik birgt, dass ordnungspolitisches Handeln in der Kultur zugunsten der Selbstregulierung der Märkte abzubauen sei. Eines der zentralen Probleme in den WTO-Verhandlungen sei gewesen, dass dort massive kulturpolitische Setzungen verhandelt wurden, ohne dass die Kulturpolitk in diese Verhandlungen eingebunden gewesen sei. Eine der nicht nur aus deutscher Sicht interessantesten Fragen in diesem bemerkenswerten Prozess ist jene nach der Rolle Europas, genauer gesagt, nach der Haltung der Europäischen Union und den Folgen dieser Haltung für ihre Außenbeziehungen einerseits und den europäischen Raum andererseits. Bekanntlich ist Europa kein Bundesstaat. Dass ein regionaler Wirtschaftsverbund sich anheischig machte, in der UN-Kulturorganisation mit einer Stimme sprechen zu wollen, ist überhaupt nur dadurch zu erklären, dass in Europa – mit den bekannten Nuancierungen – ein weitgehender Konsens darüber herrscht, dass Kultur nicht eines von vielen anderen Marktsegmenten ist, in dem Angebot und Nachfrage von selbst die gewünschte Marktstruktur hervorbringen, sondern dass vielmehr gerade dieses Segment der so genannten „meritorischen“ Güter, die wegen ihres Verdienstes für die Gesellschaft unverzichtbar sind, häufig von Marktversagen gekennzeichnet ist – was die Güter allerdings nicht überflüssig macht. Denn ihr Wert für die Gesellschaft ist höher zu veranschlagen als ihr wirtschaftlicher Wert. Auch diese Erkenntnis geht auf Adam Smith zurück. Bei ihm und anderen aufgeklärten Geistern des 17. Jahrhunderts wie etwa John Locke findet sich daher die Überlegung, dass es in Nationalökonomien aus Gründen der Sicherung der Vielfalt im Sozialen neben der Sphäre des Staates und jener des Marktes ein „Tertium“ geben müsse: Den öffentlichen Raum, verstanden als politische Setzung. Wie weit diese Überzeugung eines Kulturraumes, in dem Eigenes und Fremdes einander begegnen können, bis in das Leben und die Architektur der großen europäischen Metropolen Platz gegriffen hatte, um auch anderen Bilderwelten und Anschauungen Raum zu geben, hat der amerikanische Philosoph Richard Sennett aufs anschaulichste beschrieben.8 Kommerz und Kultur sind ein Paar, dessen Beziehungen man pflegen muss. Seit der Erfindung des Buchdrucks weiß Europa das und kennt viele Formen, die dieses Paar an Kunst- und Wissensräumen hervorgebracht hat – von Stiftungen bis zu den vielfältigen Formen der „public domain“, des öffentlichen Raumes. Der 8
Sennett, R. (1983): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität, Frankfurt a. M.
Sicherung der Vielfalt kultureller Ausdrucksformen
353
US-amerikanische Bestsellerautor Jeremy Rifkin hält allein schon aus diesem Grund das „europäische Modell“ für andere Teile der Welt für weit anschlussfähiger als das amerikanische, das sich in der Figur „Markt versus Staat“ erschöpfe. Die Europäische Union hat mit ihrer aktiven Rolle bei der Entstehung des internationalen Kulturrechts an die eigene Geschichte angeknüpft. Die spannende Frage ist: mit welchen Folgen für die Union selbst? Just diese Frage stellte das Europäische Parlament vier Experten und bat sie im Februar 2008 zu einer öffentlichen Anhörung in seinen Kulturausschuss, unter ihnen die Verfasserin. Die UNESCO-Konvention war knapp ein Jahr zuvor, am 18. März 2007, in Kraft getreten – und an diesem Tag innergemeinschaftliches Recht geworden. Das Beitrittsdokument der Europäischen Gemeinschaft stammt vom 18. Mai 2006, ratifiziert hat sie das Übereinkommen als einer der ersten Vertragsparteien am 18. Dezember desselben Jahres. „Das UNESCO-Übereinkommen ist die Magna Charta internationaler Kulturpolitik. Sie setzt den Rechtsrahmen für Maßnahmen der Kulturpolitik ihrer Vertragsparteien, die ohne das Abkommen Gefahr liefen, als wettbewerbsverzerrend eingestuft zu werden. Das Abkommen basiert auf der Anerkennung der Doppelnatur von kulturellen Ausdrucksformen als Kultur- und Wirtschaftsgut und ist anderen Verträgen nicht untergeordnet (Art. 20). Die Europäische Gemeinschaft und alle 27 Mitgliedsstaaten sind dem ersten Kulturinstrument im Völkerrecht beigetreten und alle haben es inzwischen ratifiziert“9. Die Frage des Parlaments nach der Umsetzung der Konvention innerhalb der EU einerseits und im Rahmen ihrer Außenbeziehungen andererseits treffe damit den aktuellen Punkt.10 Aus völkerrechtlicher Sicht könne, so alle Gutachter, an der vol9
10
Vgl. EU Beitrittsdokument: 2006 / 515 / EC: Council Decision of 18 May 2006 on the conclusion of the Convntion on the Protection and Promotion of the Diversity of Cultural Expressions (Amtsblatt vom 25. Juli). Metze-Mangold, V.: Implementation by the European Community of the UNESCO Convention on the Protection and Promotion of the Diversity of Cultural Expressions. Transkript des Gutachtens. Diese und weitere Stellungnahmen siehe die Homepage European Parlament, Committee on Culture and Education. Die Frage ist im weiteren auch im Kontext des im Dezember 2007 von den 27 Staats- und Regierungschefs angenommen EU-Vertrags von Lissabon zu sehen, der die Grundrechtecharta von Nizza rechtskräftig werden ließ und der Kulturpolitik den europäische Rechtsrahmen setzte, bevor er an den ablehnenden Voten der Niederlande und Irlands zunächst einmal scheiterte. Sozusagen als Resultante von globalem und europäischem Vertragswerk lässt sich die europäische Kulturagenda im Zeichen der Globalisierung begreifen,
354
Verena Metze-Mangold
lumpfänglichen Verpflichtung zur Implementierung des Übereinkommens innerhalb der Europäischen Union kein Zweifel bestehen.11 Der Ratsbeschluss zur Umsetzung in das Europäische Recht vom 18. Mai 2006 weise keine Spur eines Vorbehalts auf. Vielmehr betont die Erklärung, die die Europäische Gemeinschaft aus Anlass der Hinterlegung des Beitrittsdokuments bei der UNESCO in Paris abgegeben hat, in Anhang 2 ausdrücklich die Bindungswirkung der Konvention: „Die Gemeinschaft ist durch die Konvention gebunden und wird ihre verpflichtende Umsetzung garantieren“, heißt es da. Nun gelten Verträge immer nur nach Maßgabe der Kompetenzen der Vertragsparteien. Und bekanntlich sind die Kompetenzen in der Gemeinschaft geteilt. Es handelt sich daher um ein so genanntes gemischtes Abkommen. Bei gemischten Abkommen sind Verträge daraufhin zu prüfen, wo sie von wem anzuwenden sind, konkret, wo die politische Entwicklung durch die Gemeinschaft und wo sie durch die Mitgliedstaaten zu verantworten ist. In den USA hieße es schlicht: „Who is in the driver’s seat?“ Der Europäischen Kommission wurde diese Anfrage beherzt von der Abgeordneten Ruth Hieronymi übermittelt, Kulturkommissar Figel hat sie im Namen der gesamten Kommission beantwortet. Die Gemeinschaft müsse die Bestimmungen der Konvention anwenden – in ihrer Binnenmarktpolitik, in der Wettbewerbspolitik, in der Handelspolitik. Die Konvention habe keineswegs Geltung nur in den Außenbeziehung der Gemeinschaft zu beanspruchen, namentlich der gemeinsamen Wirtschaftsund Handelspolitik für Europa. Die Gemeinschaft habe sich mit dem Beitritt vielmehr verpflichtet, in allen entscheidenden Aufgabenfeldern zusammenhängende Politiken unter Berücksichtigung der Bestimmungen der Konvention zu entwickeln. Für diese Kohärenz der einschlägigen Politik-
11
die im November durch den Ministerrat verabschiedet wurde. Die Agenda nennt drei strategische Ziele, und alle drei sind für die Frage der Umsetzung der UNESCO-Konvention im Binnen- und im Außenverhältnis der Europäischen Union einschlägig. Grundsätzlich können Konventionen bei ihrer Ratifizierung mit einer Beschränkungsklausel versehen werden, wie es die USA etwa beim „Internationalen Pakt über bürgerliche und politische Rechte“ mit der innerstaatlichen Anwendungsbeschränkung tat. Auch die Europäische Gemeinschaft kennt die Anwendung von Beschränkungsklauseln. Bei Abschluss internationaler Verträge sind sie nicht unüblich. So ist die EG dem GATS-Vertrag der Welthandelsorganisation (WTO) Mitte der neunziger Jahre mit der Ausnahmebestimmung zum AV-Sektor beigetreten. Neuvorlage der Beschränkungsklausel in der WTO ist nach 10 Jahren.
Sicherung der Vielfalt kultureller Ausdrucksformen
355
felder, die sich im Übrigen bereits aus dem EU-Vertrag, Art. 1,3 und 3,212 ergibt, bietet die Konvention nun der Gemeinschaft seit ihrem Beitritt den normativen Rahmen für kulturpolitische Zielsetzungen mit den entsprechenden internationalen Rechten und Pflichten. Lässt sich also die Frage der Anwendung der Konvention im Binnenverhältnis der EG eindeutig mit ja beantworten, so ist die Frage des „Wie“, der Umsetzung, nicht ganz so leicht zu haben. Juristisch ist die Überlegung völlig richtig, dass die EG mit der Ratifizierung des UNESCOÜbereinkommens nicht nur Verpflichtungen in ihrem Außenverhältnis eingegangen ist, gegenüber der WTO etwa, sondern diese Verpflichtungen gleichsam auch nach innen importierte. In der Gemeinschaft verstärkt das zweifellos die Bezugspunkte für kulturpolitischen Grundlagen des gemeinschaftlichen Handelns.13 Kulturpolitische Grundlagen des gemeinschaftlichen Handelns sind so genannte „horizontale“ Rechtsgrundlagen. Sie zielen darauf ab, die allgemeinen Ziele der Gemeinschaft zu gewährleisten, namentlich die Freizügigkeit im Binnenmarkt und seine Vollendung.14
Die Implementierung der Bestimmungen in Europa Da es einer Änderung des EG-Vertrags nach dem Beitritt zur Konvention nach Auffassung der Kommission nicht bedarf, ist und bleibt die Politik der EU bei der Regulierung von Kultur- und Medieninhalten in erster Linie Binnenmarktpolitik, die durch kulturelle Förderpolitik lediglich ergänzt wird. Das ist der Grund vieler kulturpolitischer Widersprüche und Kontroversen im europäischen Tagesgeschäft. Zwar schließt die Gemeinschaft 12
13
14
EU-Vertrag von Nizza, Artikel 1,3 (hebt ab auf die mit dem EU-Vertrag eingeführten Politiken und neue Formen der Zusammenarbeit, um die Beziehungen zwischen ihren Mitgliedsstaaten sowie zwischen ihren Völkern kohärent zu gestalten) und 3,2 (hebt ab auf die abgestimmte Außen-, Sicherheits-, Wirtschaftsund Entwicklungspolitik); Kommission und Rat sind für diese Kohärenz verantwortlich und stellen die Durchführung der entsprechenden Politiken sicher. Vgl. EU-Vertrag, Art. 151, 3 (Kulturbelange in den Außenbeziehung) und Art. 151,4 (Kulturbelange bei der Gestaltung der Politikfelder der Gemeinschaft); Amsterdamer Protokoll; „Kulturagenda in Zeiten der Globalisierung“, hier besonders die „Strategischen Ziele“ und die „horizontale Methode“. Die Verträge der EU weisen der Gemeinschaft keinen spezifischen Gestaltungsauftrag für Kultur und Medien zu; vgl.: Reding, V. (2004): Praktische Konkordanz. Europäische Visionen einer pluralen Medienordnung, in: epdmedien, S. 24-31, hier S. 25.
356
Verena Metze-Mangold
eine künftige Anpassung der internen Regeln nicht völlig aus15, verweist aber derzeit auf Art. 22 der Grundrechtecharta, der besagt, dass die Union die Vielfalt der Kulturen achtet, und auf Art. 151 EG-Vertrag, der die Rechtsgrundlage für kulturpolitische Fördermaßnahmen darstellt und die Vorschrift zur Prüfung der Kulturverträglichkeit der allgemeinen Politik. Aus diesem Grund ist auch die europäische „Kulturagenda im Zeichen der Globalisierung“16 in Folge des Ratsbeschlusses vom November 2007 hinsichtlich der Umsetzung der Ziele und Maßnahmen der UNESCOKonvention enttäuschend. Als Referenzdokument findet die UNESCOKonvention in der „Kulturagenda“ lediglich im Abschnitt zu den EUAußenbeziehungen ausdrückliche Erwähnung. Welche Rolle den Bestimmungen der Konvention bei dem erstrangigen strategischen Ziel, der Förderung von „Kultur als Katalysator für Kreativität“ zukommt, bleibt in der Agenda ausgespart. Damit fällt die Europäische Gemeinschaft mindestens in der Agenda hinter ihren Möglichkeiten und Verpflichtungen zurück und beraubt sich vor allem eines durch den Beitritt zu diesem Völkerrechtsinstrument erst entstandenen neuen politischen Gestaltungsspielraums. Dennoch gilt, was Bundespräsident Horst Köhler am 27. März 2009 in der Paulskirche17 sagte, als Deutschland der ersten Verfassung einer deutschen Nationalversammlung gedachte, die nie in Kraft trat und dennoch europäische Geschichte schrieb: Wir können uns nur in und mit den gegebenen Strukturen entwickeln. Die UNESCO-Konvention trat in Kraft und sie entfaltet für die Gemeinschaft seit ihrem Beitritt Bindungswirkung. Das gilt im Verhältnis zu ihren Mitgliedsstaaten und das gilt in ihrem Verhältnis zu den fast hundert Vertragsstaaten des Übereinkommens und schließlich im Verhältnis zu den beiden Organen des Völkerrechtsabkommens – der Konferenz der Vertragsstaaten und ihrem zwischenstaatlichen Ausschuss. Jede dieser Dimensionen setzt neue Fakten. Man könnte sagen: Es sind diese vier wechselseitigen Bezüge, die wie die Vektoren eines Parallelogramms der Kräfte den öffentlicher Raum internationaler Kulturpolitik in Europa heute konstituieren. Denn schließlich legitimiert die Konvention das souveräne Recht der Mitgliedsstaaten, zum Schutz und zur Förderung 15
16
17
Vgl. Entschließung des Rats der Europäischen Union zum Beitritt zur Konvention vom 18. Mai 2006 (2006/515/EC, Annex 2). Vgl. Mitteilung der Europäischen Kommission über eine europäische Kulturagenda im Zeichen der Globalisierung vom 10. Mai 2007; Entschließung des Rates zu einer Europäischen Kulturagenda vom 16. November 2007. Vgl. /Reden-und-Interviews-,11057.653401/Rede-von-Bundespraesident-Hors. htm?global.back=/-%2c11057%2c0/Reden-und-Interviews.htm%3flink%3dbpr_ liste.
Sicherung der Vielfalt kultureller Ausdrucksformen
357
der Vielfalt kultureller Ausdrucksformen in ihren Territorien durch eine Vielzahl exemplarisch und nicht abschließend genannter Maßnahmen (Kapitel IV des Übereinkommens) beizutragen. Diese Legitimierung konkretisiert wiederum substantiell das im EG-Vertrag, Art. 151,4 formulierte Gebot der Rücksichtnahme auf die Kulturbelange der Mitgliedsstaaten bei geteilten Kompetenzen. Die nationalen Politiken müssen im Rat koordiniert werden. Und über die erzielten Fortschritte ist den Organen der Konvention alle vier Jahre zu berichten. Das betrifft alle 27 EU-Staaten, und es betrifft auch die Gemeinschaft selbst. Nach EU-Vertrag zuständig sind Rat und Kommission. Sie haben somit die Verantwortung für die konzeptionellen und strukturellen Ansätze einer kohärenten Politik der Gemeinschaft zur Umsetzung der Ziele der UNESCO-Konvention für die Vielfalt kultureller Ausdrucksformen. Nachdem die Bestimmungen der Konvention innerhalb der Gemeinschaft Anwendung finden müssen, ist die Frage des Schutzes und der Förderung der Vielfalt kultureller Ausdrucksweisen in den europäischen Rechtsetzungsverfahren auch ein Lackmutstest für die Regulierungsprojekte der Europäischen Gemeinschaft. Diese Verfahren befinden sich heute in einem völlig veränderten Kontext. Entscheidend ist, dass sich mit den digitalen Breitband-Technologien die grenzüberschreitende Vermittlung von kulturellen Inhalten mit hoher Dynamik vollzieht. Der vorrangig von nationaler und föderaler Kultur- und Medienpolitik geprägte „Kulturmarkt“ wird zunehmend international und ermöglicht eine Vielzahl von neuen Geschäftsmodellen, ohne dass entsprechende Regelungen vorliegen. Das verstärkt den Binnenmarkt in seinen Zuständigkeiten und erhöht den Druck auf Wettbewerbs- und Handelspolitik. Hier sind nicht die Mitgliedsstaaten zuständig, sondern die Gemeinschaft. Die „praktische Konkordanz“ im Zusammenspiel der Kompetenzebenen, von der Kommissarin Reding im Blick auf die Kultur- und Medienregulierung in der Europäischen Union 2004 aus Anlass des zwanzigjährigen Jubiläums des Privatfunks in Deutschland sprach, wird so zunehmend erschwert. Überall dort, wo sich Kultur durch kulturelle Dienstleistungen manifestiert, befindet man sich alsbald im Wirtschaftsrecht. Wirtschaftsrecht ist im Binnenmarkt bekanntlich vergemeinschaftet. Und das bedeutet, hier geht Gemeinschaftsrecht gegenüber dem Recht der Mitgliedsstaaten vor. Es sitzt im ersten Rang18 – oder im Schleudersitz, wie man es nimmt. Bei geteilten 18
Die Ministerpräsidenten der Bundesländer forderten im März 2007 anlässlich einer Sitzung in Brüssel die Europäische Kommission auf, die in der UNESCOKonvention verankerten Grundprinzipien deshalb im europäischen Sekundär-
358
Verena Metze-Mangold
Kompetenzen stellen die „Effekte des Zusammenwirkens von Beschleunigung und Komplexität“19 ganz besonders hohe Anforderungen an alle, die für einzelne Regulierungsfragen politisch und administrativ verantwortlich sind. Sie müssen den sich rasant veränderten Gesamtzusammenhang erfassen und die Auswirkungen ihrer Arbeit an Detailregulierungen kultureller Ausdrucksformen qualitativ und quantitativ einschätzen können – also die „Kulturverträglichkeit“ unter den Anforderungen der Konvention und den Bedingungen der Konvergenz mitdenken. Eine Herkulesaufgabe, wie der Tag der Anhörung im Februar 2008 in Brüssel illustrierte. Da fragte der Kulturausschuss nach den notwendigen Implikationen der UNESCO-Konvention, wenige Räume weiter wurde das „Telecom Package“ unter dem Stichwort „Better Regulation“ samt einer europäischen Regulierungsbehörde für elektronische Kommunikation verhandelt, während zeitgleich europäische Rundfunkanbieter eine von ihnen in Auftrag gegebene Studie zur so genannten „Digitalen Dividende“ der Rundfunkfrequenzen vorstellten und Lobbyisten fristgerecht an ihren Stellungnahmen zur „Mitteilung über kreative Online-Inhalte im Binnenmarkt“20 feilten: Strittig sind immer die Fragen nach Verfügungsmacht und gesellschaftlicher Organisation im Verhältnis zwischen Kulturindustrie und Kulturpolitik. Unstrittig ist, dass nicht alle Regeln der analogen Welt eins zu eins in die digitale Welt übertragbar sind. Entscheidend ist die Frage nach den leitenden Prinzipien einer Gesellschaft. Sie haben Geltungsanspruch unabhängig von der jeweiligen Technologie. In den Verhandlungen zur Ausarbeitung der UNESCO-Konvention wurde dieser wesentliche Zukunftstrend klar benannt. Die Herausforderungen der Konvergenz wurden im Vertragstext dementsprechend ausdrücklich benannt: „Kulturelle Vielfalt“, heißt es dort, zeige sich auch in den „vielfältigen Arten des künstlerischen Schaffens, der Herstellung, der Verbreitung, des Vertriebs und der Nutzung von kulturellen Ausdrucksformen, unabhängig davon, welche Mittel und Technologie verwendet wurden“ (Art. 4,1).
19
20
recht zu verankern. Vgl. Wiedemann, V. (2007): Ein Kyoto-Protokoll für die Kultur. Die UNESCO-Konvention zur kulturellen Vielfalt, in: ARD-Jahrbuch, S. 24-47, hier S. 27. Vgl. Schneider, N. (2008): Die vierte Fiktion. LfM-Direktor Norbert Schneider zu einem neuen Medienkonzentrationsrecht, in: epd medien Nr. 13 S. 24-28, hier S. 26. Die Konsultationsfrist endete am 29. Februar 2008.
Sicherung der Vielfalt kultureller Ausdrucksformen
359
Es ist „von hohem Reiz, Lösungen für ein altes Problem zu finden, dass sich in einer neuen Umgebung stellt“21. Die Frage ist: Sind es international, national und in der Gemeinschaft dieselben gesellschaftlichen Prinzipien, also Anforderungen an die Gesetze, die uns leiten? Das Prinzip der Technologieneutralität (Art. 4.1 der Konvention) etwa. Oder der Grundsatz der Komplementarität (Art. 5) der wirtschaftlichen und kulturellen Aspekte. Oder auch die Verpflichtung der Vertragsparteien, die Zugänge zu den kulturellen Ausdrucksformen offen zu halten, was hieße, sie nicht blindlings den Verknappungsstrategien internationaler Konzerne zu unterwerfen. Diese Prinzipien betonen die Doppelnatur von öffentlichem Gut und Wirtschaftsgut ausdrücklich. Die Länder müssen sich bei der Entwicklung von Politiken, die durch die Bestimmungen der Konvention heute legitimiert sind, selbstredend an das europäische Recht halten. Es kann also seinerseits nicht so ausgestaltet sein, dass es den Mitgliedsstaaten die Möglichkeit verbaut, ihre legitimen Ziele zu erreichen. Daran ist auch die Kommissionspolitik in ihren Einzelmaßnahmen zu messen. Als von der Europäischen Gemeinschaft anerkannte Magna Charta internationaler Kulturpolitik halten die Bestimmungen der Konvention vor allem den öffentlichen und den politischen Verhandlungsspielraum in der Europäischen Gemeinschaft offen. Und das Parlament tut das seine und nutzt ihn. In der politischen Kultur ist es wie beim Parallelogramm der Kräfte: Der Spielraum entfaltet sich in dem Maße, in dem die Vektoren ihn ausprägen. Dazu gehört auch die Ebene der Öffentlichkeit; und die kritische Prüfung der Rechtsetzung für den Sektor der „creative industries“.
Normen künftiger Regulierung und Mittel der Durchsetzung Lässt man die Initiativen der Europäischen Kommission der letzten Jahre im Bereich des politischen Brennpunktes „Kreative Inhalte, Medien, Telekommunikation“ Revue passieren, stellt sich eine Reihe von Fragen, die alle auf die Kernfrage zulaufen, ob und inwieweit sich in der Gemeinschaft bereits ein grundsätzlicher Wechsel in der Funktionszuschreibung an Kultur und Medien vollzogen hat, der mit der Konvention nicht vereinbar wäre. Eine Liste von zehn Fragen an den Teilbereich elektronischer Medien, die dem Kulturausschuss 2008 vorgelegt wurde, macht mindestens nachdenklich. Es drängt sich die Frage auf: Gelten die fünf Eckpunkte noch, 21
Schneider (Fn. 19), S. 28.
360
Verena Metze-Mangold
die im Wege der Konsultation über das Grünbuch zur Konvergenz 1997 als Normen künftiger Regulierung für Medien und Kommunikation festgehalten worden sind22, allen voran das Prinzip, die Ziele der Regelungen und ihre Mittel seien so zu wählen, das sie technikneutral wirken? 1. Die Regulierung der Übertragungsnetze (network) und die Regulierung der Medieninhalte (content) sind bei der Rechtssetzung zu unterscheiden; 2. Die Ziele der Regelungen und ihre Mittel sind so zu wählen, dass sie technikneutral wirken; 3. Vorgaben für die Regulierung der Übertragungsnetze sind zwischen Telekommunikations- und Rundfunkrecht zu vereinheitlichen; 4. Die Regelungen der Medieninhalte werden nicht an der Verbreitungsart der Inhalte, sondern an ihrer Wirkung auf den Meinungsbildungsprozess ausgerichtet und abgestuft gefasst; den höchsten Anforderungen muss der Rundfunk als Medium und Faktor gesellschaftlicher Entwicklungen genügen, interaktive Dienste hingegen den geringsten. 5. Für die Aufsicht wird ein Einheitsmodell für eine übergreifende Instanz für den Medien- und Telekommunikationssektor empfohlen, soweit die nationale Tradition das erlaubt. Es ist fraglich, ob diese Prinzipien gemeinsam geteilt werden im Europa der Lissabon-Strategie – und auch, inwieweit das Verständnis der Begrifflichkeit von allen geteilt wird. Was bedeutet Technikneutralität im Kontext heutiger Richtlinienvorschläge und des „Telko-Packets“? Die Entwicklung einer kohärenten Politik in und für Europa ist unter den Bedingungen geteilter Kompetenzen in der EU und im Kontext neuer Marktdynamiken durch Digitalisierung und Internationalisierung eine Gestaltungsaufgabe von unbestritten hohem Rang: ņ Mit dem Ratsbeschluss vom Mai 2006 wurde auf der rechtlichen Ebene geprüft, ob die mit dem Beitritt zur Konvention übergegangenen Rechte und Pflichten (Kapitel IV, Art. 5 bis 19) als Normen der Gemeinschaft durch die horizontalen Rechtsgrundlagen (151,4 und 151,3 EU-Vertrag) allein umsetzbar sind, und das wurde bejaht; ņ diese sogenannten „horizontalen Rechtsgrundlagen“, die im wesentlichen kulturelle Fördermaßnahmen legitimieren, sofern sie zu den 22
Entschließung des Rats, vgl. (Fn. 14).
Sicherung der Vielfalt kultureller Ausdrucksformen
361
allgemeinen Zielen der Binnenmarkspolitik beitragen, müssen also verstärkt in ihrer Querschnittsfunktion genutzt werden, um die Implementierung der Konvention in die allgemeinen Politikbereiche der Gemeinschaft zu gewährleisten. Welche Politikbereiche das sind, hält das Dokument zur Hinterlegung der EU-Ratifizierungsurkunde sorgfältig fest;23 ņ unter Federführung der DG Kultur wäre ein Arbeitsplan durch eine gemischte Gruppe zu entwickeln mit Eckpunkten für die Umsetzung der Verpflichtungen, die sich aus der Konvention ergeben, in die einzelnen Politikbereiche; ņ Ergebnis der Arbeit der gemischten Gruppe sollte ein Eckpunktepapier für Rat, Parlament und Zivilgesellschaft sein; ņ die Expertise der Zivilgesellschaft ist in diesem Prozess zu berücksichtigen (Art.11); zu Detailberatungen können Sachverständige der Welt-Wissenschaftsverbände in den Beratungsprozess ex-ante einbezogen werden. Die von der Deutschen UNESCO-Kommission im Rahmen der Deutschen Ratspräsidentschaft veranstaltete internationale Konferenz „Kulturelle Vielfalt – Europas Reichtum“ hat im April 2007 bereits interessante Vorschläge vorgelegt; ņ die konsequente Einbeziehung der Bestimmungen der Konvention in die von der Europäischen Gemeinschaft seither geschlossenen Handelsverträge bieten eine Handhabe zur Überprüfung der Umsetzung auch im europäischen Raum politischer Entwicklungen; ņ das strukturelle Defizit, das sich durch den veränderten Zuschnitt Generaldirektionen Kultur / Bildung sowie Informationsgesellschaft / Audioviduelle Medien seit 2004 ergibt, muss durch die koordinierte Zusammenarbeit der einschlägigen Direktionen systemisch überbrückt werden. Der Zuschnitt der geteilten Verantwortungsbereiche Kultur einerseits und Informationsgesellschaft und audiovisuelle Medien andererseits fällt hinter die frühere sinnhafte institutionelle Organisation der Kommission zurück, die gegenüber den neuen Herausforderungen der digitalen Welt auf der Höhe der Zeit war;
23
Vgl. Dörr, D. (2001): Möglichkeiten und Grenzen supranationaler Deregulierung von Rundfunkveranstaltern, Köln; Metze-Mangold V. (2006): Konvergenz, in: Schiwy, P. / W. Schütz / D. Dörr (Hrsg.): Medienrecht, München, 4. Aufl., S. 262 -271, hier S. 265.
362
Verena Metze-Mangold
ņ als Exekutive hat die Kommission die Pflicht, den Organen der UNESCO-Konvention über die Fortschritte in der Umsetzung ihrer Bestimmungen spätestens alle vier Jahre zu berichten (Art. 9). Innereuropäisch könnte der Zeitraum verkürzt werden – im Wege einer Selbstverpflichtung; ņ dem Europäischen Parlament, das mit dem EU-Vertrag von Lissabon neue Initiativrechte hinzu gewonnen hat, wäre gegebenenfalls das Recht zuzubilligen, die Umsetzung der Konvention auf Gemeinschaftsebene sowie die Berichtspflichten der Kommission regelmäßig zu überwachen. Es könnte vorgesehen werden, dass dem Parlament die Berichte der Kommission, die turnusmäßigen wie die ggf. angeforderten Sonderberichte, vorgelegt werden, bevor sie an die UNESCO in Paris übermittelt werden. Das erhöhte die innere Bindungswirkung und die öffentliche Transparenz.
Paulskirche des 21. Jahrhunderts Es zeichnet sich ab, dass in Kürze rund 100 Staaten und damit die Mehrheit aller Staaten überhaupt den Beitritt zur Konvention vollzogen haben werden. Das Völkerrecht kennt keinen vergleichbaren Vorgang. Die Europäische Gemeinschaft hat eine herausragende Rolle in diesem Prozess gespielt.24 Der Europäischen Gemeinschaft eröffnet die vertragskonforme Anwendung des internationalen Rahmenabkommens für Kulturpolitik eine vorher nicht gegebene Chance: Sie schlüge eine Brücke zwischen Wirtschaft und Kultur, beendete das „Entweder Oder“ zugunsten eines „Sowohl Als Auch“ und eröffnete den Raum für einen neuen sozialen Reichtum durch eine abgestimmte politische Gestaltung der verschiedenen Ebenen in einer Gemeinschaft, die künftig zunehmend von neuen Produkten und Märkten im Umfeld der „creative industries“ leben will. Die bislang wenig erfolgreiche „Lissabon-Strategie“ der Europäischen Gemeinschaft könnte so vom Kopf auf die Füße gestellt werden. Es geht im Kern um eine prospektive Politik zur Umsetzung der komplexen Wechselwirkungen von Digitalisierung und gesellschaftlicher Entwicklung mit dem Ziel der Fortsetzung einer für die Welt auch künftig noch bedeutsamen europäischen 24
Metze-Mangold, V. (2006): Zwischen Welthandel und kultureller Vielfalt: Welchen Spielraum lassen WTO und UNESCO für die Regulierung der audiovisuellen Medien?, in: Pitzer, S. / I. Scheithauer (Hrsg.): Rundfunkregulierung im Bermudadreieck zwischen WTO, UNESCO und Europa. Berlin.
Sicherung der Vielfalt kultureller Ausdrucksformen
363
Kulturtradition. Armut und Wohlstand an Bildung und Wissen, so der Bundespräsident in der Paulskirche, definierten schon zum Zeitpunkt der Nationalversammlung nicht nur unsere materiellen Bedingungen – sie seien auch heute entscheidend für die Optionen des Lebens, die der menschlichen Freiheit zu Gebote stehen. Die Paulskirche der globalisierten Welt von heute seien die Vereinten Nationen, schloss der Bundespräsident. Wem das zu hoch ist, der wird vermutlich aber nicht umhin können, Außenminister Frank-Walter Steinmeier zuzustimmen: Wir leben in dem Wissen, „dass wir zum ersten Mal in der Geschichte der Menschheit unsere zentralen Probleme nur noch gemeinsam lösen können. Dass wir genau deswegen ein gemeinsames Bewusstsein, eine gemeinsame Verantwortungsgemeinschaft benötigen“25.
Über die Autorin Dr. Verena Metze-Mangold, Jg. 1946, ist Bereichsleiterin des Hessischen Rundfunks und Vizepräsidentin der Deutschen UNESCO-Kommission. Sie studierte Politikwissenschaft, Soziologie und Geschichte in Berlin und Marburg, leitete die Evangelische Medienakademie (cpa) im Gemeinschaftswerk der Evangelischen Publizistik in Frankfurt (1976 bis 1987), wechselte dann zum Hessischen Rundfunk und übernahm die Leitung der Presse- und Öffentlichkeitsarbeit, baute die Medienforschung auf, war in der Zeit der Deutschen Einheit (1989-1990) Pressesprecherin des ARDVorsitzenden und leitet heute die Filmförderung des Hessischen Rundfunks. Seit 1982 ist sie Mitglied der Deutschen UNESCO-Kommission (DUK), seit 1996 Vorstandsmitglied, seit 1997 Vizepräsidentin. Sie war von 1996 bis 1998 Vorsitzende des Fachausschusses Kommunikation, Information und Informatik. Sie ist Vorsitzende des Beirats der „Stiftung Digitale Chancen“ und seit 2001 Vertreterin Deutschlands im Zwischenstaatlichen Rat der UNESCO „Information for All“. Schwerpunkt ihrer Veröffentlichungen sind Themen der Internationalen Entwicklung, der WTO und des Völkerrechts, der Presse- und Informationsfreiheit, des Medienmarktes, der internationalen Regulierung, der Menschenrechte und die Standards und Prinzipien des Völkerrechts sowie der interkulturellen Kommunikation.
25
Steinmeier F.-W. (2009), in: Auswärtige Kulturpolitik 2007/2008, Berlin, S. 26.
Telekom-Monopoly und Human Flesh Search – Europäische Ideen zu Chinas Informationsgesellschaft
Thomas Hart
Chinas Informatisierung Chinas Informations- und Kommunikationsmärkte wachsen wie die in keiner anderen Region weltweit, das Land „informatisiert“ und bringt neue Kommunikations- und Interaktionsplattformen in die Verwaltung, Schulen und Haushalte. Mitte 2008 überholte China die USA als das Land mit den meisten Internet-Usern und hatte zum Jahreswechsel 2008/09 schon fast die 300 Millionen erreicht – im Schnitt ist jeder dieser 300 Millionen pro Tag mehr als zwei Stunden im Netz.1 Immer noch wächst die chinesische Internet-Gemeinde um etwa 50 Prozent jährlich. Einem beachtlichen Anteil der User steht eine taugliche Bandbreite zur Verfügung, um sich mit dem ganzen Spektrum des Lern- und Spaß-Angebotes befassen zu können, das das WWW bereit hält: Mehr als 80 Prozent haben das Dial-UpZeitalter übersprungen und sind direkt mit wenigstens einem 1-MB-DSLAnschluss auf die Datenautobahn aufgefahren. Mitte 2008 waren über 12 Millionen .cn Domain Names registriert. China war eine der ersten Regionen, die die Implementierung von IPv6 und der internationalisierten Domain Names in Angriff genommen hat.2 Moderne Nutzungsformen wie Mobile Payment und mobiler Internet-Zugang sind unter den Onlinern stark verbreitet und wachsen überdurchschnittlich stark mit der weiteren Verbreitung von persönlichen Internet-Zugängen. Chinas erfolgreichste Suchmaschine Baidu.com hat es geschafft, Google 1
2
Daten aus dem Jahresbericht 2008 des China Internet Network Information Center (CNNIC), http://cnnic.cn/uploadfiles/pdf/2008/7/23/170516.pdf, sowie von Xinhua; http://news.xinhanet.com/english/2009-01/13/content_10653018.htm. http://www.cnnic.cn/html/Dir/2005/10/11/3218.htm.
366
Thomas Hart
im Zaum zu halten, und ist täglich unter den zehn oder 15 meist genutzten Internet-Seiten weltweit.3 Blogging und Twittering, Social Networks und Chatting (mit dem weltweit erfolgreichsten Chat Client QQ, mit angeschlossenem Social Network) sind im chinesischen Privat-(und Büro-)Alltag omnipräsent. China hat sich an die Informationsgesellschaft nicht heran getastet wie Europa, durch langsame Verschiebungen von der Analog- zur Digitalgesellschaft. Chinas arbeitende und spielende Bevölkerung springt auf jede Gelegenheit zur Modernisierung, Elektronisierung und Informatisierung. Man ist Gadget-begeistert und jederzeit bereit, Fashion und Innovation in Form neuer Endgeräte und Mehrwertdienste in den eigenen Alltag zu integrieren. ITLiteracy und Medienkompetenz verbreiten sich rasch. Internet- und Online-Spiele-Sucht sind allgegenwärtig, digitale Bürgerwehren sorgen unter der Überschrift der „Human Flesh Searches“ für Unruhe und Regulierungsmaßnahmen wie obligatorische Fatigue Modes in Spielen, InternetSuchtkliniken oder das Verbot der Online-Verbreitung persönlicher Daten versuchen, dieser Phänomene Herr zu werden. Die schiere Größe des Landes, komplexe Verwaltungsstrukturen und die oft mangelhaften Verbindungen zwischen den Regionen, zwischen den Provinzhauptstädten und der Peripherie führen zu großen Erwartungen an die distanzverkürzenden Kommunikationsdienste. Für alle Phänomene rund um das Thema Informationstechnologie, Informationsgesellschaft, E-Government, E-Commerce und E-AllesAndere etablierte sich der Begriff „Informatisierung“. Eine genau Definition davon gibt und braucht es nicht – Informatisierung erkennt man, wenn man sie sieht, und man sieht sie in Form des Eindringens elektronischer Kommunikationsformen, Datenbanken, automatisierter Prozesse, sich verändernder Nutzergewohnheiten, konvergierender Mediendienste und steigender Zahl an dezidierten Regierungsbudgets und internationalen Fachkonferenzen zu Telekommunikation, E-Government, Konvergenz oder E-Commerce. Die „Informatisierung“ der Gesellschaft im Dienste der wirtschaftlichen und sozialen Entwicklung wird auf unterschiedlichen Ebenen gesteuert: Nationaler 5-Jahres-Plan und „Informatization Strategy 2005 – 2020“4 formulieren die erwarteten nationalen und internationalen TechnologieEntwicklungen und darauf aufsetzend Leitprinzipien, strategische Zielsetzungen und Kernziele für das Informatisierungsprogramm Chinas. 3 4
http://www.alexa.com/site/ds/top_sites?ts_mode=global&lang=none. Siehe etwa http://unpan1.un.org/intradoc/groups/public/documents/APCITY/ UNPAN025040.pdf für eine Zusammenfassung der Strategie.
Telekom-Monopoly und Human Flesh Search
367
Im Folgenden soll Licht auf die Entwicklungen insbesondere der chinesischen Kommunikationsmärkte geworfen werden, und das vor allem hinsichtlich der Frage, welche Rolle europäische Erfahrungen bei der weiteren Entwicklung des chinesischen Politik- und Regulierungsrahmens spielen können. Existierende Beratungskooperationen wie das EU-China Information Society Project (www.eu-china-infso.org) treten an mit der Mission, europäische Best Practice zur Verfügung zu stellen, um bei der Entwicklung der chinesischen Märkte zu helfen – nicht nur, aber auch aus der Vermutung heraus, dass offene und kompetitive Märkte allen dienen: den chinesischen Bürgern ebenso wie den chinesischen und internationalen Unternehmen, die in der Branche aktiv sind. Ist Rat vor dem Hintergrund unterschiedlicher ökonomischer politischer Gegebenheiten aber überhaupt möglich und sinnvoll? Einige Erläuterungen zur chinesischen Informatisierungs- und Industriepolitik scheinen angebracht, um sich diesen Fragen anzunähern.
Chinas Informations-Industriepolitik Diese Informatisierungspolitik geht Hand in Hand mit einer Industriestruktur, die nach wie vor von Staatsunternehmen dominiert wird. Legt man die Schablone des EU-Programms „i2010“ über die chinesische Informatisierungspolitik, so zeigen sich auf den ersten Blick wenige Unterschiede. Subventionierungsprogramme wie FP6/FP7 spiegeln sich in den chinesischen Fördertöpfen für High-Tech Research and Development (kurz „863 Programme“5), es gibt zahlreiche Foren und Konferenzen, mit denen die jeweiligen Regierungen ihre Politikfindungsprozesse unterstützen, und es gibt konkrete Rechtsrahmen zur Gestaltung und Absicherung der Informationsgesellschaft in ihren zahllosen Ausprägungen. Bei der Telekommunikationspolitik stößt man schnell auf Unterschiede: Man könnte sagen, das ausreichend lange Zögern der EU-Kommission, sich für die Unterstützung eines technologischen Standards zu entscheiden, stellt ein wichtiges Element der europäischen MarktregulierungsPhilosophie dar. Die Festlegung durch den öffentlichen Sektor wird generell als zu vermeidendes Übel wahrgenommen – nur die zweitbeste Lösung und der autonomen Einigung durch die Industrie klar unterlegen.6 „Staat“ 5 6
http://www.most.gov.cn/eng/programmes1/200610/t20061009_36225.htm. Siehe etwa Hart, T. (1999): Europäische Telekommunikationspolitik, Aachen, S. 256 f.
368
Thomas Hart
hat hier die Funktion, Diskussionsplattformen anzubieten und den Animateur für effektivere Diskussionsprozesse der Industrieakteure zu geben. Das Resultat wird meist die Förderung einer denkbaren Alternative sein – mit ein wenig Glück einer sehr guten. Die technischen Vorzüge eines „guten“ Standards verschmelzen mit den Vorteilen eines „existierenden“ Standards. Neben dieser Frage der neuen Standards werden Regierungen versuchen, mit Förderprogrammen, Pre-Commercial Procurement, Steuererleichterungen, asymmetrischer Regulierung und anderen Werkzeugen aus dem Policy“-Warenkorb, möglichst schnelle und langfristig sinnvolle Marktentwicklungen zu fördern. In der Logik chinesischer Industriepolitik stellt sich der Prozess des Überführens eines Sektors in die nächste Technologiegeneration doch sehr unterschiedlich dar. Schon die Ausgangssituation ist oft eine andere: Hintergrund der letzten Telekom-Reform ist (wie meist) die Frage, welche Unternehmenskonstellationen imstande sein werden, die sich (er-)öffnenden Märkte im In- und Ausland zu bedienen. Die bisherigen können das nicht: ein System, das sich aus Technologie- und Regionalmonopolen speist, produziert nicht zuverlässig international wettbewerbsfähige Kraftprotze. Die chinesischen Unternehmen wie China Mobile sind groß – „groß“ wie in „viele Kunden, die keine große Wahl haben“. Letztlich waren sie nie funktionsfähigem Wettbewerb ausgesetzt, und die Vermutung steht deshalb im Raum, dass sie ineffizient arbeiten. Die chinesischen Märkte wachsen – in erster Linie durch steigende Kaufkraft, nicht durch Innovation und Wettbewerb angebotsseitig induziert. China Mobile ist zu reich, um Risiken eingehen zu müssen, China Unicom zu schwach, um sich etwas leisten zu können, und die anderen Akteure hatten keine Lizenz für mobile Dienste, die vermeintliche Eintrittskarte ins 21. Jahrhundert. Diese Situation ist solange angenehm, solange der Markt geschlossen bleibt. Durch den WTO-Beitritt wurde aber ein unumkehrbarer Prozess der Öffnung in Gang gesetzt. Internationale Wettbewerber im heimischen chinesischen Markt würden den Nachweis erbringen, inwieweit Chinas Unternehmen konkurrenzfähig sind. Ein radikaler Umbau des Marktes sollte dafür die Weichen stellen. Zum Auftakt des Telekommunikations-Monopoly wurde 2008 per Anordnung des Eigentümers (der staatlichen Verwaltung für Staatsunternehmen, SASAC7) das Top-Management von China Mobile, China Telecom und China Unicom neu sortiert und Manager zwischen diesen Unternehmen verschoben. Dann wurden die Unternehmen selbst umgebaut, der Kauf bzw. Ver7
http://www.sasac.gov.cn.
Telekom-Monopoly und Human Flesh Search
369
kauf von Unternehmensteilen staatlich „angeregt“ und rasch durchgeführt. Nachdem es zuvor Mobil- und Festnetz-Riesen gab (China Mobile, China Telecom), neben denen Sparten-Anbieter (wie China Railcom) und MarktSchwächlinge (China Unicom mit nur einer CDMA-Lizenz) keine Aussicht hatten, jemals in direkten Wettbewerb treten zu können, und die sich deshalb in ihren Sparten oder Regionalmonopolen beschieden, griff der wohlwollende Diktator nun mit kräftiger Hand in den Baukasten – heraus kamen drei Unternehmensgruppen, die gleichermaßen das komplette Dienstleistungsspektrum Fixed-Mobile-Broadband anbieten können:8 ņ „China Mobile“ = China Mobile + China TieTong Telecommunications (China RailCom) + TD-SCDMA-3G-Lizenz; ņ „China Unicom“ = China Unicoms Mobilfunksparte + China Netcom + WCDMA 3G-Lizenz; ņ „China Telecom“ = China Telecom + China Unicoms CDMAAktivitäten + CDMA2000 3G-Lizenz. Der Platzhirsch China Mobile trägt dabei das schwerste Päckchen, denn mit der hausgemachten TD-SCDMA-Technologie darf das Unternehmen nun im Dienste chinesischer nationaler Industriepolitik den Beweis erbringen, dass man im Inland auf höchstem Niveau moderne Technologie entwickeln und dabei auch noch Lizenzgebühren an ausländische Unternehmen sparen kann. Entschieden hat sich für diesen Standard und die Lizenz zur flächendeckenden Bereitstellung niemand – die Lizenzen wurden schlicht zugeteilt.
Re-Regulierung mit chinesischen Charakteristika Man kann diesen Aktivitäten ansehen, was „Reform“ im Kontext der chinesischen Industriepolitik weiterhin bedeutet: Unternehmen auseinander brechen und neu zusammenzusetzen, Personal zwischen den Vorständen zu verschieben und Standards zuzuordnen. Dieser stark intervenierende Staat ist Ergebnis einer Kombination der nationalen Verwaltungshistorie, eines allumfassenden Apparates der Planung und Durchführung von Industrie und der Analyse internationaler Erfahrungen.
8
Für eine Übersicht z. B. http://www.ft.com/cms/s/6ffc8976-30b1-11dd-bc93000077b07658.
370
Thomas Hart
Wie ist das Ergebnis einzuordnen? Ist die Etablierung von drei 3GMobilfunkstandards die richtige Schlussfolgerung aus der Abwägung aller bisherigen Erfahrungen? Es ist einfach, mit dem Kopf zu schütteln, denn von einem Standard hat man in Europa am liebsten, dass er nicht nur technologisch perfekt, sondern (wichtiger noch) dass er am Ende als einziger überlebt. In China wurden Anfang 2009 drei Lizenzen verteilt, von denen man zwei als nicht nur überflüssig, sondern als für die Entwicklung des chinesischen Marktes regelrecht schädlich einschätzen könnte. Dass dies in europäischer Logik und auch nach akademischer Betrachtung so ist, bedeutet natürlich nicht, das Vorgehen erfülle nicht seinen Zweck: Einen Standard zu verwenden, der international renommiert und global funktionsfähig ist (WCDMA), und ihn dann an den vermeintlich schwächsten Lizenznehmer zu vergeben, hat seine Logik innerhalb eines System asymmetrischer Regulierung chinesischer Art. Der zwar auch proprietäre, aber immerhin international etwas verbreitete CDMA2000 Standard kommt zum zwar riesigen, aber im Mobilfunkgeschäft gerade neuen China Telecom, während China Mobile sich mit den Tücken des unausgereiften TD-SCDMA herumärgern muss. Die regelmäßige Re-Organisation von Unternehmen zerstört Planungssicherheit, besser: verändert den Planungsprozess grundlegend, denn Unternehmen, die jederzeit mit Zerstückelung und Umbau rechnen müssen, agieren anders als solche, die sich darauf verlassen können, dass ihre Steuermänner ökonomischen oder schlichter noch: pekuniären Motiven innerhalb eines Regulierungsrahmens folgen. Der chinesische Markt wird aber nicht reguliert, sondern durch die Regierung gesteuert. Die Steuermänner bestimmen über Peitsche (TD-SCDMA) und Zuckerbrot (Milliardenausgaben für den Netzausbau). Ein Land wie China aber, das eine Tradition in einer starken Trennung zwischen Staat und Nicht-Staat aufweist und dessen Staatssektor das bisherige Wachstum auch der modernsten Sektoren durchaus kontrollieren und im Zaum halten konnte, hat noch keine Philosophie entwickelt, „Modernisierung“ im Sinne einer Rückführung staatlicher Eingriffe zu verstehen. Es existiert keine De-Regulierungsstrategie, die von der Grundvermutung der Staatsabstinenz ausgeht (und den Regulierenden permanent unter Nachweiszwang setzt, dass der Regulierungsgrund weiterhin besteht). Fehlt der demokratische Entscheidungs- und Legitimationsmechanismus, so wird ein mit der „Regulierung“ des Sektors betrauter Beamter sich auf die von ihm eingeholten Expertenmeinungen und seine eigenen Fähigkeiten der Entscheidungsfindung zurückgeworfen sehen. Was ihm bleibt, ist beschränkt rationaler Paternalismus. Das gilt für das Einschätzen der
Telekom-Monopoly und Human Flesh Search
371
noch zulässigen Nacktheit auf einer Internet-Seite ebenso wie für die angemessene Preisregulierung bei Netzzusammenschaltung. Eine Tendenz, die in einem solchen System verstärkt wird, ist die der Zaghaftigkeit und Modernisierungsscheu.
Außensicht auf Innen-Informatisierung Kann man von außen die chinesische Industriepolitik normativ werten? Kann man, darauf aufbauend, Ratschläge formulieren, die ökonomisch korrekt und politisch gerecht sind? Sicher, man kann, und es gibt schon nach einem kurzen Blick viele Gründe, an Chinas Regulierungsansätzen Kritik zu üben. Diese Kritik kann sich anlehnen an die Diskussion um andere starke Staatsapparate, die das Geschick ganzer Industrien von innen heraus managen. Dabei herrscht eine Art Transformations-Konsens, dass Japan und Korea als Erfolgsgeschichten gelten und die initiale Protektion sich entwickelnder Märkte zwar nicht gelobt werden sollte, aber letztlich eine legitime Transformations-Strategie sein kann. Das Regulieren einer Industrie aus dem Inneren eines intransparenten Ministeriums heraus wird ebenfalls gerne als temporäre, derweil lässliche Sünde verstanden. Durch den Beitritt zur WTO hat sich China verpflichtet, seine Telekommunikationsmärkte zu öffnen und transparent und unabhängig zu regulieren. Niemand bezweifelt, dass „Öffnung“, „Unabhängigkeit“ und „Transparenz“ ihre eigene Interpretation in der chinesischen Politikrealität finden werden. Zudem ist glaubwürdig, dass die Regulierer am Wachstum des Sektors interessiert sind, also wenigstens teilweise den gleichen Zielvorstellungen folgen wie ein nationaler Regulierer in der EU. Könnte man bei ökonomisch bedingter Regulierung noch objektive Kriterien (Kostenmodelle, Marktdominanzkriterien oder ähnliches) heranziehen, anhand derer regulatorische Eingriffe überprüft und mit Alternativen verglichen werden können (was auch die Kritik erleichterte), so fehlen im Bereich der außerökonomischen Regulierung derartige Referenzgrößen. Regulierung bewegt sich hier zum einen zwischen Politikfeldern (Industrie- und Sozialpolitik etwa beim Universaldienst), zum anderen fehlen oft konkrete Kriterien und damit Vergleichbarkeit. Damit ist es nicht nur an sich schwerer, wahrgenommene Defizite (Regulierungsgründe) bestimmten Regulierungsinstrumenten zuzuordnen. Der internationale Diskurs über angemessene oder unangemessene Regulierung wird dadurch ebenfalls erschwert, oft unmöglich gemacht. Während viele Staaten zum Thema Digital Divide noch auf das gleiche Wertekorsett zurückgreifen können wie China,
372
Thomas Hart
ist es beim Thema der Regulierung von Medieninhalten kaum mehr möglich. Somit wundert es kaum, dass dieser Bereich der außerökonomischen und vor allem der inhaltsbezogenen Regulierung sehr viel stärkere öffentliche Kritik aus dem Ausland provoziert als die unterschiedlichen Ansätze zur Netzregulierung und Marktstrukturierung. Es würde sich lohnen, im Detail des EU-China-Vergleichs zu betrachten, an welchen Stellen die Kombination aus unterschiedlicher Rechtstradition, auch fehlenden klaren chinesischen Rechtsgrundlagen und geringer Transparenz bei der Durchführung der Regulierung für Regulierungseffizienz und -effektivität direkte Implikationen für die Entwicklung eigener chinesischer Lösungen haben – und welches Vorbild die europäische Regulierungspraxis dabei dennoch bieten kann. Man könnte etwa fragen, ob anstelle eines dem EU-Vorbild folgenden unabhängigen Regulierers nicht eine Institution innerhalb des Regierungsapparates geschaffen werden kann, die immer noch WTO-Anforderungen gerecht wird, gleichzeitig aber etwa der (derzeitigen) Unmöglichkeit Rechnung trägt, eine Regierungsinstitution durch eine Nicht-Regierungsinstitution kontrollieren zu lassen. Bei der Analyse solcher institutioneller und organisatorischer Regulierungsdesigns für China stehen die EU-Beispiele OFCOM und BuNetzA im Mittelpunkt des Interesses: sie decken zusammen ein gehöriges Spektrum dessen ab, wie eine Regulierungsinstitution aufgebaut sein kann, welche Aufgaben durch sie abgedeckt und welche Kompetenzbereiche in ihr vorhanden sein müssen.9 Die Aufgabe für die Strategen des zuständigen Ministeriums in Beijing und seinen angeschlossenen Expertenkreisen besteht dann darin, einen „chinesischen Weg“ zu formulieren, der funktional zufrieden stellt und gleichzeitig die formalen Anforderungen aus dem In- und Ausland erfüllt. Nicht nur die dominierende Rolle des Staates spielt hier eine Rolle – oft sind EU-Beispiele schon deshalb nicht übertragbar, weil die chinesische Rechtslage andere Voraussetzungen schafft. Wenn man über die Regulierung der Netzebene 4 sprechen will, dann muss man den europäischen Weg zuerst einmal übersetzen auf eine Situation mit chinesischem Eigentumsrecht, in der nicht nur der Begriff des Immobilien-„Eigentums“ eine durchaus andere Bedeutung hat als in Europa und wo darüber hinaus Imm9
Siehe z. B. das Kapitel „Regulatory Institutions“ in der Studie EU-China Information Society Project (2007): Regulating Telecommunications in the EU and China: What Lessons to be Learned?, Beijing.
Telekom-Monopoly und Human Flesh Search
373
bobilienverwaltungsgesellschaften als Zwischen-Akteure zwischen Haus„Eigentümern“ und Netzbetreibern positioniert sind, die noch einmal ganz eigene Verfügungsrechte hinsichtlich der letzten Meile haben.
Reformimpulse von Außen Die „wissenschaftliche“ Vorgehensweise der chinesischen Verwaltung zur Modernisierung ihres Politik- und Rechtssystems bedeutet auch, dass ein starkes Interesse an einer gründlichen Untersuchung internationaler Regulierungs- und Politikpraxis besteht. Neben der eigentlichen sektorspezifischen Regulierung (konkreten Regulierungsinstrumenten, den erwähnten grundsätzlich möglichen Designprinzipien der nationalen Regulierer, aber auch der Geschichte des Eingriffs in Unternehmensstrukturen an Beispielen wie AT&T oder BT10) geht es dabei auch um Grundsätzliches: Um eine optimale Regulierungsstrategie beispielsweise für Telekommunikationsmärkte zu entwickeln, bleibt es nicht aus, sich über den normativen Rahmen Gedanken zu machen, innerhalb dessen diese Regulierung statt findet. Zunächst technische Überlegungen zur optimalen Preisregulierung führen damit notwendig zur Frage, unter welchen Umständen man Preise regulieren sollte (oder im Kontext eines rationalen Regulierungsmodells regulieren „muss“), um Formen von Marktversagen zu kompensieren, und welche Aufgabenteilung zwischen Markt und Staat das erfordert. Das Vorbild der Informationspolitik in Ländern mit ausgereiften (sozialen oder weniger sozialen) Marktwirtschaften zu suchen, schleust deshalb zwingend auch immer den Markt selbst ein. Und damit transportieren sich auch die Werte und Mechanismen des Rechtsstaates, denn ein marktwirtschaftliches Regime ist nur dann funktionsfähig, wenn es von den Rechtsinstrumenten ausreichend geschützt und umrahmt wird. „A market economy is a law-based economy, and the market-oriented reform of the information industry must be done within a legal framework to eliminate illegal intervention and realize healthy development.“ Und genau diesem Zweck (hier formuliert von Autoren der Chinese Academy of the Social Sciences innerhalb eines EU-China-Vergleichs zum Regulie-
10
Zu einer umfassenderen EU-China Vergleichsbetrachtung der Telekommunikationsregulierung siehe EU-China Information Society Project (2008): Comparative Study on the Telecommunications Law in the EU and China, Beijing.
374
Thomas Hart
rungsrahmen der Informationsgesellschaft11) dient der internationale Blick ebenfalls: Auch in China gilt, dass die Legitimation durch offensichtlich erfolgreiche ausländische Strategiebeispiele eine inländische Umsetzung erleichtert – vor allem dann, wenn gegen Beharrungstendenzen der inländischen Administration an-reformiert werden muss (wie im Beispiel des chinesischen Äquivalents zum Informationsfreiheitsgesetz, sehr deutlich als Anti-Korruptionsgesetz platziert12) oder sogar gegen die Marktdaten, die qua großer Zahl auch für die am wenigsten effizient regulierten Märkte noch schwindelerregendes Wachstum anzeigen. Die Industriepolitik des Tages muss deshalb auch lauten, die Politik und Verwaltung vor ihren eigenen Interessen zu schützen. In den Worten der oben zitierten EU-China-Vergleichsstudie (im von chinesischen Experten geschriebenen Teil): „In a market economy, the competition among the providers of information technology and content service is a fair competition with equal opportunities, and there is no administrative affiliation relationship between the services providers and the regulatory bodies. Therefore, the internal administration regulation model should not be adopted, and instead the regulation model operating within the legal framework should be adopted.“ Es ist das existierende chinesische Regulierungsmodell (das eben beispielsweise ein Telekommunikationsunternehmen zuerst einmal als Bestandteil der Verwaltung versteht und es aus dieser heraus reguliert und steuert), das nicht übernommen werden soll. Abgeschafft soll es werden und ersetzt durch ein auf Wissenschaft, Vernunft, richtigen Marktdaten und internationalen Erfahrungsberichten basierendes System.
Anregung zur informatisierten Austauschkultur Die Frage stellt sich für Europa und jeden anderen westlichen Partner Chinas: Soll man sich in den Diskurs mit China zu geeigneten Politikmaßnahmen und Regulierungsdesigns begeben, auch wenn all die ins chinesische Politikdesign hineinspielenden Faktoren zu einem Regulierungsrahmen führen werden, in dem der Rat oft nur noch schwer zu erkennen ist? 11
12
EU-China Information Society Project (2009, i. E.): A Comparative Study of the Information Society Policy in the EU and China, Working Paper, Beijing. Siehe zu dieser Verordnung genauer EU-China Information Society Project (2008): The Implementing Preparation and Primary Implementing Effects of Government Information Disclosure Regulations, Beijing.
Telekom-Monopoly und Human Flesh Search
375
Ein Informationsfreiheitsgesetz, das sich auf Publikationsschema konzentriert und die Möglichkeit der Bürgeranfrage fast verschweigt? Eine Telekommunikationsregulierung, die systembedingt keinen wirklich unabhängigen Regulierer hervorbringen kann? Eine Inhaltsaufsicht, mit deren Definition von „ungesunden Inhalten“ man sich beim besten Willen nicht identifizieren kann? Ist China in der Lage, beraten zu werden? In einen solchen Dialog kann und soll man nicht gehen, wenn es das Ziel ist, den eigenen Regulierungsrahmen zu verkaufen. Passen würde er oft schon – sehr viele europäische Regulierungselemente könnten theoretisch eins zu eins und sofort in China umgesetzt werden. Jedes Land muss sich aber durch seinen eigenen Politikprozess quälen, um innerhalb seiner eigenen Strukturen mit der erschwitzten Lösung eine stabile Verbindung eingehen zu können. Auch lohnt es sich, zwischen Regionen mit noch so unterschiedlichen Politikregimen und Wertesystemen Einigkeit herzustellen, wie Politikprozesse ablaufen können. Wie die jeweiligen und unterschiedlichen Werte und Normen in einen Prozess einzubringen sind, der sich durch das politische Entscheidungsfindungssystem arbeitet. Wie Zielgruppen und Betroffene so in diesen Prozess einbezogen werden, dass sie ihre Präferenzen und Partikularitäten mitbringen können. Der Streit über Inhaltezensur wird ersetzt durch die Erörterung, welche Fragen auf dem Weg zu einer nationalen Strategie und Politik für mediale Inhaltskontrolle beantwortet werden müssen. Diskussionen um den unabhängigen Regulierer werden ersetzt durch die Definition von Aufgaben, Zielen und Kompetenzen von Marktaufsichtsinstitutionen. Das Recht, normativ zu argumentieren, muss dabei bestehen bleiben, und die Diskussion um die Rechtfertigung von Zensur, rigider Informationspolitik, Bevorzugung nationaler Industrie, die geeigneten Instrumente für Jugendschutz, Umgang mit unterprivilegierten Gruppen, der rechte Weg zu ökonomischer Vernunft usw. – all diese Themen dürfen und sollen Kontroversen aufwerfen. Auch Europa profitiert von diesen Diskussionen – nicht nur als akzeptierter Gesprächs- und politischer Sparringspartner einer weiterhin wachsenden Gesellschaft, Kultur und Ökonomie, sondern auch durch das geschärfte diskursive Verständnis des eigenen Gesellschafts-, Ökonomie- und Politikverständnisses, das den Unterbau all der Regeln, Regularien und Gesetze darstellt und das sich im kritischen Diskurs klärt und weiter entwickelt. Die europäische Informationsgesellschaft kann von einer in diesem EU-China-Diskurs gestählten Gestaltungslogik nur profitieren.
376
Thomas Hart
Über den Autor Dr. Thomas Hart, geb. 1969, studierte Volkswirtschaftslehre, Finanzwissenschaft, Wirtschaftspolitik, ökonomische Dogmengeschichte und Kommunikationswissenschaften in Nürnberg sowie „Economics and Film & Media Studies“ an der University of Stirling in Schottland; Promotion als Volkswirt an der Friedrich-Alexander Universität Erlangen-Nürnberg zum Thema „Europäische Telekommunikationspolitik“. Er ist Berater für Kommunikations- und Medienpolitik und seit Sommer 2005 Experte für Regulierungsfragen des in Beijing (China) ansässigen EU-China Information Society Projects. Als freier Berater arbeitet er außerdem mit asiatischen Verwaltungen an der Reform der nationalen Domain Name Verwaltung. Zwischen 2000 and Mitte 2005 war er für die Bertelsmann Stiftung im Bereich Medien- und Kommunikationspolitik tätig.