DIETER E. ZIMMER, geboren 1934 in Berlin, seit 1959 Redakteur der Wochenzeitung »Die Zeit‹, lebt in Hamburg; übersetzte...
311 downloads
2392 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
DIETER E. ZIMMER, geboren 1934 in Berlin, seit 1959 Redakteur der Wochenzeitung »Die Zeit‹, lebt in Hamburg; übersetzte Werke von Vladimir Nabokov, James Joyce, Jorge Luis Borges, Nathanael West, Ambrose Bierce, Edward Gorey u.a. Nach vornehmlich literarischen und literaturkritischen Arbeiten zunehmend Publikationen über Themen der Anthropologie, Psychologie, Medizin, Verhaltens- und Sprachforschung. Buchveröffentlichungen: Materialien zu James Joyces ›Dubliner‹ (zusammen mit Klaus Reichert und Fritz Senn, 1966) – Ich möchte lieber nicht, sagte Bartleby (Gedichte, 1979) – Unsere erste Natur (1979)–Der Mythos der Gleichheit (1980) – Die Vernunft der Gefühle (1981) – Tiefenschwindel (Über die Psychoanalyse, 1986) – Herausgeber der Kurzgeschichten aus der ›Zeit‹ (Mehrere Folgen, zuletzt 1985). Im Haffmans Verlag erschienen: Redens Arten (Über Trends und Tollheiten im neudeutschen Sprachgebrauch, 1986) – So kommt der Mensch zu Sprache (Über Spracherwerb, Sprachentstehung, Sprache & Denken, 1986) – Experimente des Lebens (Wilde Kinder, Zwillinge, Kibbuzniks und andere aufschlußreiche Wesen, 1989)–Die Elektrifizierung der Sprache (Über Sprechen, Schreiben, Computer, Gehirne und Geist, 1990) – Außerdem gelegentlich Beiträge im Magazin für jede Art von Literatur Der Rabe.
DIETER E. ZIMMER
Die Elektrifizierung der Sprache Über Sprechen, Schreiben, Computer, Gehirne und Geist
HAFFMANS VERLAG
Erstausgabe Veröffentlicht als HaffmansTaschenBuch 99, Frühling 1991 Konzeption und Gestaltung von Urs Jakob Umschlagzeichnung von Volker Kriegel Alle Rechte vorbehalten Copyright © 1990 by Haffmans Verlag AG Zürich Satz: Fosaco AG Bichelsee Herstellung: Ebner Ulm isbn 3 251 01099 9 1 2 3 4 5 6 – 95 94 93 92 91
unverkäuflich v. 15.9.2005
Inhalt Vorbemerkung . . . . . . . . . . . . . . . . . . . . . . . . . 7 Das Dingens – Die Schwierigkeit, dem Computer einen passenden Namen zu finden . . . . 11 TEXTCOMP.DOC – Die Elektrifizierung des Schreibens . . . . . . . . . . 21 Wie viele Wörter hat der Mensch? – Das innere Lexikon . . . . . . . . . . . . . . . . . . . 61 Blos Tipppfehler – Der Computer als Orthographie-Experte . . . . . . . 89 Rechte Schreibung – Die geplante Reform der deutschen Orthographie. . . . . . . . . . . . . . . . 103 Zusatz: Text mit/ohne Schreibfehler . . . . . . . . . . 139 Ein A ist kein A ist kein A – Die Maschine als Leserin . . . . . . . . . . . . . . . . 143 Zusatz: Optische Zeichenerkennung, praktisch . . 144 Sprache, ein Schwingungsgebirge – Die Maschine als Stenotypistin . . . . . . . . . . . . 181 Zusatz: Automatische Spracherkennung, praktisch . . . . . . 197 Aus einem kühlen Grunde – Die Maschine als Übersetzerin . . . . . . . . . . . . 205 Mr. Searle im Chinesischen Zimmer – Über Computer, Gehirne und Geist . . . . . . . . . 247
!Hypertext! – Eine Kurzgeschichte . . . . . . . . . . . 295 Anhang Namen, Adressen, Preise . . . . . . . . . . . . . . . . . . 315 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . 337 Register . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
VOR BE M E R K U NG Dieses Buch führt meine beiden früheren über sprachliche Fragen weiter. In »Redens Arten« (1986) ging es vor allem um den aktuellen Sprachgebrauch, um Tendenzen und Tollheiten des Neudeutschen. »So kommt der Mensch zur Sprache« (1986) war eher sprachwissenschaft lich orientiert und handelte von Spracherwerb, Sprachentstehung, Begriffsbildung. Das Thema jetzt heißt: Sprache und Computer – der Computer als Werkzeug der Sprachbearbeitung, die Versuche, einige Facetten menschlicher Sprachbeherrschung auf den Computer zu übertragen. Zwei Kapitel scheinen auf den ersten Blick nicht zu diesem Generalthema zu passen – das über die Größe des Wortschatzes und das über die geplante Rechtschreib-Reform. Sie stehen jedoch mit dem Rest in unmittelbarer Verbindung, und zwar nicht nur wegen des Kapitels über die Computerisierung der Rechtschreibprüfung, dem sie sozusagen das Unterfutter liefern. Hinter beiden nämlich stehen Fragen, die in dieser Form erst der Computer aufgeworfen hat: Mit welchen Datenmengen hantiert der menschliche Geist, wenn er Sprache gebraucht? Wie weit läßt sich eine natürliche Sprache formalisieren? (Die Antwort darauf lautet, daß jedenfalls die heutige deutsche Orthographie von Willkürlichkeiten strotzt und darum gegen jede Algorithmisierung immun ist – und daran etwas ändern würde nur eine radikale Reform, wie kein Mensch sie will.) 7
Das Buch – und darin unterscheidet es sich vom Gros der Computerliteratur – versucht den Computer immer wieder als eine Sonde zu betrachten, die uns Aufschlüsse verschafft über das Funktionieren des menschlichen Geistes. Wahrscheinlich habe auch ich hier und da den Ton triumphierender Schadenfreude nicht ganz vermeiden können, wenn ich davon spreche, was dem Computer bisher alles nicht gelungen ist. Im Grunde jedoch halte ich diesen höhnischen Triumph (»Ätsch, der Mensch kann es doch besser!«) für unangebracht. Bei den Versuchen, ihm etwas Sprachvermögen beizubringen, hat uns der Computer anschaulicher als irgend etwas vorher deutlich gemacht, eine wie überaus komplexe Leistung das Gehirn auf jeder Ebene der Sprachverarbeitung vollbringt. Da ist er entschuldigt, wenn er es dem Hirn bis auf weiteres nicht gleichtun kann. Ich bewundere eher, daß es trotz dieser für ihn fast hoffnungslosen Ausgangslage gelungen ist, ihm einige sprachliche Fertigkeiten zuzumuten, die ihn in einigen Bereichen schon heute zu einem überaus nützlichen Werkzeug machen. Das Buch gehört also wieder zu jenem Schlag, bei dem Buchhändler und Bibliothekare leider nicht wissen, in welches Regal sie es eigentlich stellen sollen. In die Ecke, wo die Sprachwissenschaft steht, zu der sich selten jemand verirrt? Zur Psychologie? Zur Medienkunde? Zur Computerliteratur? Überall stünde es richtig, selbst bei den Computerbüchern, denn in den Kapiteln über Spellingchecker, Zeichen- und Spracherkennung und Maschinenübersetzung bleibt es durchaus praxisbezogen, nennt es sogar Namen und Adressen, denen der interessierte 8
Leser sonst vermutlich nicht oder nur mit ganz unangemessenem Aufwand auf die Spur käme. Trotzdem enthält es auch eine Warnung an die Computer-Innung. Selbst dort, wo diese bemüht ist, Werkzeuge zur »Verarbeitung« von Sprache bereitzustellen, geht sie mit ihr bisher viel zu oft leichtfertig, ja fahrlässig um, unterschätzt sie sie maßlos. Immer wieder etwa kann man hören oder lesen, daß die fabelhaften schnellen kleinen Computer, die es in fünf oder zehn Jahren geben wird, dann selbstverständlich auch die automatische Schriftzeichen- oder Spracherkennung und die maschinelle Übersetzung beherrschen werden, so als handele es sich dabei um triviale Nebensachen, bei denen nur endlich einmal ein paar Programmierer ernstlich zupacken müßten, und schon wäre das Problem gelöst. So aber wird es mit Sicherheit nicht kommen. Gewisse, als technische Leistungen nicht zu verachtende Fähigkeiten auf diesen Gebieten werden die künftigen Computer zwar ihr eigen nennen, und sie werden sich damit nützlich machen – aber dem Reichtum (und also auch den Inkonsequenzen und Ambiguitäten) einer natürlichen Sprache werden sie in keiner absehbaren Zeit gewachsen sein. Auch in zehn Jahren wird die teuerste automatische Schrifterkennung nicht viel weniger Fehler machen als heute. Selbst eine wirklich brauchbare Rechtschreibkontrolle, ja auch nur ein Silbentrennprogramm, das man sich selbst überlassen könnte, sind vorläufig nicht in Sicht. Das Buch versucht verständlich zu machen, warum das so ist, welche vielleicht nie ganz überwindbaren Widerstände die natürliche Sprache ihrer Algorithmisierung entgegensetzt. 9
Die Informationen über diese Gebiete liegen wahrhaftig nicht auf der Straße, und wenn es dem Buch gelungen sein sollte, einige zu versammeln und auch für den Nichtfachmann durchschaubar zu machen, dann nur, weil sich eine Reihe von Experten die Zeit genommen haben, mich mit ihnen zu versehen. Ihnen möchte ich an dieser Stelle meinen Dank abstatten, insbesondere: Prof. Dr. Hans Brügelmann (Universität Bremen); Dr. Hartmut Günther (Max-Planck-Institut für Psycholinguistik, Nijmegen); Dr. Johann Haller (EUROTRA-D, Saarbrücken); John Hatley (Firma Logos, Frankfurt); Martina Hey er (Firma CCS, Hamburg); Hans-Siegfried Hirschel (Verein Textildokumentation / TITUS, Ratingen); Dr. Eric Keppel (Firma IBM, Heidelberg); Andreas Noll (Firma Philips, Hamburg); Annedore Paeseler (Firma Philips, Hamburg); Ian Pigott (EG Kommission / SYSTRAN, Luxemburg); Brigitte Schleicher (Firma Eppendorf Gerätebau, Hamburg); Dr. Thomas Schneider (Firma Siemens, München); Dr. Klaus Schubert (Firma BSO, Utrecht); Albert Stahlberg (Firma Vektor, Hamburg). Für etwaige Fehler in meiner Darstellung sind sie natürlich so wenig verantwortlich wie für meine Urteile.
DA S DI N G E N S Die Schwierigkeit, dem Computer einen passenden Namen zu finden
Nicht ungern wüßte ich, wie das Ding denn nun zu nennen wäre, vor dem ich seit Jahren den größeren Teil meiner wachen Zeit verbringe. So ist der Mensch. Erst was er benannt hat, wird ganz und gar wirklich; das Unbenannte verbleibt sozusagen in einem Aggregatzustand verdünnter, verminderter Realität. Und man kann ihn ja auch verstehen. Nur was »auf den Begriff gebracht« ist, nur was einen Namen hat, darüber kann er explizit nachdenken und sich mit anderen austauschen. Zwar gibt es Tricks, den Mangel zu überdecken, sprachliche Joker, wildcard-Wörter sozusagen. Aber wer will auf die Dauer mit einem Dingsbums Umgang pflegen, irgendwie so einem Dingens, Sie wissen schon? Das Dingens ist ein Computer, so viel ist klar. Ist es klar? Hat man das Pech, mit der Rede von seinem Computer an jemanden zu geraten, der gewöhnlich mit Großrechnern arbeitet, so erntet man den Blick, den ein kleiner Junge erntet, der sein Dreirad einen »heißen Ofen« nennt. Gleichwohl, es ist einer, wie letztlich auch der Taschenrechner einer ist. Nur eben ein kleinerer; und irgendwie sollte die bescheidenere Dimensionierung denn auch ruhig gleich im Namen zum Ausdruck kommen. Solch einen Namen gibt es. Es ist der sozusagen offizielle: Mikrocomputer. Er hat sogar den unschätzbaren Vorzug, auf Deutsch und Englisch gleichermaßen zu funktionieren. Mikrocomputer heißen alle die kleineren 13
Rechner, die rund um einen einzigen Mikroprozessor gebaut sind, das Herz … nein; das Gehirn … nein – derlei Metaphern versagen. Die Rede ist von der in einem dominosteingroßen Chip untergebrachten Zentraleinheit, die die Hauptarbeit des Computers verrichtet, indem sie Zahlen nach algebraischen und logischen Regeln transformiert, also Befehle in elektrische Operationen umsetzt. Wörtlich also bedeutet Mikrocomputer »mit einem Mikroprozessor ausgestatteter Rechner« und wäre völlig in Ordnung, wenn es so, wie es dasteht, nicht als »allerwinzigster Rechner« verstanden werden müßte, als »kleiner Bruder des Minicomputers«, der ja selber schon ein Winzling zu sein scheint, im Vergleich zum Mikrocomputer aber ebenso ein Riese ist wie der Mikrocomputer im Vergleich zum Taschenrechner. So mikro aber ist das Dingens nun wahrhaftig nicht mehr. Überhaupt fehlt die nomenklatorische Mittellage. Auf der einen Seite »Mikro-« und »Mini-«, auf der anderen gleich der »Groß-« (oder Mainframe) und der »Supercomputer«, und dazwischen nichts. De facto wird die Mittellage etwa von den mittelstarken Bürocomputern verkörpert, die als Minicomputer zwischen dem Mikround dem Großcomputer angesiedelt sind; ihrem Namen zufolge aber sind sie Miniatur. Dabei hat die Leistungsstärke von vornherein etwas höchst Relatives. Der Großcomputer von gestern ist der Minicomputer von heute und der Homecomputer von morgen. Die Leistung eines Rechners läßt sich grob in der Zahl der Rechenbefehle ausdrücken, die er pro Sekunde verarbeitet. Der erste elektronische Computer war 14
der 1946 an der Universität von Pennsylvania entwickelte legendäre ENIAC (Electronic Numerical Integrator and Calculator). Der ENIAC war im offensichtlichsten Sinne ein Riesending. Er arbeitete mit 18 000 Röhren und nahm eine Bodenfläche von 240 Quadratmetern ein, 15 mal 15 Meter. Mit dieser Statur schaffte er die stattliche Menge von 360 Multiplikationen oder gar 5000 Subtraktionen pro Sekunde; für die Rechenleistung, die er an einem einzigen Tag bewältigte, hätte ein Mensch sechs Jahre gebraucht. Ein Maß für die Leistung heutiger Rechner heißt »Mips« (Million instructions per second), Millionen Instruktionen pro Sekunde, oder auch »Megaflops« beziehungsweise »Mflops« (1 000 000 floating point operations per second), Millionen Gleitkommaoperationen pro Sekunde. Es ist ein grobes und oft verspottetes Maß (Meaningless Information for Pushy Salesman, Sinnlose Information für aufdringliche Verkäufer), denn die tatsächliche Leistung eines Computers hängt nicht nur davon ab, wie viele Operationen ihre Zentraleinheiten in einer gegebenen Zeit ausführen können. Als Anhaltspunkt aber mag es immerhin dienen. Mips und Mflops sollten nicht weit auseinanderliegen. Man darf sich überlegen, wie viele Sekunden man selber für eine einzige Flop, eine einzige Gleitkommarechnung allereinfachster Art benötigte, sagen wir: 3,6 mal 7. Die Leistung des ENIAC lag also bei weniger als ungefähr 0,005 Mips. Der schnellste Großcomputer aus der Mitte der siebziger Jahre, die Cray-1, nahm nur noch 2,4 Quadratmeter Grundfläche ein, leistete aber bis zu 200 Mflops. Die schnellste Vax (9000-410) bringt es auf 30 Mips; die Großrechnerfamilie 15
3090 von IBM auf 38 bis 102. Heute sind die Supercomputer in den Gigaflops-Bereich vorgestoßen: sie bewerkstelligen sekündlich mehr als eine Milliarde Gleitkommaoperationen. Der derzeit stärkste, die Cray Y-MP/832, leistet zwei Gigaflops – in ihm steckt mithin die Rechenkraft von vierhunderttausend ENIACs: Zweieinhalb Millionen Jahre benötigte ein Mensch, um zu schaffen, was er an einem Tage schafft. NEC hat mit der SX-3 eine Maschine angekündigt, die gar 22 Gigaflops leisten soll. Eine Mips – zweihundertmal soviel wie der ENIAC – leistet selbst ein bescheidener PC der achtziger Jahre allemal; wofür er einen Tag braucht, brauchte ein Mensch 1200 Jahre. Ein besserer (ein im 20-Megahertz-Takt arbeitender mit 386er Prozessor) bringt es heute auf 4 Mips, und der PC mit 15 bis 20 Mips ist schon keine Zukunftsmusik mehr; in den Softwarelabors denkt man bereits an PCs mit 30 Mips und mehr. Mit »Mikrocomputer« hat man immerhin ein Wort für das Ding, und man wird sogar damit leben müssen; aber ein glückliches ist es nicht gerade. Was also böte sich noch an? Manche nennen es Tischcomputer. Tatsächlich steht es ja meist auf einem Tisch, während die Schränke, die Großrechner äußerlich bis in unsere Tage zumeist sind, gewöhnlich auf dem Boden stehen (aber schon stehen auch die ersten Großrechner schubfachgroß unterm Tisch). Nur stehen die größeren Exemplare der Mikrocomputer, in Gestalt sogenannter Towers, nicht auf, sondern unter dem Tisch. Und zweitens haben seine kleinsten Vertreter die gleichsam offiziellen Kosenamen »Laptop« oder – noch kleiner – »Hand16
held«, sozusagen also »Schoß-« oder »Handdings«, eben weil es ihre Bestimmung ist, auch nicht unbedingt auf dem Tisch, dem desktop stehen zu müssen. Das Wahre also ist auch dieser Name nicht. Aber haben sie denn nicht längst ihren Namen weg? Heißen sie nicht überall Personal Computer, kurz PC? Na, oder Jein. Jedenfalls fängt es mit den Schwierigkeiten hier erst richtig an. Die eine, sprachliche, besteht darin, daß man das Wort unbedingt entweder übersetzen oder aber englisch aussprechen muß. Im einen Fall wird ein für den Dauergebrauch arg umständlicher »Persönlicher Computer« daraus, im anderen ein hybrider »Pörsonällcomputer«. Tut man beides nicht, so deutet das Wort nämlich auf einen Computer fürs Personal, einen, der Personaldaten verarbeitet oder für die Benutzung durchs Personal bestimmt ist, nicht etwa für die Chefetage, und um so etwas handelt es sich mitnichten. Die Zeit des Personal Computer – anfangs als Spielzeug belächelt – begann – von heute, 1990, aus gesehen – vor einem guten Dutzend Jahren (länger ist das nicht her). Das Wort soll von Ed Roberts geprägt worden sein, Gründer der Firma MITS, die 1975 für einen Preis von 397 Dollar einen Computerbausatz namens Altair 8800 auf den Markt brachte, von dem an amerikanische Bastler tausend Stück verkauft wurden – der große Durchbruch war es noch nicht. Der begann erst im Frühjahr 1977, mit Apfel und Schoßtier: mit dem Apple II der Firma Apple und dem Personal Electronic Transactor 17
von Commodore, der vor allem deshalb so hieß, weil er sich zu einem hübschen Akronym lieh: PET, Schoßtierchen, Liebling. Es waren zwei Geräte, die bereits deutliche Ähnlichkeit mit heutigen PCs hatten und in großer Zahl auf der ganzen Welt Verbreitung fanden. Beide Geräte wurden von Anfang an Personal Computer (englisch) genannt. Denn sie waren für jene Technik-Freaks gedacht, die es leid waren, ihre Daten in Lochkarten zu stanzen und dann in den großen Rechenzentren zu warten, bis sie an die Riesenmaschinen vorgelassen wurden. Sie sollten eine Alternative haben: einen Computer ganz zu ihrem persönlichen Gebrauch. Ins Deutsche wäre er eigentlich als Privatcomputer zu übersetzen; man sagt ja auch nicht, jemand habe ein »persönliches Schwimmbecken« oder eine »Personal Yacht«. (Oder man sagt es noch nicht: Im Zuge der heimlichen Anglisierung der deutschen Sprache wird man es sicher bald sagen; man sagt ja inzwischen auch dauernd einmal mehr statt noch einmal, in Front statt vor, harte Arbeit statt schwere, kontrollieren statt im Griff haben und findet gar nichts mehr dabei.) Ende 1981 dann nahm sich die Firma IBM jenes Privatrechners an und brachte ihren sogenannten PC heraus. Immer wieder kopiert und dabei immer billiger werdend, setzte er fortan die Norm (den »Industriestandard«) und führte zu einer Flutwelle von Softwareentwicklungen, die ihn schnell weit über den »persönlichen« Bereich hinaus trugen. Mit dem Siegeszug der IBM-Norm aber und des ihr zugrundeliegenden Betriebssystems (MS-DOS) wurde der 18
Begriff »Personal Computer« immer mehr zu einem Synonym von »IBM-kompatibler MS-DOS-Computer«. Und was dieser Norm nicht folgt, wird heute gar nicht mehr als PC angesehen, sondern als etwas Niederes, ein Spielzeug; gerade, daß Apples Macintosh noch im exklusiven, einförmigen Club der PCs geduldet wird. Aber wer sich für einen der außenseiterischen Computer (etwa die ST-Serie von Atari oder den Amiga von Commodore) entschlossen hat, deren objektive Leistungsmerkmale denen der »echten« PCs nicht nachstehen, sie in manchen Fällen übertreffen, der sieht sich nun an etwas Namenlosem sitzen.
T E X T C O M P. D O C Die Elektrifizierung des Schreibens
»Nach ihrer Numerierung waren Befehle, Axiome, kurzum Sätze ebenso grenzenlos manipulierbar wie Zahlen. Ende von Literatur, die ja aus Sätzen gemacht ist.« Friedrich Kittler »Als der Kugelschreiber erfunden wurde, hat doch auch kein Mensch das Ende der Kultur geweissagt.« Diskussionsbeitrag
Der Computer als Textverarbeitungsmaschine, als »Wortprozessor« ist nicht einfach ein neues Schreibgerät, wie es der Füllfederhalter und der Tintenkuli und der Kugelschreiber zu ihrer Zeit waren; selbst der Vergleich mit der Schreibmaschine wird ihm nicht gerecht. Als ein neumodischer Gänsekiel läßt er sich nicht ausgeben. Fragt man die, die mit ihm arbeiten, was sie denn eigentlich an ihm haben, so hört man Elogen wie: Es lasse sich mit ihm so wunderbar leicht im Text korrigieren; er mache es einfach, beliebige Textpassagen zu entfernen, einzufügen und hin und her zu bewegen; er fertige einem ohne Murren auch die xte Reinschrift und vertippe sich dabei kein einziges Mal … Alles dies ist richtig. Er hilft auf vielerlei Art beim Manipulieren von Text. Den Kern der Sache trifft es nicht. Der Computer ist nicht nur ein Werkzeugkasten, eine Schreibgarnitur. Er ist ein neues Trägermedium für Text – und zwar eines, das sich von allen herkömmlichen grundlegend unterscheidet. Solange Menschen schreiben, ritzen und kratzen sie ihre flüchtigen Symbole in Stein, schnitzen sie in Holz, knoten sie in Schnüre, färben sie in Rinden und Häute und schließlich in jenen abgeschöpften und gebleichten 23
Holzauszug, der Papier heißt. Seit vor fünftausend Jahren in Sumer die Schrift erfunden wurde, heißt Schreiben irgendeinen materiellen Gegenstand bleibend, meist unauslöschlich verändern. Wo immer geschrieben wurde, gab es zwar auch Techniken, das Geschriebene wieder zu beseitigen, vom Schabemesser über den Radiergummi bis zum hocherfreulichen, wenngleich ungesunden TippEx; aber was einmal geschrieben war, ließ sich nur schwer wieder tilgen, wie jeder weiß, der sich noch mit einem Messerchen über einen leider nur nahezu vollkommenen Bogen hergemacht und dann doch ein Loch hinterlassen hat. Allem Geschriebenen kam immer eine gewisse Endgültigkeit zu: Gesagt ist gesagt, und geschrieben ist geschrieben; was steht, das steht, man soll es lassen stahn; »wer schreibt, bleibt; wer spricht, nicht« (Robert Gernhardt). Im Gewoge des Kopfes entstanden, lenkten die Symbole die Bewegungen der Hand, um dann im Material zu stehen zu kommen und ein für allemal zu erstarren. Der Advent des Schreibcomputers hat dieser scheinbar ehernen Selbstverständlichkeit ein Ende gemacht. Er ist ein Medium, wie es noch keines gab – eins, das sich zwischen Kopf und Material schiebt. Man schreibt in den Computer wie auf Papier, aber das Geschriebene bleibt zunächst weiter so immateriell, wie es vorher als Gedanke war. Es ist, als wäre der Computer ein Annex des Geistes, einer mit einem übermenschlichen buchstabengetreuen Gedächtnis, der das Ausgedachte fehlerlos verwahrt – aber so verwahrt, als hätte es den Kopf noch nicht ganz verlassen, so daß man weiterhin beliebig eingreifen und 24
alles nach Lust und Laune umdenken und umschreiben kann. Das Geschriebene gibt es dann schon, aber vorerst nur in einem unsichtbaren, gedankengleichen Medium, als Wortlaut an sich und noch ohne materielle Gestalt, ohne bestimmtes Aussehen. Erst ein zweiter Vorgang, vom Schreiben deutlich abgehoben, gibt dem bisher nur virtuellen Text eine Gestalt, viele, immer wieder veränderbare Gestalten – auf dem Bildschirm, als Ausdruck auf Papier, aber man könnte sich seinen Text auch vorsprechen oder vorsingen lassen, wenn auch aus technischen Gründen einstweilen nur notdürftig. Die Vorteile für den Schreibenden sind so enorm und so offensichtlich, daß es all der weiteren, die noch zusätzlich abfallen, gar nicht bedürfte, damit der Computer als Schreibzeug sich durchsetzt. Der Prozeß ist in vollem Gange. Wenn ein Schriftsteller heute das Schreckensbild des Verlages malt, der den gebeutelten Autor verurteilt, »Disketten abzuliefern vom Personal Computer«, der »das maschinenlesbare Manuskript erzwingt« (so vor wenigen Jahren Hermann Peter Piwitt), dann führt er das Lamento von gestern. Die Situation hat sich längst verkehrt. Heute lautet die Klage der Autoren öfter, daß die Verlage ihre Disketten nicht akzeptieren mögen. Es spielt auch keine Rolle mehr, daß das maschinenlesbare Manuskript den Verlagen Satzkosten – genauer: Texterfassungskosten – spart und die Autoren eigentlich verlangen könnten, daß ein Teil der Ersparnis an sie weitergegeben wird. Sie werden auf den Textcomputer nämlich auch dann umsteigen, wenn ihnen seine Anschaff ung mit keinem Pfennig vergolten wird, einfach weil sie sich 25
seine Hilfe nicht entgehen lassen wollen. Das Bundesforschungsministerium ließ in den Jahren 1986/89 untersuchen, welche Aussichten das »Elektronische Publizieren« hat. Während recht unklar blieb, ob es überhaupt größere Aussichten hat, wurde um so klarer, daß das »Elektronische Schreiben« nicht nur eine Zukunft, sondern schon eine Gegenwart hat. Eine großangelegte Rundfrage unter Fach- und Sachautoren, welche jene Expertengruppe am Kernforschungszentrum Karlsruhe veranstaltete, ergab, daß 1987 bereits ziemlich genau jedes zweite Manuskript am Wortprozessor entstanden war. Das Altersgefälle dabei war steil: bei den unter Dreißigjährigen schrieben 75 Prozent am Computer, bei den über Sechzigjährigen nur 13. Die Belletristen stehen dem neuen Ding wie zu erwarten mißtrauischer gegenüber: Von den 48, die 1987 auf eine Rundfrage des Marbacher Literaturarchivs antworteten, benutzten es nur 6. Aber auch bei ihnen ist die Tendenz steigend. Als das ›Zeitmagazin‹ 1990 einige Belletristen nach ihren Schreibgewohnheiten befragte, bekannte sich selbst eine Lyrikerin zum Computer, auf dem sie ihre mit feinem Filzstift entworfenen Gedichte weiterbearbeitet. Ulla Hahn: »Der Computer [erleichtert] mir alle mechanischen Arbeiten wie Korrekturen, Absätze umstellen etc. Beschleunigt wird jedoch auch die Distanzierung vom eigenen Text, und damit Überprüfungen und inhaltliche Korrekturen.« Viele Belletristen aber werden ihn nie benutzen, nicht nur aus Abneigung gegen jede Technisierung ihres Berufes, sondern weil er sich für sie einfach nicht lohnt. Es hat sich herumgesprochen, daß Computer nicht nur ziem26
lich teuer sind (vor allem »hinterher«, wenn man daran geht, seiner Ausrüstung die Schwächen auszutreiben, von denen man nichts ahnen konnte, als man sich das erste Mal auf diese Branche einließ), sondern daß sie am Anfang auch nicht etwa Zeit sparen, sondern eine Menge Zeit kosten. Der Lyriker oder Miniaturist, der nur gelegentlich ein paar Zeilen zu Papier bringt, müßte geradezu ein Narr sein, ein Computer-Narr, die aufwendigen Dienste der Symbolmaschine in Anspruch zu nehmen. Er wird mit dem Bleistift bestens bedient bleiben. Die Gefahr, daß ihm je ein Verlag das maschinenlesbare Gedicht, den digital abgespeicherten Aphorismus abverlangt, droht in aller voraussehbaren Zeit wahrhaftig nicht. Und sollte ein Verlag es je verlangen, so täte der Dichter gut daran, ihn schleunigst zu wechseln – denn es wäre dies ein Beweis dafür, daß der Verlag den Namen eines solchen nicht verdient, sondern eine bloße Vertriebsstation ist und mit den Inhalten seiner Bücher nicht das mindeste zu schaffen haben will. Aber durch wessen Hand größere Mengen faktenreicher Texte gehen, dem hilft die Wortmaschine, und er wird es nicht mit der Schreib- und Redigiererleichterung bewenden lassen wollen, die sie ihm bringt. Er hat ein Interesse daran, daß sein auf dem Computer geschriebener Text auch genau der Text ist, der gedruckt wird, ASCII-Zeichen für ASCII-Zeichen, und nicht zwischendurch noch von anderen abgeschrieben werden muß, denn bei jedem Abschreiben schleichen sich unvermeidbar Fehler ein. Computer andererseits geraten zwar manchmal in absonderliche Zustände und tun dann furchtbare Dinge 27
(meist allerdings nicht ohne Zutun ihres Benutzers), aber sie verlesen und verschreiben sich seltsamerweise nie. Der Autor darf sich darauf verlassen, daß Namen, Zahlen, Register, Bibliographien, Anführungszeichen haargenau bleiben, wie er sie geschrieben hat; die langwierigen und langweiligen, in heiklen Fällen mehrmaligen vergleichenden Korrekturgänge lassen sich durch die elektronische Weitergabe der Texte drastisch abkürzen. Wenige Autoren werden der Möglichkeit widerstehen können und wollen, diesen unangenehmsten und unproduktivsten, aber unerläßlichen Teil ihrer Arbeit los zu sein und mit weniger Aufwand zu einem zuverlässigeren Endergebnis zu kommen. Sie werden auch dann darauf drängen, wenn sie allein die Kosten tragen müssen. Der Siegeszug des Textcomputers wäre darum nur aufzuhalten, würde der ganzen schreibenden und lesenden Welt ein für allemal der Strom abgestellt. Das ist die Lage. Und ist es denn gut so? Was wird gewonnen? Was geht verloren? Wer öfter mit Computergeschriebenem zu tun hat, wer zum Beispiel Computerhandbücher oder Computerzeitschriften liest, die in aller Regel auch am Computer entstanden sind, wird, sofern er überhaupt noch vergleichen kann, gewisse Makel bemerken, geradezu einen Qualitätssturz. Ein computergeschriebener Text ist am schnellsten an seinen Trennfehlern zu erkennen (Lo-uvre, bei-nhalten), die nicht ausbleiben können, wo ein Algorithmus (eine eindeutige ausführbare Handlungsanweisung) und nicht ein Mensch die Worttrennung am Zeilenende be28
sorgt, denn erstens ist keine natürliche Sprache völlig logisch, und zweitens muß sich der Schreibende aus anderen Gründen immer wieder über ihre formalen Regeln hinwegsetzen: Sie zwar erlauben Trennungen wie Bluterguß, Kerne-nergie, Mieter-trag, aber da diese den Leser auf Abwege locken, sind sie tunlichst zu vermeiden. Die Zahl der Tippfehler in computergeschriebenen Texten überschreitet oft alles Gewohnte. Vielfach sind es mehr als bloße Tippfehler: Das Gefühl für Rechtschreibung überhaupt scheint sich aufzulösen – womit der Computer doch noch zuwege brächte, was die »68er« Reformpädagogen nicht geschafft haben. Zum Beispiel ist vielen dieser Schreiber offenbar nie zu Ohren gekommen, daß zusammengesetzte Substantive wie Echtzeit Uhr oder Anwender Tip im Deutschen eigentlich zusammengeschrieben werden, und wenn, wäre es ihnen auch egal. Für derlei Fehler ist allerdings auch nicht indirekt der Computer verantwortlich zu machen; ihre Häufung in Texten bestimmter Sorten geht einfach darauf zurück, daß sie von Leuten verfaßt werden, die nur umständehalber und widerwillig in die Autorenrolle schlüpfen mußten, Fachleuten für Informatik oder Mikroelektronik. Auf einer etwas höheren Ebene finden sich zuhauf Sätze, die eigentlich keine sind, zum Beispiel, weil sie ein grammatisches Konstituens doppelt enthalten: »Der Benutzer braucht sich der Benutzer nicht mehr verrenken …« – untrügliches Zeichen, daß niemand sich diesen Satz vor der Veröffentlichung noch einmal genau genug angesehen hat, auch sein Autor nicht. Hier trägt der Computer einen Teil der Schuld: Er macht es leicht, Sätze umzustellen, und 29
leicht auch übersieht der Schreiber dann am Bildschirm, daß er ihre durch die Umformulierung überflüssig gewordenen Bestandteile nicht restlos gelöscht hat. Computererzeugte und nicht noch einmal »von Hand« bearbeitete Register sind in aller Regel völlig unbrauchbar. Der Computer versammelt nur eine Liste von Wörtern, die im laufenden Text eigens markiert wurden, und setzt dann automatisch die dazugehörige Seitenzahl dazu. Da aber die Begriffe, von denen die Textpassagen handeln und nach denen der Benutzer dann sucht, oft gar nicht als markierbare Wörter vorkommen, sondern nur »gemeint« sind, der Computer aber keinen Detektor für Meinungen besitzt, tauchen sie in dem automatisch erstellten Register nie auf. Brauchbar ist ein Register nur, wenn es vom Benutzer aus gedacht ist: Unter welchen Stichwörtern würde er suchen, wovon dieser oder jener Textpassus handelt? Eine bloße Auflistung einiger im Text verwendeter Wörter macht noch lange kein Register. Eins meiner Handbücher muß man von vorn bis hinten durchsuchen, um Antwort auf die simple Frage zu bekommen, wie denn nun Sonderzeichen zu erzeugen sind; das Stichwort fehlt im Register, zusammen mit Dutzenden anderer. Warum? Weil an der betreffenden Textstelle originellerweise von »besonderen Zeichen« die Rede ist und der Autor natürlich weder das Wort »besonderen« noch »Zeichen« markierenswert gefunden hatte. Der Computer scheint ein mächtiges Werkzeug bereitzustellen, das dem Autor die leidige Mühe der Register-Erstellung abzunehmen verspricht, und nur zu gern glaubt der dem Versprechen. Das Ergebnis ist fast immer unzulänglich, 30
und meist wäre gar kein Register besser als eines, das dem Computer überlassen blieb. Auf der inhaltlichen Ebene Wiederholungen, Auslassungen, Non-sequiturs oder die bare Unbildung (Botticellis Venus, die bei der Demonstration einer Grafik-Anwendung dem Meer entsteigt, firmiert unfehlbar als die Venus von Milo); auf der typographischen Ebene primitive Umbruchfehler (Absatzausgänge am Anfang einer Spalte – »Hurenkinder« also, und Zwiebelfische erst recht), dilettantische Seitenspiegel, willkürliche Absätze, beleidigende Schriftenkombinationen (Fehler, die nicht ausbleiben können, wo Laien mit einem Desktop-Publishing-Programm auch die typographischen Fachkenntnisse eingekauft zu haben glauben, die zu seiner richtigen Bedienung eigentlich nötig wären) – es sieht so aus, als sei das Reich des doch so genauen Computers das Reich hemmungsloser (sprachlicher und nicht nur sprachlicher) Schluderei. Die Macher der Hard- und Software machen es vor. Der Macintosh mit seinem intellektuellen Image begrüßt seinen Benutzer mit der Formel »Willkommen zu Macintosh«. Daß das plebejische, wenngleich ingeniöse Textprogramm, mit dem ich jahrelang schrieb, mir bei jedem Einschalten mit der Anzeige »Drucker Installiert:« kam, wo es »Angeschlossener Drucker:« oder meinetwegen »Installierter Drucker:« meint, daran hatte ich mich noch nach Monaten nicht gewöhnt. Die Firma, die dafür verantwortlich war und ihre Kunden mit Nachrichtenboxen wie »Diese Anwendung kann das angesprochene Objekt nicht finden« erfreut, hat sich nie daran 31
gestoßen; ohne Selbsthilfe wäre der Fehler nie behoben worden. Doch sogar ein so hochvornehmes Programm wie MS-Word mutet seinen Anwendern von Update zu Update die ständige Ermahnung Bearbeiten Sie bitte Ihren Text oder unterbrechen Sie zum Hauptbefehlsmenü! zu, sagt Quitt, wo es Ende meint, verdeutscht den Programmbefehl GOTO mit Gehezu, bis man selber versucht ist, gehe! für den Imperativ von gehen zu halten, und nötigt den Anwender beim Gang durch seine vielen Schachtelmenüs, die simple Funktion »Text speichern« in einer Schachtel namens Übertragen zu suchen, wo er sie unter dem Namen Alles-speichern findet. Auch noch ein sprachlich relativ sorgfältig gemachtes Textprogramm wie XyWrite (Euroscript) bietet Kauderwelsch wie Überblick der Textseite, mit der Unterzeile Was die Seitenlänge beinflußt. Das sind keine seltenen Entgleisungen, das ist die triste Regel. Wesentlich unbedarftere Firmen offerieren dem Autor dann großartige Werkzeuge, Korrekturprogramme (»Tipppfeleren Sie jetzt nach Herzenslust«), Synonymwörterbücher, »das treffende Wort« auf elektrisch, gar Sprachübersetzungsprogramme, die näher besehen dann noch nicht einmal für den Kindergarten taugen. Sie sind wahrhaft ahnungslos. Kühn bewegen sie sich in einer Welt, die ihnen fremd ist. Sie ahnen nicht im mindesten, wieviel Überlegung, Intelligenz und hartnäckigster Fleiß nötig sind, etwa ein gutes Synonym- oder Fremdsprachenlexikon aufzubauen (das dann immer noch sinnvoll auf den Computer zu verpflanzen bliebe). Selbst eine simple Liste richtig geschriebener Wörter, anhand deren der Computer Tipp32
fehler erkennen kann, ein Spellingchecker also, brauchte ein paar Gedanken vorweg und dann sehr viel mehr »Mannstunden«, als sich viele Software-Häuser träumen zu lassen scheinen. Die Werbung behauptet regelmäßig etwas in der Art: Der Computer erspart Ihnen stupide Routinearbeit, und die so gewonnene Zeit können Sie für eine kreative, produktive Arbeit an Ihren Texten verwenden. Könnte man, tun aber die wenigsten. In der Praxis verleitet der Computer oft nur dazu, die Texte noch eiliger, noch flüchtiger, noch unkontrollierter abzufertigen. Seine Schuld ist es nicht, aber Menschenart. Natürlich, der Computer als Schreibgerät für alle ist noch ein ganz neues Instrument. Es dauert seine Zeit, bis eine mächtige neue Technik sich mit den ihr gemäßen neuen Symbolen und Konventionen, mit Inhalten, mit Stil, mit Ästhetik, mit Geist gefüllt hat. Zuerst ist sie immer leer, ein bloßes Versprechen. Auch ist jener Qualitätssturz natürlich oft nicht die Schuld des Computers an sich, sondern die seiner Benutzer. Oder doch – da er sich zu dieser Art von Benutzung leiht, da er geradezu dazu einlädt. Ein Hauptgrund für das sintflutartige Anschwellen der Computerliteratur ist wohl der, daß die Maschine, die da im Mittelpunkt steht, vorzugsweise jene Intelligenzen anzieht, die sich früher als Radiobastler oder Amateurfunker hervorgetan hätten – und von Literaten insgeheim für Analphabeten gehalten werden. Die Jungs von der Fensterbank, die in Deutsch immer eine Vier hatten, aber unbegreifliche Wunder wirkten, wenn sie 33
mit dem Multimeter Spannungen an Ein- und Ausgängen abgleichen konnten, finden sich plötzlich als Experten am Schreibtisch, sind Autoren und Redakteure und Chefredakteure gar, dazu berufen, einem gebannten Publikum geschriebene Kunde zu bringen von den Innereien ihrer hochkomplizierten Maschine – und so liest es sich dann auch. Im übrigen aber ist es eben die Leichtigkeit, welche das Schreiben, Edieren und Publizieren durch den Computer bekommt, die dem Pfusch Tür und Tor öffnet. Entgegen einem verbreiteten Vorurteil wissen wir spätestens seit den eingehenden psychologischen Studien von Sherry Turkle, die sie in ihrem Buch »The Second Self« (Die Wunschmaschine) festgehalten hat, daß der Computer den Geist seiner »User« keineswegs normt, keineswegs standardisiert, sondern daß jeder seine ureigene Art hat, mit ihm umzugehen, sich durch ihn auszudrücken. Unter den Computerschreibern scheint es mir nun aber zwei Haupttypen zu geben. Der eine scheut sich, eine so teure und anspruchsvolle Maschine mit seinen krausen Augenblickseinfällen zu behelligen; er schreibt ihrem Gedächtnis nur ein, was relativ fertig ist, und nutzt die Möglichkeiten der Maschine dann vor allem, um das Geschriebene dem ihm gegebenen Perfektionsgrad nahezubringen. Der andere ist berauscht von einem neuen Freiheitsgefühl: Das Ding ist nicht nur ein einzigartig widerstandsloses Schreibgerät, es geht dem Geschriebenen auch jene relative Endgültigkeit ab, die noch jede Fassung auf Papier hatte, es läßt sich also nach Belieben immer und immer wieder ändern, mañana, später ... Er 34
schreibt also drauflos, was ihm durch den Sinn huscht, fast kommt es ihm vor wie die erste wahre écriture automatique, gegen die der Widerstand, die Langsamkeit des Materials sich früher immer noch sperrte. Und unversehens hat der Textcomputer dem Inhalt seiner Schmierzettel eine würdige Schriftart verpaßt, hat der Laserdrucker es aufs edelste zu Papier gebracht, und da steht es dann, und der Leser reibt sich die Augen. Dies also sind die Gründe für jenen Qualitätssturz: Erstens: Einer tippt etwas vor sich hin, was in der Ära des Papiers allenfalls die erste rohe Skizze gewesen wäre; der Computer gibt es ihm aber auf Wunsch jederzeit in einer kostbaren Form aus, die früher allein vollendeten und wieder und wieder kontrollierten Texten vorbehalten war. Leicht täuscht dann die äußere Perfektion über die innere Unfertigkeit hinweg. Zweitens: Da alles, was vom »System« erfaßt ist, mit ein paar Handgriffen bis zur Veröffentlichung weiterbewegt und weiterverwandelt werden kann, bleibt der erste wirkliche Arbeitsgang – das Schreiben – oft auch der letzte. Gutachter, Lektoren, Redaktoren, Setzer, Metteure, Korrektoren – all die Qualitätskontrolleure, die früher ein Manuskript in den Druck geleiteten und ihm eine professionelle Form gaben, können eingespart werden, und oft werden sie es. Drittens: Sach- und Fachtexte werden meist unter Termindruck und in der Hektik eines zerstreuten Büros geschrieben. Sie sind zudem oft anonyme Produkte, die keinem als Einzelwesen vorhandenen Autor zugerechnet werden – da wird man an ihnen doch nicht feilen, als wolle 35
man einen Literaturpreis dafür verdienen. Der Computer erlaubt es, sie fixer denn je in die Tasten zu hauen. Nichts davon muß so sein. Ich denke zwar nicht, daß die Menge des anfallenden Textschutts jemals weniger werden wird. Aber ich möchte annehmen, daß dieser die Ansprüche der Leser nicht aufweichen und aufheben wird; daß der überhandnehmende Ramsch bei vielen von ihnen sogar ein großes Bedürfnis nach Qualität wachruft. Diese werden das Durchdachte und Formulierte und handwerklich sauber Gearbeitete – gegen das der Computer sich ja keineswegs sträubt, das er vielmehr erfinderisch unterstützt – zu erkennen und mit ihrer Aufmerksamkeit zu belohnen wissen und das andere auf die Halde kippen, wo es hingehört. Und wo sich das herumspricht, wird es die Computersudelei bremsen. Eine altehrwürdige Kulturtechnik im Umbruch – langsam ruft es nun auch die Medien- und Kulturtheoretiker auf den Plan. Der Medientheoretiker Friedrich Kittler (»Grammophon Film Typewriter«) zum Beispiel, der es fertigbringt, schon die Schreibmaschine irgendwie als eine nicht ganz geheure militaristische oder sexistische Errungenschaft hinzustellen, ist dem Computer natürlich erst recht nicht gewogen. Kittler scheint allen Ernstes zu meinen, er mache menschliches Denken überflüssig. »Die Konstruktion des Golems jedenfalls ist perfekt. Speichermedien der Gründerzeit konnten nur Auge und Ohr, die Sensorien des ZNS (Zentralnervensystems) ersetzen, Übertragungsmedien der Zwischenkriegszeit nur Mund und Hand … Das sogenannte Denken blieb Denken, also nicht zu im36
plementieren. Dazu mußte Denken oder Sprechen erst vollständig in Rechnen überführt werden … Computer schreiben selber, ohne Sekretärin, einfach mit dem Kontrollbefehl WRITE … Nach ihrer Numerierung waren Befehle, Axiome, kurzum Sätze ebenso grenzenlos manipulierbar wie Zahlen. Ende von Literatur, die ja aus Sätzen gemacht ist.« Was ist davon zu halten? Stolz, eine derart anspruchsvolle Maschine erst hundertmal nicht und dann doch zu meistern, haben manche Computer-Novizen in der Anfangsphase zwar zuweilen das Gefühl, all das Tastendrükken sei viel interessanter und wichtiger als das Schreiben selbst. So vieles kann man plötzlich machen: Sätze, Absätze umstellen, beliebige Passagen löschen und, wenn man es gleich danach bereut, dann doch wieder herbeizaubern, den Text zu schmalen oder zu breiten Spalten ordnen, eine Stelle fetten und beim zweiten Nachdenken dann doch lieber kursiv machen, verschiedene Texte ineinander mischen, die Wörter durchzählen oder in alphabetischer Folge auflisten lassen; unter den meisten Tasten der Eingabetastatur verbergen sich nicht nur die Zeichen, die sichtbar auf der Kappe stehen, sondern, wenn man sie mit anderen Tasten kombiniert, weitere Funktionen zuhauf, die in ihren Wirkungen auch nur zu erkunden Tage oder Wochen brauchte. Es scheint alles sehr viel Aufmerksamkeit zu verlangen; es ist auch spannend. Wer je in die Lage kam, sein Textprogramm selber an einen bestimmten Drucker anzupassen, weiß, wie schnell eine Nacht vergeht, in der man im Druckertreiber ein Byte bald hier, bald da umsetzt und dann den Effekt 37
ausprobiert – es ist wie ein Videospiel, ein Text-Adventure. Dieser anfängliche Computerrausch gibt sich aber schnell. Alsbald nämlich macht man die Entdeckung, daß der Computer selber gar nichts schreibt. Er bietet nur eine Schreibfläche. Vielleicht stehen ein paar Wörter und Icons auf deren Rahmen, aber sie dienen nur der Handhabung. Die Schreibfläche selber ist vollkommen leer. Der Computer steuert zu dem, was darauf zu stehen kommen soll, nicht das allergeringste bei. Er wartet, wie das leere Blatt Papier wartet. Kittlers so gewichtig auftretende Kritik verrät vor allem, daß er selber keine Ahnung hat; daß die technischen Einzelheiten, die er zuweilen seitenlang referiert, nur irgendwo abgeschrieben sind und die Aufgabe haben, dem Leser zu imponieren. Computer schreiben eben keineswegs selber, und schon gar nicht auf den »Kontrollbefehl WRITE« hin. Den »Kontrollbefehl WRITE« gibt es gar nicht. Was es gibt, ist eine WRITE-Instruktion oder ihr Äquivalent in den Programmiersprachen, die aber den Computer mitnichten dazu bringt, selber zu schreiben, sondern nur dazu, einen Text, dem man ihm vorher Zeichen für Zeichen mitgeteilt haben muß, auf dem Bildschirm zu zeigen. Das Wort »Schreiben«, das hier in den Programmiersprachen auftaucht, hat mit dem Begriff »schreiben« der natürlichen Sprache wenig gemein. Für die bequeme Programmierung des Computers muß vereinbart werden, daß bestimmte Tastendrücke, bestimmte Zeichenfolgen also, bestimmte Aktionen auslösen. Für die Auslösung der Aktion »Bildschirmanzeige eines Textes« wurde in etlichen Programmiersprachen eine Zei38
chenfolge gewählt, die dem natürlichen Wort write gleicht, nicht weil der Computer irgend etwas selber »schriebe«, sondern lediglich als mnemonisches Hilfsmittel für den Programmierer; WRITE merkt er sich halt leichter als PRX*/QQXyÜ, was es ebensogut sein könnte. »WRITE« ist auch kein »Kontrollbefehl«. Das Wort »Kontrollbefehl« scheint Kittler aus einem ganz anderen Zusammenhang zugeflogen zu sein. Das altgediente Textprogramm Wordstar wird im wesentlichen so gesteuert, daß jeweils die Taste »Control« und dann ein oder zwei Buchstaben gedrückt werden. Controltaste gedrückt halten, K und S tippen – das beispielsweise befiehlt dem Computer, einen Text abzuspeichern; Control plus OJ heißt: ab hier Blocksatz – und so weiter (es ist kein leicht zu lernendes Textprogramm) . Auch wenn sich der »Kontrollbefehl WRITE«, der menschlicher Literatur den Garaus machen soll, noch so dräuend anhört: Kittler könnte jedem beliebigen Computer in jedem beliebigen Zustand noch so oft WRITE eintippen: Es täte sich schlechterdings nicht das mindeste. Er verwechselt sowieso dauernd das »Schreiben« im Sinne der Schöpfung eines sprachlichen Gebildes mit dem bloßen mechanischen Hinschreiben, der »Texterfassung«. Aber sein »Kontrollbefehl WRITE« bewirkt noch nicht einmal dieses. Er erlaubte noch nicht einmal Kittlers Sekretärin die Kaffeepause. Und dann die Logik. Daß eine Rechenmaschine Zahlen manipuliert, meinetwegen auch »grenzenlos«, war nicht das Ende der Mathematik, die sich nicht in der Manipulation von Zahlen erschöpft. Es war noch nicht einmal das Ende der Mathematik, daß die Rechenmaschine 39
mathematische Beweise führen konnte. Noch weniger ist es das Ende der Literatur, daß die Maschine »Sätze manipuliert«. Warum überhaupt Sätze? Literatur ist nicht gleichbedeutend mit Sätzen; ebensogut könnte man sagen, Literatur bestehe aus Wörtern oder Seiten oder feinen Strichen. Und der Computer manipuliert gar keine »Sätze«; er manipuliert Symbole, und im Falle von Textprogrammen bedeuten diese Symbole alphanumerische Zeichen. Daß der Computer »Sätze« manipuliere, soll suggerieren, daß er Aussagen, Propositionen manipuliere; daß er also irgendwie in den Sinn des Geschriebenen eingreife oder diesen gar eigenmächtig erzeuge. Genau dies aber tut er nicht. Auch daß er inwendig Buchstaben als Dualzahlen behandelt, überführt kein Denken und Formulieren in einen Rechen Vorgang. Es ist nicht das Ende der Musik, daß die wabernden Klänge der »Götterdämmerung« auch als Spannungsschwankungen oder Wellenlinien auf der Langspielplatte existieren, wie es nicht ihr Ende ist, daß sie aus Luftschwingungen besteht oder sich in Noten ausdrücken läßt. Es ist nicht das Ende der Literatur, daß schriftliche Aussagen vom Rechner binär oder sonstwie codiert werden, wie es nicht ihr Ende war, daß sie aus Wörtern und diese aus Buchstaben und diese letztlich aus Farbmolekülen bestehen. Im übrigen sind auch Gedanken auf ihrer untersten Ebene Salven von Nervenimpulsen, also elektrischen Signalen, auch wenn sie selber von denen nichts wissen. Mir geht es angesichts eines Computers genau umgekehrt: Ich staune immer wieder aufs neue, wie menschlicher Intellekt es zuwege gebracht hat, so viele Hand40
lungsanweisungen, die unser Gehirn erteilt, von der Manipulation von alphanumerischen Zeichen bis zum Rechnen, Zeichnen, Malen, der Erzeugung von Tönen und so manchem anderen, immer weiter zu abstrahieren, bis sie sich durch wenige einfache logische Operationen an nicht mehr als zwei Symbolen darstellen ließen. (»Das Erstaunliche an Computern ist«, schrieb der amerikanische Philosoph John R. Searle, »daß sich jede in einer Sprache ausdrückbare Information in einem solchen System codieren und jedes Problem der Informationsverarbeitung, das mit expliziten Regeln lösbar ist, damit programmieren läßt.«) Und es beeindruckt mich, daß jedes Programm nicht nur bestimmte Arbeiten mehr oder weniger gut erledigt, sondern daß ihm darüber hinaus auch eine Ästhetik eigen ist, die mich je nachdem sympathisch berührt oder abstößt. Der progressive Medienkritiker beruft sich auf den konservativen, auf eine neuerdings oft zitierte Stelle aus Heideggers Parmenides-Vorlesung von 1942: »Das maschinelle Schreiben nimmt der Hand im Bereich des geschriebenen Wortes den Rang und degradiert das Wort zu einem Verkehrsmittel. Außerdem bietet die Maschinenschrift den Vorteil, daß sie die Handschrift und damit den Charakter verbirgt.« Ohne Zweifel, der nicht handschrift liche Text büßt durch die Maschine etwas von seiner »persönlichen Note« ein (könnte sie aber gerade durch die großen typographischen Gestaltungsmöglichkeiten des Schreibcomputers nun teilweise wieder zurückgewinnen). Aber Heidegger mochte sich auf eine Abwägung von Vor- und Nachteilen nicht einlassen; sie wäre für 41
ihn wohl schon Verrat gewesen, Verrat am Wesen des Menschen. Wieso gehört es zum Wesen des Menschen, mit der Hand zu schreiben? Darauf weiß der konservative Philosoph keine andere Antwort als: weil es bisher doch immer so war. »Der Mensch selbst ›handelt‹ durch die Hand; denn die Hand ist in einem mit dem Wort die Wesensauszeichnung des Menschen. Nur das Seiende, das wie der Mensch das Wort (mythos) (logos) ›hat‹, kann auch und muß ›die Hand‹ ›haben‹.« Dem könnte man respektlos entgegenhalten, daß der Mensch an der Schreibmaschine oder vorm Computer schließlich auch nicht mit dem Fuß oder einem anderen nichtswürdigen Körperteil schreibt, sondern wie eh und je mit der Hand »handelt«. Und wer das etymologisierende Philosophieren ernst nimmt, könnte erwidern, daß man es bei Schreibmaschine und Computer mit »Tasten« einer »Tastatur« zu tun hat, auf denen man mit der Hand tastend handelt. Aber damit mag es auf sich haben, was es will – jedenfalls ist das menschliche Vermögen, Werkzeuge zu ersinnen und zu gebrauchen, ein sehr viel charakteristischeres Wesensmerkmal als der Gebrauch einer geschickten Hand. Anders als Kittler bleibt der amerikanische Philosoph Michael Heim auf dem Teppich. »Electric Language« heißt sein Buch, »Elektrische Sprache«. Seine Grundthese: Der Computer werde womöglich die kontemplative Buchkultur auflösen und eine beispiellose Flüchtigkeit des Schreibens wie der Lektüre heraufbeschwören. Sehr elegant widerlegt er gleich selber, daß es so kommen muß. Auf dem Computer geschrieben, ist sein Buch eine so ausho42
lende wie tiefschürfende und dazu aufs sorgfältigste gearbeitete Beschreibung des »psychischen Rahmens« der Schrift kultur. Heim, schwankend zwischen Euphorie und Depression, resümiert: »Das digitale Schreiben … ersetzt die handwerkliche Sorgfalt beim Umgang mit widerständigem Material durch die automatisierte Manipulation; lenkt die Aufmerksamkeit vom persönlichen Ausdruck zur allgemeineren Logik algorithmischer Prozeduren; führt von der Stetigkeit kontemplativen Formulierens zur Überfülle dynamischer Möglichkeiten; und wandelt die private Einsamkeit reflektierenden Lesens und Schreibens in ein öffentliches Netzwerk, wo der persönliche symbolische Rahmen, den die originale Autorschaft voraussetzt, von der Verkoppelung mit der totalen Textualität menschlichen Ausdrucks bedroht ist.« Zwei Punkte dieses Katalogs scheinen mir besonders wichtig. Der eine: Der Mensch, der mit dem Computer arbeitet, denke am Ende wie ein Computer – er infiziere sich mit algorithmischem Denken. Was ist ein Algorithmus? Eine explizite, eindeutige und logisch Schritt auf Schritt aufbauende Handlungsanweisung. Ein Computer arbeitet algorithmisch. Ausdrücklichkeit: Oft ertappt sich der Anfänger dabei, wie er die Maschine anfährt: »Esel! Ist doch klar, daß ich …«– zum Beispiel diesen Brief in Schönschrift haben will und nicht in der flüchtigen Punktschrift des Matrixdruckers. Aber der Computer tut nur, was ihm ausdrücklich befohlen wird. Wird ihm nicht ausdrücklich Schönschrift befohlen, so liefert er sie auch nicht. 43
Eindeutigkeit: Wer ein Schriftstück, das er unter dem Namen TEXTCOMP.DOC abgespeichert hat, unter dem Namen COMPTEXT.DOC sucht oder auch nur versehentlich TEXCTOMP.DOC hinschreibt, wird eine Fehlanzeige ernten. Es hilft nicht, den Computer anzufahren. Ambiguität toleriert er nicht im mindesten. Schritt auf Schritt: Wir überspringen manchmal einen Schritt, machen gelegentlich auch den dritten vor dem zweiten. Wenn aber das Computerprogramm zum Beispiel das Speichern vor das Drucken gesetzt hat, dann ist keine Sprunghaftigkeit gestattet; der Algorithmus will schrittweise abgearbeitet werden. Indessen ist das algorithmische Denken nichts Unmenschliches. Wer vorhat, ein paar Briefe zu schreiben und abzuschicken, geht nicht erst eine Briefmarke kaufen, steckt dann zwei Umschläge in den Kasten und besorgt schließlich das Briefpapier. Wir machen uns für alle unsere Handlungen dauernd vernünftige Algorithmen, auch wenn wir uns darüber selten ausdrücklich Rechenschaft geben. Warum soll der Verstand der Menschen Schaden nehmen, wenn der Computer sie nötigt, gelegentlich die algorithmischen Züge ihres Denkens an die Oberfläche zu bringen? Und wer den Computer nur als Wortprozessor gebraucht, kann dessen algorithmische Ansprüche auf ein Minimum beschränken; wenn er nur will, ist der Umgang mit ihm nicht »algorithmischer« als der mit einem Fernsehapparat: Es sind ein paar Knöpfe zu drücken, dann steht eine Schreibfläche bereit, und ein paar weitere Knopfdrücke befördern das darauf Geschriebene aufs Papier. 44
Der andere Punkt: das Netzwerk. Technisch machbar ist es. Aus dem Autor und Leser von heute könnte eines Tages der Teilnehmer in einem unentwegten elektronischen Austausch von Informationspartikeln werden. Die Mühsal, mit der eine Datenbankrecherche heute noch verbunden ist, und ihr oft nur geringer Erfolg; die vielen Pannen bei der Datenübertragung; der Umstand, daß es mit der optischen Platte (CD-ROM) inzwischen zwar ein überaus mächtiges Speichermedium gibt, welches ganze Bibliotheken am Bildschirm verfügbar machen könnte, daß es aber noch fast völlig ohne Inhalt ist – all das wird sich mit der Zeit ändern. Trotzdem glaube ich vorläufig nicht an das Netzwerk der vollelektrifizierten Autoren und Leser; ich glaube noch nicht einmal an den vollelektronischen AutorenArbeitsplatz. Es ist wahr, in einem Computernetz können ungeheure Datenmengen hin- und herbewegt und automatisch durchgekämmt werden. Es ist aber ebenfalls wahr, daß sie an ihren Endstationen immer auf einen Engpaß treffen: die Aufnahmefähigkeit des einzelnen Menschen. Alles Gedachte und Geschriebene ist dazu bestimmt, am Ende durch den Kopf eines Einzelnen zu wandern; und es eignet sich allemal besser dazu, wenn es aus dem Kopf eines Einzelnen, vieler Einzelner stammt und nicht aus einem Informationsautomaten. Daß auf Knopfdruck »ganze Bibliotheken« zur Verfügung stünden, mag schön und gut sein und ein nettes Versprechen in einer Zeit, da man in einer real existierenden Bibliothek selten findet, was man sucht. Nur braucht man in den seltensten Fällen »gan45
ze Bibliotheken«, würde man unter den Fundstellen aus »ganzen Bibliotheken« hoffnungslos erdrückt. Verändert der Computer das Schreiben? Den mechanischen Vorgang des Schreibens natürlich – aber darüber hinaus auch Form und Inhalt des Geschriebenen? Und wie verändert er es? Schreibende Menschen sind in einer eigenartigen und manchmal komischen Weise abhängig von den äußeren Umständen, unter denen sie schreiben, und von den Dingen, mit denen sie schreiben und auf die sie schreiben – von der Materialqualität. Der eine kann es nur, wenn er allein in einem vertrauten Zimmer ist und die Tür hinter sich zumachen kann. Der andere braucht den Betrieb eines Caféhauses. Der eine schreibt am besten, wenn er dabei Tee trinkt, der andere, wenn er Musik hört. Der gleiche Tee oder die gleiche Musik blockieren den Dritten vollständig. Schiller brauchte zum Schreiben den Geruch verfaulender Äpfel. Heimito von Doderer schrieb mit verschiedenfarbigen Tinten auf edles Papier. Vladimir Nabokov schrieb mit spitzen weichen Bleistiften auf liniierte Karteikarten. Arno Schmidt schrieb mit der Schreibmaschine, aber nur mit einem braunen Farbband und auf beigefarbenes Papier. Bei Journalisten sind solche Gewohnheiten vielleicht weniger ausgebildet. Aber abhängig sind auch sie von Umständen und Art des Schreibens. Der eine beherrscht die Kunst, seine Artikel zeilengenau in die Setzmaschine oder welche Tastatur auch immer zu diktieren. Der eine hat nichts gegen die mechanische Vermittlung und kann nur mit der Maschine schreiben, der 46
andere braucht sozusagen den Körperkontakt zum Geschriebenen und kann nur von Hand. Wenn einer, der bisher alle seine Sachen säuberlich mit der Hand in ein leeres Buch geschrieben hat, plötzlich in ein Diktiergerät sprechen müßte oder vor den zwölf mehrstöckig belegten Funktionstasten eines Textcomputers säße; oder wenn der Maschinenschreiber plötzlich alles mit der sich verkrampfenden Hand schreiben müßte, fühlten sie in milden Fällen ein den Gedankenfluß hemmendes Unbehagen, und in schwereren Fällen fiele ihnen einfach kein Wort mehr ein. Der Handschreiber und der Diktierer werden den Umstieg auf den Textcomputer wahrscheinlich nicht schaffen, und kein Arbeit- und Auftraggeber sollte ihn dazu nötigen. Es gibt allerdings schon Büros, etwa manche Fachübersetzerbüros, wo das Problem nicht mehr darin besteht, daß die Mitarbeiter zur Bildschirmarbeit vergewaltigt würden, sondern im Gegenteil, daß nicht alle an den Bildschirm dürfen, die es gern möchten. Wie also verändert der Wortprozessor das Schreiben und das Geschriebene? Ich bin hier weitgehend auf die erste, aber leicht verrufene Quelle alles psychologischen Wissens angewiesen, auf die Selbstbeobachtung. Wer einmal einen Text erst in handschrift licher Form gesehen hat und dann im Druck, der weiß: Er »liest sich« sofort ganz anders. Vielleicht wird eine vorher verborgene Pointe sichtbar, nimmt sich eine Stelle, die handschriftlich ganz in Ordnung schien, jetzt, wo man sie flüssiger entziffert, falsch oder tautologisch aus. Auf subtile Weise beeinflußt das äußere Bild des Geschriebenen seine 47
Bedeutung, und nicht nur in der Weise, daß eine äußerlich unsympathische Form einen auch gegen den Inhalt einnimmt. Es ist eine allgemeine Erfahrung unter Autoren: In dem Augenblick, da man seinen Text zum ersten Mal in einer ganz neuen und endgültig wirkenden Form liest, bemerkt man Schwächen, die einem vorher entgangen waren. Der Übergang vom Manuskript zum Satz löst bei Autoren unweigerlich eine Welle von Autorenkorrekturen aus, so unlieb die, aus Kostengründen, den Verlagen auch sind. Der Übergang vom Papier zum Monitor ist eine Metamorphose, die mindestens so einschneidend ist wie die vom Manuskript zum Satz. Die Buchstaben stehen plötzlich hinter Glas, leuchten grün oder bernsteinfarben oder plasmatisch ochsenblutrot auf dunklem Grund oder schillern reptilhaft grünlich und messingfarben, und auch wo sie schwarz auf weiß stehen, leuchtet der Hintergrund in einer Weise, wie es auch das weißeste Papier nie tut. Vor allem übersieht man immer nur etwa zwanzig Zeilen. Wer Vorherstehendes oder Späteres sehen will, muß »scrollen«, also sozusagen das sichtbare Textfenster über dem unsichtbaren gespeicherten Text verschieben. Hat man dann die gesuchte Stelle am Bildschirm, ist die ursprüngliche nicht mehr zu sehen, und wenn man die nun im Licht der nachgelesenen anderen Stellen verändern möchte, muß man sich erst wieder zu ihr zurückscrollen. Steht die gesuchte Stelle noch weiter entfernt, muß man sie möglicherweise erst aus einer anderen »Datei« herbeirufen. Auf dem Bildschirm erscheint sie dann in einem weiteren »Textfenster«, und zwei grö48
ßere Fenster gleichzeitig lassen sich nicht lesen, immer verdeckt das eine das andere. Es läßt sich zwar alles machen, es braucht meist nur ein paar Tastendrücke, aber das Blättern in einer Papierfassung ist dennoch einfacher. Soll allerdings nicht nur geblättert und gelesen werden, geht es darum, Textpassagen innerhalb einer Datei oder zwischen verschiedenen Dateien zu verschieben, so ist der Computer weit überlegen. Scheinbar sind ähnliche Manipulationen nur Bagatellen und nicht wert, daß man überhaupt von ihnen redet. Aber die minimal kleinere oder größere Mühe, die es kostet, irgendeine Veränderung am Text vorzunehmen, beeinflußt, welche Veränderungen wir vornehmen werden, und zwar in einem Ausmaß, das sich niemand vorstellen kann, der es nicht an sich selber erlebt hat. Die leicht erhöhte Mühe, die es am Bildschirm kostet, Übersicht über größere Textabschnitte zu gewinnen, wird also dazu führen, daß wir solche Übersicht weniger bereitwillig suchen. Inkonsistenzen oder Widersprüche oder Wiederholungen innerhalb der zwanzig Zeilen, die jeweils am Bildschirm zu sehen sind, wird man genauso gern oder aus anderen Gründen sogar viel lieber beseitigen als auf dem Papier. Zwischen entfernteren Textstellen aber wird man sie leichter übersehen und gelegentlich auch dann durchgehen lassen, wenn man durchaus von ihnen weiß. Dies aber ist auch schon der einzige nennenswerte Nachteil der Arbeit am Schreibcomputer. Ihm stehen größere Vorteile gegenüber. Zunächst einmal fällt das Schreiben einfach leichter. Keine verkrampften Finger, 49
keine verklemmten Typenhebel, keine schwarzen Farbbandenden, höchstens ein steifer Nacken – man streicht nur noch sacht über die Tasten hin, braucht kein neues Blatt einzuspannen, wenn das Seitenende gekommen ist, braucht am Zeilenende auch den Wagen nicht mehr zurückzuschieben (der Wagenrücklauf überlebt nur als Symbol – die Eingabetaste »Enter« heißt auch CR oder »Carriage Return«) – das Textprogramm beginnt mit dem Wort, das nicht mehr in eine Zeile paßt, automatisch eine neue. Kurz, die Maschine erspart es einem, sich um das Mechanische des Schreibens zu kümmern. Der Weg vom Kopf in die Schriftform wird kürzer, direkter. Ich habe den Verdacht, daß einen dieser Umstand beredter macht. Manchmal befürchte ich, er macht auch geschwätziger. Jedenfalls haben manche Computerschreiber bekannt, daß ihre Briefe oder Artikel oder Bücher irgendwie länger geworden seien, seit die Maschine auf ihrem Schreibtisch steht. Der Hauptvorteil, das, was jeden Schreiber dann endgültig für den Computer gewinnt, ist jedoch nicht die Leichtigkeit des Schreibens selbst, sondern die des Korrigierens. Ich selber bin dazu gekommen, meinen Computer gar nicht mehr so sehr als Schreibgerät zu sehen, sondern als eine externe Erweiterung meines Gedächtnisses, mit der Eigenschaft, sich unbegrenzt viel merken zu können – eine Merkmaschine. Das Ding merkt sich jeden Gedanken in exakt dem letzten Wortlaut, den ich ihm gegeben hatte, und wenn ich will natürlich auch alle Zwischenfassungen von der ersten Notiz an. Ein Druck auf ein oder zwei Tasten, und Buchstaben, 50
Wörter, Zeilen, Absätze, die man beseitigen möchte, sind weg. Und weg heißt hier wirklich weg; es bleibt keine durchgewetzte Stelle oder kein Loch, wo sie standen; sie sehen einen auch nicht unter lauter X-en oder unter einer Schicht von bröckligem Tipp-Ex hervor beschämend weiter an. Das heißt, es ist eine Lust, etwas Geschriebenes auch wieder auszumerzen. Ein paar Manipulationen, und ein Textpassus ist an eine andere Stelle geschoben. Umberto Eco, der nicht nur auf einem Textcomputer schreibt, sondern auch über das Schreiben am Textcomputer, sieht hier einen allgemeinen stilistischen Wandel eingeleitet. Damit sich ein Textblock verschieben läßt, darf sein Verständnis nicht von dem vorausgegangenen Kontext abhängen; er muß autark sein. Ein Satzbestandteil, der nicht aus sich selber heraus völlig verständlich ist, sondern dessen Bedeutung sich nur im Zusammenhang mit vorhergehenden Sätzen ergibt, heißt in der Linguistik »Anapher«. Der gleichwohl vollständige Satz Sie gab ihm so etwas nicht wird erst verständlich, wenn man den Satz davor kennt: Der Junge bat die Verkäuferin um ein Horrorvideo – das heißt, er ist eine Anapher. Würde er durch die Funktion »Blockverschiebung« an eine andere Textstelle gerückt, wäre er dort unverständlich. Eco meint, daß Autoren, die mit der Möglichkeit der Blockverschiebung rechnen, den anaphorischen Stil von vornherein zu vermeiden suchen werden. Ich glaube es nicht. Nicht nur, weil er uns so natürlich ist, daß dazu Anstrengung nötig wäre und das Ergebnis krampfig wirkte – sondern vor allem eben darum, weil das Korrigieren am Computer so leicht fällt, daß man 51
den verschobenen Textblock an seinem neuen Ort mühelos in seinen neuen Kontext einbetten kann. Die Merkmaschine hat weiterhin die Eigenschaft, nie die Geduld zu verlieren. Jede Zumutung läßt sie sich gefallen. Jederzeit nimmt sie Korrekturen entgegen, auch nachts um zwei, auch an Sonntagen, wenn einem gerade dann eine bessere Formulierung eingefallen sein sollte. Und jederzeit druckt sie einem ohne Murren das Geschriebene absolut sauber und fehlerfrei aus, auch die dritte oder zehnte Fassung, mit der man keine menschliche Sekretärin mehr hätte behelligen können. Die Leichtigkeit, mit der sich der Text verändern läßt, animiert zum Probieren. Ein Satz, der einmal auf Papier niedergeschrieben war, nahm eine gewisse Endgültigkeit an, die man nicht leicht und leichtfertig wieder aufhob; und schon gar nicht, wenn es sich um die Reinschrift gehandelt haben sollte. In dem elektronischen Gedächtnis des Textprozessors läßt sich beliebig herumexperimentieren. Man braucht sich nicht vorzustellen, man kann sehen, was geschieht, wenn ein Satz so oder so formuliert wird oder wenn er dort oben steht und nicht hier unten. Und nie mehr braucht man sich zu scheuen, eine Reinschrift durch verspätete Korrekturen zu verderben, denn der Computer, der immer nur Reinschriften anfertigt, macht einem willig auch noch eine allerletzte. Der Papierverbrauch allerdings nimmt auf diese Weise erheblich zu. All dies heißt, daß das Schreiben mit dem Wortprozessor in einem ungeahnten Ausmaß den Charakter einer textlichen Bastelarbeit annimmt. Geht es so? Oder ist es 52
vielleicht doch so besser? Nein, lieber wie es war … Früher hat einen in vielen Fällen die zwar geringe, letztlich aber doch inhibitorische Mühe, die alle Änderungen oder Umstellungen auf dem Papier mit sich gebracht hätten, davon abgehalten, sie zu machen. Jetzt kann man sich ungeniert einem Rausch des Korrigierens hingeben. Für jenen Typ von Autor, der endlos zu verbessern pflegt und früher mit viel Tipp-Ex-Flüssigkeit und Kleister gearbeitet hätte, kann das auch gefährlich sein. Ihm fehlt nunmehr jeder Zwang zur Endgültigkeit. Er ergeht sich vielleicht in einer endlosen Orgie von Revisionen, die seine Leser schon lange nicht mehr zu goutieren wissen. Autoren und Übersetzer wissen, daß es gut ist, einen Text eine Weile liegen zu lassen. Beim Schreiben ist man so durchdrungen von der Bedeutung, die man sich auszudrücken bemüht, lebt so intensiv in einem bestimmten semantischen Raum, daß man schlecht beurteilen kann, ob die Worte, die man gefunden hat, jene Bedeutung wirklich vermitteln, ob sie auch ihren Leser in jenen semantischen Raum eintreten lassen. Ist dem Autor nach Wochen oder Monaten der Text fremd geworden, so muß auch er selber die Bedeutung einzig aus dem rekonstruieren, was dasteht. Erst dann merkt er, ob es »trägt«. Der Computer verkürzt diese Karenzzeit, die jedem besseren Text gegönnt sein sollte. Denn fremd macht es den eigenen Text auch schon, wenn er einem in einer Gestalt entgegentritt, die nicht die Gestalt seiner Niederschrift ist – und der Computer kann ihn einem in fast beliebiger Gestalt ausgeben. Der Computer fördert eine bekömmliche Distanz zum Geschriebenen. 53
Dem Buch und allen »Printmedien« wurde in den letzten Jahrzehnten oft der Tod prophezeit. Das Fernsehen, überhaupt die »audiovisuellen Medien«, so meinten manche, würden ihnen den Garaus machen. Besorgt das jetzt der Computer? Er wird es nicht tun – und zwar darum, weil der auf Papier geschriebene oder gedruckte Text sozusagen ergonomisch unübertrefflich ist. Irgendwann werden dem Autor zwar allerlei elektronische Hilfsmittel zur Verfügung stehen, Nachschlagewerke, Wörterbücher zum Beispiel. Der technische Übersetzer, für den ein bestimmtes Wort die einzig richtige Übersetzung eines Fachbegriffs ist, wird es als Arbeitserleichterung empfinden, wenn er es rasch aus einem externen Speicher abrufen kann. Aber wo es mit einem einfachen Ersetzen nicht getan ist, wo man suchen, nachdenken, wieder suchen muß, dürfte der Computer dem Buch ergonomisch meist unterlegen sein. Der Bildschirm ist schwerer zu lesen als bedrucktes Papier; und was man dort liest, ist schwerer aufzufassen. Und selbst wenn die Bildschirme der Zukunft dem in gewissem Maß abhelfen sollten: in einem längeren Text zu blättern, die Übersicht über eine längere Textstrecke zu behalten, mehrere Texte gleichzeitig in Betracht zu ziehen – das alles ist am Bildschirm wohl möglich, wird dort aber wahrscheinlich immer mühsamer sein. Außerdem braucht der Computer Strom, und jene Exemplare, die zeitweise ohne Steckdose auskommen, die Laptops also, macht ihr Akku um so schwerer. So eminent transportabel wie ein Buch ist er nie, und je transportabler er ist, um so schlechter ist in der Regel iuch sein Display – die 54
Displays vieler Laptops sind noch eine Zumutung für das Auge. Immer ist er eine Maschine, die zwischen dem Leser und dem Text steht. Einem Buch dagegen kann man sich ohne jede maschinelle Hilfe zuwenden, man kann es überallhin mitnehmen, man kann es in die Jackentasche stecken, man kann es an jedem Ort lesen, am Stehpult, am Strand, in der Badewanne, man darf darin herumkritzeln, man darf es fallen lassen, man kann Seiten herausreißen und seiner Freundin unter die Nase reiben, man kann es sogar an die Wand schmeißen. Nur bei wenigen ausgewählten Anwendungen also wird der elektronisch gespeicherte Text dem Buch, dem gedruckten Schriftstück überlegen sein. Bei Routinetätigkeiten wie dem Schreiben und Lesen sind es, wie gesagt, die winzigsten (ergonomischen) Vorund Nachteile, die über Benutzung oder Nichtbenutzung entscheiden. So wie die Schreibmaschine sich durchgesetzt hat, weil sie der Hand etwas Arbeit abnahm, so wird die Entscheidung gegen die Rückkehr zur Schriftrolle ausfallen, die der Computertext darstellt. Den Beweis liefert die Computerindustrie selber jeden Tag. All die Handbücher, die der Benutzer braucht, sind oft zwar auch auf Diskette verfügbar, und knauserige Firmen liefern sie nur auf Diskette. Theoretisch könnte man sie am Bildschirm durcharbeiten und dort bei Bedarf konsultieren. So gut wie niemand tut es. Erst müßte man unterbrechen, was gerade in Arbeit ist; dann den Handbuchtext aufrufen; dann von Textfenster zu Textfenster scrollen, bis man gefunden hat, was man sucht. Zuallererst wird man sich also doch lieber einen Ausdruck machen und 55
den in eine Mappe heften; da hat man dann die Information schneller und in handlicherer Form. Aus diesen Gründen, meine ich, ist das Buch keineswegs zum Untergang verurteilt, und ein »Ende der Literatur« (Kittler) hat der Computer ohnehin nicht auf dem Gewissen. Als Schreib-Medium ist er überlegen, als Lese-Medium nach wie vor das beschriebene Papier. In den wenigen Jahren seines Daseins hat der Wortprozessor einiges unternommen, sich dem Papierwesen anzunähern. Noch zwar ist das Prinzip WYSIWYG nicht viel mehr als ein Versprechen. WYSIWYG heißt »What You See Is What You Get« und bedeutet genau das: Genau wie ein Text auf dem Bildschirm aussieht, so soll er ausgedruckt dann auch auf dem Papier stehen – gleicher Zeilenfall, gleiche Schriften, gleiche Schriftgrößen, gleiche Schriftattribute. Echtes WYSIWYG wäre nur im Grafikmodus zu erzeugen, und der ist im Vergleich zum Textmodus langsam, langsamer als der Schreiber an der Tastatur. Also schreibt und ediert man bei den meisten Textverarbeitungen nach wie vor im Textmodus, also in der programmeigenen Einheitsschrift, und kann nur hinterher in den Grafikmodus umschalten und auf dem Bildschirm betrachten, wie die betreffende Papierseite dann ungefähr ausschauen wird. Der harte Wettbewerb zwischen den Textverarbeitungen hat dazu geführt, daß sie im Laufe der Jahre mit Funktionen vollgestopft wurden. Kaum hatte ein Softwarehaus sein Produkt um irgendeine neue bereichert, das eine um einen »Thesaurus« (armselige Synonymen-»Schätze« in der Regel, eher Notvorräte), das andere um eine Rechtschreibkontrolle, das 56
eine um einen »Taschenrechner«, das andere um eine Uhr, das nächste um einen Makrorecorder, so wartete auch die Konkurrenz damit auf. Die großen Programme quellen heute über von Funktionen; man muß sich hüten, versehentlich irgendeine Nicht-Zeichen-Taste zu berühren, denn welche man auch antippt: sie löst irgendeine Aktivität im Computer aus. Bei diesem Wettlauf um das funktionsmächtigere Programm hat man sich offenbar wenig Gedanken darum gemacht, welche Grundfunktionen der Benutzer dem Programm abverlangt und wie es diese möglichst elegant beherrscht. Sonst hätte es nicht dahin kommen können, daß kaum eines dieser umfänglichen Programme wenigstens so viel WYSIWYG leistet, die Schriftattribute (fett, kursiv, unterstrichen) auch im normalen Schreibmodus auf dem Bildschirm darzustellen. Statt dessen sieht man auf dem Bildschirm Codesequenzen, sieht man allerlei Symbole, sieht bestenfalls jede Schriftvariante in einer anderen Farbe oder, viel verwirrender, alle Attribute in der nämlichen Hervorhebungsfarbe, muß man also umdenken: Hier der rote Satz wird dann unterstrichen, dort das gelbe Wort wird kursiv, soll aber außerdem noch halbfett sein – hatte ich den Steuerbefehl für halbfett nun schon eingegeben, oder unterschlägt die Bildschirmdarstellung ihn mir nur? Ein ungewöhnlich offenherziger Artikel in der Computerzeitschrift ›DOS International kam noch 1990 zum Schluß: »Fast jedes neue Textprogramm schmückt sich mit dem Attribut ›WYSIWYG‹ – was die meisten bieten, ist dagegen nur Augenwischerei. . . Voraussichtlich wird WYSIWYG sich auf absehbare Zeit durchsetzen, nur im Moment ist 57
die Zeit dafür noch nicht reif. Hardware-Hersteller haben beim Fiebern nach der höchsten Taktfrequenz wohl vergessen, daß es vielleicht zunächst einmal wichtiger wäre, hochauflösende Bildschirme zu entwickeln. Und die meisten Software-Entwickler waren so sehr mit dem Einbau von immer neuen Funktionen beschäftigt, daß verbesserte Benutzeroberflächen ... oft unter den Tisch fielen.« Die meisten Warentests heizen diesen Wettlauf noch weiter an. Anfang 1990 etwa veröffentlichte das Computermagazin ›Chip‹ die Ergebnisse des größten und eingehendsten Tests, dem Textverarbeitungsprogramme im deutschen Sprachbereich je unterzogen wurden: Vierzig Programme wurden nach einheitlichen Kriterien überprüft und bewertet. Um der Objektivität willen fragte der Test nur, welche von insgesamt fünfhundert möglichen Funktionen jedes besitzt. Natürlich schnitt am besten ab, wer mit den meisten Funktionen aufwarten konnte. Die verschiedenen Bedienungskonzepte, gar die Ästhetik der einzelnen Programme blieben unbewertet. Dennoch hat sich der Schreibcomputer seit der ersten Hälfte der achtziger Jahre natürlich verändert, zumindest für den, der die Verbesserungen zu bezahlen bereit ist. Nicht mehr unbedingt grün oder bernsteingelb leuchtet die Schrift auf dem Bildschirm, der im übrigen so flach und rechtwinklig wie ein Bogen Papier geworden ist – für den, der sie so will, steht sie mittlerweile schwarz auf weiß, »papierweiß«, gar »yellowish paper-white«. Die Typographie hat Einzug gehalten. Der Drucker liefert nicht mehr die spillrige Nadelschrift; wer will, kann ihm auch kultivierte Schriften abverlangen. Mit dem Computer muß 58
man sich nicht mehr unbedingt durch geheimnisvolle Zeichencodes verständigen; sogenannte grafische Benutzeroberflächen wie GEM oder die des Macintosh oder Windows erlauben es, bei der Bedienung die rechte, bildlich und räumlich denkende Hirnhemisphäre zu benutzen, Piktogramme zu aktivieren, die nun Icons heißen, mit (symbolischen) Karteikästen und Karteikarten, mit Aktenordnern, mit Notizzetteln zu hantieren und das Überflüssige nicht mehr mit dem Befehl DELETE zu beseitigen, sondern es in eine symbolische Mülltonne zu befördern. Das geschieht nicht etwa, weil die Leute es halt so gewöhnt sind, um einer nostalgischen Reminiszenz willen. Es geschieht in Anerkennung einer überlegenen Technik. Buchstaben auf Papier – diese Technik hatte Jahrtausende, um auszureifen und sich dem menschlichen Geist optimal anzupassen, so sehr, daß wir sie gar nicht mehr als Technik empfinden, sondern als etwas Natürliches, und dabei hat sie eine Würde gewonnen, die uns von einer Schrift- und Buchkultur sprechen läßt. In einer Druckschrift wie der Times stecken Jahrhunderte Erfahrung, Wissen, ästhetisches Gespür. Eine Schrift, die ihren Lesern Befriedigung verschaffen soll, läßt sich nicht übers Knie brechen. Typographie ist eine Kunst, ein Schriftentwerfer arbeitet Monate oder Jahre an einer neuen Schrift. Man kann nicht daherkommen und meinen, eine in ein paar Tagen improvisierte Bildschirm- oder Druckerschrift könne eine ähnliche Befriedigung verschaffen. Es gibt eine Menge von vielgebrauchten stillen Kulturdingen, die wir kaum je bewußt zur Kenntnis nehmen, deren Existenz wir einfach vor59
aussetzen: Schriften, überhaupt Typographie, Einbände, Wörterbücher, Landkarten, Nachschlagewerke, die von Generationen von Fachleuten vervollkommnet worden sind. Nichts davon läßt sich aus dem Boden stampfen, auch nicht aus der Platine. Der Computer, der Neuling, der seine optimale Form gerade erst zu suchen beginnt, guckt sich völlig zu Recht manches ab. Es gibt gewiß eine »Computerkultur« im Sinne eines hochentwickelten technischen Verständnisses für Mikroelektronik und Programmstrukturen. Aber die »Computerkultur« im Sinne einer gereiften Ästhetik der »Benutzeroberflächen«, im Sinne einer wirklich sachverständigen Bezogenheit auf die sprachlichen, grafischen, musikalischen Aufgaben, zu deren Lösung er immer mehr herangezogen wird, im Sinne auch einer eher traditionell »musischen« oder »literarischen« als einer mathematisch-technischen Kultur steckt erst in den Anfängen. Oft noch gähnt statt solcher Computerkultur nur ein spezielles Analphabeten- und Illiteratentum. Eines Tages aber wird der Computer mehr sein. Die über seine Architektur und die der Programme nachdenken, müssen jene andere Kultur nur erst einmal ernst nehmen.
W I E V I E L E WÖRT E R H AT DE R M E NS C H? Das innere Lexikon
Die einfachsten Fragen sind meist die schwersten. Wie viele Wörter hat einer, der Deutsch spricht? Wieviele gibt es denn überhaupt? Adenauer hatte nur achthundert, heißt es. Aber Goethe, der hatte doch bestimmt Hunderttausende? Wir machen uns keine Vorstellung von der Größe des Wortschatzes, des eigenen wie desjenigen um uns her. Zehntausend, hunderttausend, eine Million, wer weiß es – aber unser Vorstellungsvermögen versagt bei großen Zahlen ja sowieso: Alle bedeuten uns immer nur »sehr viele«, und eine Menge von hunderttausend oder einer Million können wir nur rechnerisch unterscheiden, nicht aber in der unmittelbaren Anschauung. Jedoch gibt es Situationen, in denen man es genauer wissen sollte. Berufs- und Hobby-Psycholinguisten möchten Genaueres über das Fassungsvermögen des Gedächtnisses wissen; sie möchten auch wissen, welche Leistung Kinder eigentlich erbringen, wenn sie in wenigen Jahren und wie von selbst ihre Muttersprache gleichsam in sich hineinsaugen. Wer in einem Alter, in dem man nicht mehr einfach alles planlos in sich hineinfrißt, eine Fremdsprache lernt, der will rationell und zielbewußt vorgehen und sich erst einmal die unentbehrlichsten Vokabeln einverleiben; er wüßte auch gern von vornherein, wieviel er überhaupt zu lernen hat, um sich einigermaßen behelfen zu können. Die Sprachdidaktik sollte also wissen, welches der 63
unentbehrliche Grundbestand einer Sprache ist (und sie weiß es). Oder all die Software-Firmen, die sich mit Textverarbeitung befassen und von denen wir eines Tages die Alphabetisierung des Computers verlangen müssen: Wenn sie sich keine näheren Gedanken machen, ehe sie ein elektronisches Rechtschreib- oder Synonym- oder Übersetzungswörterbuch in Angriff nehmen, wenn sie nur die Funktion ihres Programms im Auge haben und die Wörter, mit denen dieses umgehen soll, als eine Art Müll betrachten, den man am besten kiloweise von irgendeiner Lexikonredaktion bezieht und unbesehen in das Programm einfüllt – dann könnte es ihnen passieren, daß das ganze schlaue Programm der Eigenart der Sprache nicht gewachsen ist und seinen Nutzern wenig nützt. Einige offerieren teures Werkzeug, sich im Eigenbau selber Wörterbücher anzufertigen, ganz und gar »mühelos« angeblich – die langen Gesichter, wenn sich die Mühen dann endlos hinziehen, bekommen sie nie zu sehen. Wie groß also ist er, der deutsche Wortschatz? Die Sprachwissenschaft schätzt ihn seit langem auf etwa 400 000. Schätzt sie richtig? Seit einigen Jahren gibt es endlich zwei große deutsche Wörterbücher: das sechsbändige »Duden Wörterbuch« (1976/81) und den ebenfalls sechsbändigen »Brockhaus Wahrig« (1980/84). Beide sind ausdrücklich auf Vollständigkeit aus. Nur Fachwörter, die nicht in die allgemeine Sprache eingedrungen sind, lassen sie beiseite; ansonsten wollen sie den gesamten allgemeinen Wortschatz verzeichnen. So kommt der »Brockhaus Wahrig« laut eigener Angabe auf 220 000 64
Stichwörter, der »Duden« auf 500 000. Und der Benutzer wiegt beide Werke in den Händen und sagt sich, daß hier etwas nicht stimmen kann. Zwar ist der »Duden« etwas kleiner gedruckt, aber mehr als der »Brockhaus Wahrig« enthält er gewiß nicht, eher weniger. Also muß es daran liegen, daß beide Redaktionen unterschiedlich gezählt haben. Tatsächlich heißt es auf dem »Duden« wörtlich: »Über 500 000 Stichwörter und Definitionen«. Und das will wohl verstanden werden als »eine ungenannte Zahl von Wörtern in 500 000 Bedeutungen«. Denn natürlich gibt es viel mehr lexikalische Bedeutungen als Wörter. Einmal liegt es an den zahlreichen Homonymen, also den Fällen, in denen zwei grundverschiedene Wörter zufällig – das heißt aus sprachhistorischen Gründen – gleich geschrieben werden (Fest und fest, Sein und sein). Zum anderen sind sehr viele Wörter polysem, tragen also mehrere Bedeutungen. Wir merken es spätestens beim Übersetzen, wenn etwa ein Hörer mal als listener, mal als Student, mal als receiver wiedergegeben werden will. Wer nun überlegt, welches der beiden Großwörterbücher er sich anschaffen sollte, darf sich von ihren inkommensurablen Größenangaben nicht irremachen lassen. Ihr Wortbestand ist nicht sehr verschieden, der des »Brockhaus Wahrig« wohl sogar etwa 20 Prozent größer. Man kann ruhig nach dem sonstigen Eindruck gehen: Der »Brockhaus Wahrig« hat das bessere Papier und Goldschnitt, ist aber auch doppelt so teuer. Der »Duden« ist etwas weniger umfassend, enthält aber als Belege nicht nur mehr oder minder gekünstelte Beispielsät65
ze, sondern echte Zitate aus der Gegenwartsliteratur. Der Hauptunterschied zwischen beiden ist ein ganz anderer und Geschmackssache: Der »Brockhaus Wahrig« macht jedes Wort zum Hauptstichwort, der »Duden« stopft die Ableitungen eines Worts in große »Nester«. Beide Verfahren haben etwas für sich. Ich selber finde eine starke »Vernestung« unübersichtlicher. Jenseits dieser Wörterbücher gibt es das Vokabular der Fach- und Sondersprachen. Ein Handwerk hat einen Spezialwortschatz von einigen tausend Wörtern. Nach ihren Spezialwörterbüchern zu schließen, hat eine größere Wissenschaft wie die Juristerei oder die Biologie zehn- bis zwanzigtausend, die Riesenwissenschaft Medizin mehr als eine Viertelmillion. Aber die Biologie hat auch für jede Art von Lebewesen mindestens ein Wort, und da es etwa sechs Millionen Spezies geben dürfte, hat sie zumindest potentiell auch ebenso viele Millionen Wörter. Ähnlich ist es um die Chemie bestellt. Ihr eigentliches Vokabular besteht zwar auch nur aus einigen zehntausend Wörtern, aber für jede chemische Verbindung gibt es mindestens ein Wort, und da die Zahl der bekannten organischen Verbindungen schon mindestens fünf Millionen beträgt und jeden Tag um etwa tausend wächst, zählt auch ihr Wortschatz nach Millionen. Schier uferlos vermehrt sich auch der Wortbestand der Technik allgemein. Jedes Schräubchen jedes Geräts hat seinen Namen, und zwar besser einen eindeutigen und unverwechselbaren. Das Bundessprachenamt hat im Laufe der Jahre 1,3 Millionen vorwiegend technische Fachtermini (und zum Teil ihre Entsprechungen in anderen eu66
ropäischen Sprachen) gesammelt, die Datenbank LEXIS, die zur Zeit auf Microfiche, später einmal auf CD-ROM jedem Interessenten zur Verfügung steht. Größer noch ist die technische Terminologiebank TEAM der Firma Siemens – sie enthält nahezu drei Millionen Termini mit Belegen in bis zu acht Sprachen. Christian Galinski vom Österreichischen Normungsinstitut, das seit 1971 in Wien ein von der Unesco unterstütztes Terminologiezentrum (INFOTERM) unterhält, schätzte den Gesamtbestand deutscher Allgemeinwörter in allen Fachund Sondersprachen 1986 auf über 30 Millionen – und glaubt im übrigen festgestellt zu haben, daß er sich exponentiell vermehrt wie das Wissen selbst und somit alle vier Jahre verdoppelt. 1990 müßte es demnach bereits 60 Millionen deutsche Wörter gegeben haben. Auch wenn diese Schätzung bei weitem zu hoch gegriffen sein dürfte: Es handelt sich auf jeden Fall um eine Menge, gegen die sich der allgemeine Wortschatz oder gar der Wortschatz, den ein einzelner im Kopf haben kann, wie eine quantite negligeable ausnimmt. Diese Millionen von Wörtern werden aus einer Handvoll von Bausteinen gebildet. Die kleinste bedeutungstragende Einheit eines Wortes heißt Morphem. Es gibt zwei Klassen von Morphemen: die eigentlichen »Sinnsilben«, die den Begriffsinhalt tragen, Basismorpheme genannt (/sinn/, /silb/); und die Wortbildungsmorpheme – Suffi xe wie /heit/ oder /ung/ oder /lkh/, die Wortklassen charakterisieren, sowie die Beugungsendungen, die Flexionsmorpheme. Flexionsmorpheme (/est/, /en/) gibt es im Deutschen genau sechzehn; die Zahl der Wort67
bildungsmorpheme beträgt einige Dutzend. Und Basismorpheme? Niemand scheint sie bisher gezählt zu haben. Jedenfalls schätzt man ihre Zahl auf nicht mehr als fünftausend. (Dazu kommen dann allerdings noch die Morpheme der Lehn- und Fremdwörter.) Gunter Neubert hat sämtliche Morpheme katalogisiert, aus denen sich der technische Wortschatz des Deutschen zusammensetzt. Es sind nicht mehr als viertausend. Bei der immer schneller wachsenden Menge der technischen Dinge, die benannt werden müssen, ist es kein Wunder, daß die Bausteine knapp werden. Auch der allgemeine Wortschatz läßt sich auf keine Zahl festnageln. Es herrscht ein ständiges Kommen und Gehen: Aus den Fachsprachen und Argots sickern täglich Wörter ein, neue Phänomene wie der Flachbildschirm, der Wobblegenerator oder das Restrisiko wollen benannt sein, Medien und Werbebranche überbieten sich im Erfinden neuer Wörter, deren Hauptzweck es ist, zu imponieren, Aufmerksamkeit zu heischen. Bei vielen (Scheidungskind, Konjunkturhimmel, Spaghettiplausch) weiß man gar nicht, ob es sie sozusagen offiziell eigentlich gibt – jedenfalls aber könnte es sie jederzeit geben. Und manche Ad-hocPrägung (Kopfgeldjäger, Busengrabscher) wird einmal irgendwo benutzt und dann möglicherweise nie wieder – ex und hopp. Kein Wörterbuch kann da mithalten, kein Sprachstatistiker mitzählen. Aber auch wenn die Grenze fließend ist: die beiden großen Wörterbücher sind ihr jedenfalls nahe. Wer suchte, fände noch etliche mehr; wer besessen suchte, fände vermutlich noch einige Zehntausend mehr. Hunderttau68
sende von weiteren »allgemeinen« Wörtern von einigem Bestand aber gibt es sicher nicht. Der allgemeine englische Wortschatz wird auf 700 000 Wörter geschätzt. Das größte englische Wörterbuch, der »Webster«, hat 460 000. Warum ist der englische Wortschatz so viel größer als der der anderen Kultursprachen? Meist wird es damit erklärt, daß Englisch eben eine Legierung aus drei Sprachen sei (Angelsächsisch, Normannisch und Latein) und vieles doppelt und dreifach benenne. Ein Lamm etwa ist das germanische lamb, sein Fleisch das romanische mutton; calf das Kalb, veal sein Fleisch. Aber das kann nicht der ganze Grund sein. Deutsch hat die eigentümliche und von Ausländern gern verspottete Möglichkeit, unbegrenzt viele zusammengesetzte Wörter zu bilden, und es macht davon reichlichst Gebrauch. Die Zahl dieser Komposita läßt die der englischen Doppelungen weit hinter sich. Es muß sich wohl so verhalten, daß das Englische in erheblichem Umfang Wörter bewahrt und neu gebildet hat, wo sich das Deutsche darauf verlassen konnte, daß sich bei Bedarf jederzeit neue Begriffe durch Kombinationen bestehender Wörter bilden ließen. Die Wörter sind selbstverständlich nicht gleich häufig. Ein Wortschatz ist wie ein Himmelskörper: Er hat einen dichten Kern aus den häufigsten Wörtern, und um den herum schichten sich immer und immer seltenere, bis man in jene Stratosphäre gelangt, wo ein Wort wie Sexpapst oder Muskelmonster kurz aufleuchtet und wieder verglüht, sobald die Illustrierte, auf deren Titelseite es Käufer anmachen soll, makuliert ist. Als bei der Firma Siemens das maschinelle Überset69
zungsprogramm METAL entwickelt wurde, analysierte man auch, welche »allgemeinen« deutschen Wörter all den Fachtexten gemein sind, die es übersetzen soll und die jeweils ihre eigene Terminologie mitbringen, sozusagen also den Grundwortschatz der Fachliteratur. Schon der war relativ groß: 35 000. Ein anderer Wortfrequenzforscher, der amerikanische Linguist J. Alan Pfeffer, hat in Hunderten von Interviews mit Nachkriegsdeutschen versucht, so etwas wie den Grundwortschatz des gesprochenen Deutsch zu ermitteln, das absolute Minimum also, das nötig wäre, um in Deutschland mündlich .zu bestehen. Er kam darauf, daß bloße 1300 Wörter 90 Prozent jedes »einfachen Alltagsgesprächs« ausmachen. Die Hoffnung, durch Frequenzuntersuchungen zu einem hieb- und stichfesten Grundwortschatz kommen zu können, der für alle Sprachsituationen gilt, haben die Linguisten inzwischen allerdings aufgegeben. Von den wenigen hundert der gebräuchlichsten Funktionswörter abgesehen, hängt es zu sehr von der Art der zugrunde gelegten Texte ab, welche Wörter die häufigsten sind. Anders gesagt: In jeder Lebenssituation sind andere Wörter die häufigsten. Aber wenn man die normalsten Alltagssituationen zusammennimmt, Wohnen, Essen, Verkehr, Gesundheit und so fort, kommt man in allen Sprachen auf die geradezu magische Zahl 2000. So groß sind denn auch die »Grundwortschätze«, die man kaufen kann und denen heute begegnet, wer auszieht, eine Fremdsprache zu lernen. Es sind die Minimalwortschätze für den Lebensalltag. Darunter geht nichts. 70
Darunter geht nur Basic English. Es ist nicht einfach irgendein Schrumpf-Englisch. Es ist eine ausgeklügelte Minimalsprache, 1930 ersonnen von dem Cambridger Linguisten C. K. Ogden, wie Volapük oder Esperanto als Welthilfssprache gedacht und als solche von Männern wie Churchill, Roosevelt und H. G. Wells lebhaft begrüßt und befürwortet. Anders als die sonstigen Kunstsprachen – und das ist durchaus ein Vorzug – beruht es auf einer tatsächlich existierenden Sprache oder setzt sich zumindest nirgends in Widerspruch zu ihr. (Der Hauptnachteil der anderen Hilfssprachen besteht eben darin, daß sie neue, zusätzliche Sprachen sind. Sie konkurrieren mit bestehenden natürlichen Sprachen, und diesen Wettbewerb können sie nur verlieren. Das Fassungsvermögen des menschlichen Geistes ist beschränkt, und vor der Wahl, eine neue Sprache zu erlernen, wird sich die große Mehrheit allemal für eine entscheiden, die tatsächlich irgendwo gesprochen wird, die einem in wie begrenztem Maß auch immer eine neue Kultur erschließt, und nicht für ein Kunstding, das nur von seinen glühenden Anhängern beherrscht wird. Der Eintritt in eine Sekte ist weniger verlockend als der Eintritt in eine Kultur.) Basic English also – es dampft das normale Englisch nur radikal ein: auf 850 Wörter, davon 600 Substantive, und dazu 100 Wörter für die allgemeine Wissenschaft und 50 für jedes einzelne Fach; und dazu auf eine stark vereinfachte englische Syntax. Einigte sich ein internationaler Fachkongreß auf Basic English, wäre er also mit 1000 Wörtern zu bestreiten. Was ist der Trick? Daß die meisten Begriffe sich in einfacheren Begriffen ausdrük71
ken lassen. Dem Ausländer, der das Wort beeilen nicht versteht, hilft man spontan mit schnell machen aus. Aber um Wörter wie schnell und machen zu definieren, müßte man viele kompliziertere Begriffe aufbieten. Basic English ist eben diese Grundschicht von Begriffen, die sich nicht mehr mit einfacheren Worten definieren lassen. Daß es trotzdem nicht ohne gewisse Würde der Armut ist, demonstriert seine Bibel-Fassung, für die es auch nur 100 zusätzliche Wörter benötigt: »At the first God made the heaven and the earth. And the earth was waste and without form; and it was dark on the face of the deep: and the Spirit of God was moving on the face of the waters … « Der Trick aber kann nur im Englischen funktionieren. Englische Wörter haben eine nahezu unveränderliche Gestalt: Auf jedes Lexem (also jedes Wort in seiner Grundform, wie es in konventionellen Wörterbüchern verzeichnet steht) entfallen im Durchschnitt nur etwa zwei Flexeme; deutsche haben viele Deklinations- und Konjugationsformen, im Durchschnitt 5,7 Flexeme pro Lexem, und auch bei der Bildung von Komposita ist das Deutsche viel weniger zurückhaltend. Ein ähnlich knappes Grunddeutsch kann es darum nicht geben. Die Schwierigkeit bei der Erstellung eines Grundwortschatzes wird einem schlagartig klar, wenn man einen Blick in eine Konkordanz wirft, also eine Liste, die sämtliche Wörter eines bestimmten Werks aufführt, entweder alphabetisch oder nach ihrer Häufigkeit und meist erstens alphabetisch (mit den entsprechenden Textverweisen) und zweitens in Form einer Frequenzliste. Solche Konkordanzen werden seit dem letzten Jahrhundert er72
arbeitet; früher mußte das zugrundeliegende Textkorpus mühsam »von Hand« durchsucht und verzettelt werden; heute nimmt der Computer den Linguisten den gröbsten Teil der Arbeit ab. Am Anfang jeder dieser Frequenzlisten stehen wenige Wörter, die sehr häufig sind. Anschließend finden sich immer mehr Wörter von schnell und stark abnehmender Häufigkeit. Und dann kommt der Hauptteil: Seiten über Seiten mit Wörtern, die nur dreimal vorkommen, noch mehr Seiten mit solchen, die sich nur zweimal finden, und die meisten Seiten schließlich voller Wörter, die es in dem Korpus nur ein einziges Mal gibt. Das aber heißt nichts anderes, als daß statistische Frequenzaussagen über das Gros des Wortschatzes schlechthin unmöglich sind. Man kann sich dieses Dilemma noch auf andere Weise verdeutlichen – nämlich indem man sich fragt, wie wahrscheinlich es ist, einem bestimmten Wort in einem bestimmten Text zu begegnen. Es ist keine rein akademische Perspektive. Jedes Wörterbuch ist sozusagen eine Wette, eine Wahrscheinlichkeitsprognose. Keines nämlich kann auch nur im entferntesten daran denken, sämtliche Wörter zu enthalten – immer gibt es noch mehr. Setzte sich jemand in den Kopf, Wörter zu sammeln wie andere Briefmarken, er käme selbst auf dem bescheidensten und genauest umrissenen Spezialgebiet nie an ein Ende; natürliche Sprachen sind proteisch und unerschöpflich. Jedes Wörterbuch muß eine Auswahl treffen; und es wird jene auszuwählen versuchen, bei denen die Wahrscheinlichkeit am größten ist, daß sein potentieller Benutzerkreis nach ihnen sucht. 73
Es ist darum ein zwar unanfechtbarer, aber doch dummer, weil ahnungsloser Test, ein paar Wörter zu nehmen und dann zu prüfen, ob sie in einem bestimmten Wörterbuch, egal ob konventionell oder elektronisch, enthalten sind. Nichts ist leichter, als jedes denkbare Wörterbuch dieser oder jener Lücke zu überführen. Sinnvoll wird diese Art von Test nur, wenn er gleichzeitig berücksichtigt, mit ungefähr welcher Wahrscheinlichkeit ein Wort in der besonderen Zielgruppe auftaucht, an die sich das betreffende Wörterbuch wendet. Ein Taschenwörterbuch für den Schüler und Touristen wäre nur dann schlecht zu nennen, wenn es bei Wörtern wie Deutschunterricht oder Fahrkartenschalter Lücken in größerer Zahl aufwiese. Hat eine Computerzeitschrift an den elektronischen Lexika von Textprogrammen aber auszusetzen, daß sie Wörter wie Monitordarstellung oder Endnotenverwaltung nicht kennen, so sagt das gar nichts über deren wirkliche Qualität oder Nichtqualität: Komposita dieses Seltenheitsgrades wären allenfalls in den vollständigsten und speziellsten Fachwörterbüchern zu erwarten – und selbst die größten elektronischen Wörterbücher entsprechen in ihrem Umfang, aus Gründen des begrenzten Speicherplatzes, immer noch eher einem konventionellen Taschenlexikon. Die Wahrscheinlichkeit, in einem beliebigen Text in den ersten drei Zeilen auf das oder und oder ist zu stoßen, ist sehr groß – die Wette würde man sicher gewinnen; genauso klein ist aber die Chance, dort ein beliebiges Wort wie Reinkultur vorzufinden. Daß nicht unbedingt schon in den ersten drei Zeilen, aber auf der ersten 74
Seite irgendeine Form von gehen oder setzen vorkommt, ist ebenfalls wahrscheinlich. Auf den ersten zehn Seiten wird sich wahrscheinlich ein groß oder sagen finden. Egal welches Buch man sich aus den Regalen einer Bibliothek holte: irgendwo auf seinen Seiten werden die meisten der rund 4000 Wörter des Grundwortschatzes stehen. Ebenso wahrscheinlich ist es, Fachwörter und überhaupt erkennbar seltene Wörter darin nicht zu finden. Auf der Suche nach einem Wort wie Methysergidhydrogenmaleat könnte man ganze Bibliotheken durchwühlen; enthielten sie keine pharmakologischen Fachbücher, so wäre die Suche vergeblich. Dazwischen aber – zwischen den ostentativ seltenen, die auf jeden Fall nur in höchst speziellen Texten zu erwarten sind, und den relativ wenig häufigen Wörtern – gibt es eine riesige Zone von Wörtern etwa gleicher Wahrscheinlichkeit oder besser Unwahrscheinlichkeit, die völlig geläufig scheinen und jederzeit auftauchen könnten, deren Vorkommen in einem bestimmten Text, und sei es dem dicksten aller Bücher, sich aber unmöglich prognostizieren läßt. Feinstruktur, abgefeimt, entzweischlagen, Wundermittel, anzetteln, sonderlich, Wörtchen – solche Wörter haben nichts Rares, stehen jedermann jederzeit zur Verfügung und könnten in fast jedem Zusammenhang benutzt werden, aber wer darauf wettete, ihnen irgendwo tatsächlich zu begegnen, hätte keine größeren Chancen als beim Fußballtoto. Ein Wörterbuch, das ihr Vorkommen zu antizipieren suchte, müßte dann gleich sehr groß sein, nämlich Hunderttausende von Lexemen enthalten, das Gros des Wortschatzes. Jenseits des Grundwortschatzes läßt sich 75
die Zahl nur dann einengen, wenn man von vornherein auf bestimmte Textsorten abzielt. Der ausländische Schüler zu Besuch in einer deutschen Familie wird ein ganz anderes Repertoire benötigen und gebrauchen als jemand, der einen Zeitungsartikel über die Kommunalwahlen nacherzählt. Da steht der allgemeine deutsche Wortschatz im Regal, zusammengetragen von emsigen und stillen Lexikographen. Aber wie viel davon ist unser eigen? Unser Wiedererkennensgedächtnis ist in allem um ein Mehrfaches größer als unser Reproduktionsgedächtnis. Wir verstehen mehr Wörter, als wir jemals selber gebrauchen. Wie viele wir verstehen, hat 1977 der Sprachwissenschaft ler Gerhard Augst annäherungsweise eruiert. Seine beiden Versuchspersonen verstanden etwa 88 Prozent der 107 000 Wörter des einbändigen »Wahrig«, der damals das größte westdeutsche Wörterbuch der Gegenwartssprache war. Es ist zu vermuten, daß sie von den über doppelt so vielen Wörtern des »Brockhaus Wahrig« einen nicht viel kleineren Prozentsatz verstünden. Denn wir verstehen ein Wort nicht nur, wenn wir es gelernt haben; es genügt, daß wir seine Morpheme – die bedeutungstragenden Grundeinheiten, also Wortstämme und Affi xe – und die Regeln der Wortbildung kennen. Auch wenn wir dem Renditejäger oder dem Mediengefühl nie begegnet sind und beides selber gewiß nie gebrauchen werden, wissen wir auf Anhieb, was das ist; und wen ein isolierter Schweinepriester vielleicht noch im unklaren läßt, dem hilft der Zusammenhang schnell auf die 76
Sprünge. Also darf man annehmen, daß ein einigermaßen sprachgewandter Deutscher einen passiven allgemeinen Wortschatz von einigen hunderttausend Wörtern hat, und dazu das jeweilige Fachvokabular seines Berufs. Wie viele davon »beherrscht« einer aber wirklich? Auch das ist schwer zu sagen, denn kein Linguist kann je aufzeichnen und auswerten, was ein einzelner Mensch oder gar ein repräsentativer Querschnitt seiner Zeitgenossen im Leben alles spricht und schreibt. Mancher aktive Wortschatz mag herzlich klein sein: Morgen – noch ne Tasse – also denn – gib mal – eine Bild – halt den Mund – mach schon – alles klar – was gibts in der Glotze – für mich n Bierchen – Null Ouvert – ein solches Leben läßt sich mit ein paar hundert Wörtern allemal bestreiten. Das Goethe-Institut und der Volkshochschulverband, die die allermeisten Erfahrungen mit »Deutsch als Fremdsprache« zu sammeln Gelegenheit hatten, haben die Faustregel entwickelt: Wer eine Fremdsprache lernt, muß mindestens 8000 Wörter verstehen und 2000 selber zu gebrauchen wissen, um sich im Alltag einigermaßen durchschlagen zu können. Je mehr einer spricht und schreibt, und über je mehr Gegenstände er spricht und schreibt, desto größer ist auch die Zahl der Wörter, die er gebraucht. Aber auch die umfangreichsten Schriftsteller-Wortschätze überstiegen, als man nachzählte, selten die 20 000. Man geht also wohl nicht ganz fehl, wenn man den aktiven Wortschatz eines Deutschen – die Zahl der Wörter, die ihm je über die Zunge und in die »Feder« kommen, auf 2000 bis 20 000 schätzt. Der eines durchschnittlich Beredten liegt vermutlich in der Nähe der Mitte, bei 10 000. 77
Das aber ist nur jener Teil des Aktivwortschatzes, der manifest wird. Damit einem im richtigen Augenblick das richtige Wort einfällt, müssen jedoch wesentlich mehr Wörter zu Gebote stehen. Dieser latente aktive Wortschatz ist am schwersten zu fassen. Mit Sicherheit ist er sehr viel größer als der manifeste aktive und wahrscheinlich etwas kleiner als der passive – und liegt im übrigen völlig im Dunkeln. Der Zufall will es, daß ich dazu eine Art Selbstversuch gemacht habe. Sein Ergebnis konnte ich nicht voraussehen und habe ich so auf keinen Fall erwartet. Ich habe Wörter gesammelt. Ich habe (eine nette Beschäftigung in Migränestunden, wenn man nichts Gescheiteres anfangen kann) Wörterlisten für die elektronische Rechtschreibkontrolle des Textprogramms zusammengestellt, mit dem ich damals arbeitete. Wie sie geliefert wurde, enthielt das Lexikon bloße 32 000 Wortformen (gedruckt hätten sie ein dünnes Heftchen ergeben); es fehlten selbst Funktionswörter wie alleine, beinah, derer, hinunter und die allermeisten Beugungsformen, selbst haben und sein waren nicht vollständig vertreten; dafür gab es Auerhahn und Tomatensoße und viele hübsche Fehler wie Bundstift, Talismann, Kaputze oder das geradezu joycesche Horroskop – kurz, es war ein beredtes Zeugnis für die Ahnungslosigkeit, mit der sich manche Computerfirmen auf das Glatteis der Sprache wagen, und natürlich völlig unbrauchbar, denn bei spätestens jedem zweiten durchaus richtig geschriebenen Wort fuhr es einem mit der Bemerkung »Tippfehler!« dazwischen. Dieses Unding habe ich nach und nach auf 214 000 Wortfor78
men gebracht, und ich habe dabei mit Grundwortschätzen und Funktionswortschätzen experimentiert. Dabei wurde einiges deutlich. Bloße drei Wörter machen etwa 10 Prozent jedes normalen Textes aus. Wir wissen es, seit F. W. Kaeding, auf der Suche nach der optimalen Stenographie, am Ende des vorigen Jahrhunderts nicht weniger als elf Millionen Wörter durchzählte. (Die Menge entsprach dem Inhalt von zweihundert Büchern, und er hatte noch keinen Computer.) Es sind die Wörter die, der und und. Bloße 66 Wörter decken die Hälfte jedes normalen Textes ab. Alle sind sie »Funktionswörter«: Pronomen, Artikel, Konjunktionen, Präpositionen, Hilfsverben, Interjektionen, Pronominalverbien (dabei, worüber) – Wörter also, die selber keine oder nur eine sehr blasse lexikalische Bedeutung haben, sondern klarstellen, in welchen Beziehungen die »Inhaltswörter« eines Satzes zueinander stehen. Darum kann man nicht sagen, daß diese 66 Wörter reichten, um 50 Prozent eines normalen Textes zu verstehen. Wer nur die abra ka, dabra: noch gar nichts: Wer nur die Funktionswörter kennte, verstünde noch gar nichts. Selbst wenn man veraltete oder ganz ausgefallene Exemplare mitzählt (fürbaß, fürwahr), hat die deutsche Sprache kaum mehr als 1000 Funktionswörter. Zu ihnen kommen Adverbien, die ebenfalls nur den Wert eines Funktionswortes haben, zum Beispiel Adverbien, die den Handlungsmodus angeben und in manchen Sprachen in das Verb selbst integriert sind (wieder, dauernd), Adverbien der Zeit (gestern, spät), Adverbien des Raums (vorne, näher) und Gradadverbien (sehr, ganz, aber dann auch gehörig, mächtig, ungeheuer, wahnsinnig und 79
dergleichen) sowie die von solchen Adverbien abgeleiteten Adjektive (abermalige, fortwährende, heutige). Auch wenn man den Begriff Funktionswort solchermaßen weit faßt, sind es alles in allem nur wenig mehr als 2000. Und diese 2000 Wörter kommen für 55 bis 65 Prozent jedes normalen Textes auf. Nimmt man dazu noch einige hundert (nicht zusammengesetzte) Grundverben (wie gehen, machen, sagen), die (zumeist einsilbigen) Grundadjektive (wie groß, neu, hoch) und die häufigsten Substantive (wie Mensch, Tag, Haus), so kommt man auf einen Bestand von etwa 4000 Wörtern, der 75 bis 80 Prozent eines normalen unspeziellen, also »leichten« Textes abdeckt. Mit bloßen 4000 Wörtern kommt man statistisch gesehen also schon recht weit; aber wer mit diesen 4000 wirklich auskommen müßte, wäre auf Schritt und Tritt frustriert. Dauernd könnte er nicht sagen, was er eigentlich sagen will. Seine Sprache wirkte überaus verarmt. Ein Lexikon von etwa 5000 Wörtern deckt an die 90 Prozent eines fachlich nur schwach spezifizierten, also »normalen« Textes ab. Etwa 50 000 Wörter aber sind dann schon nötig, um gut 95 Prozent eines solchen Textes zu erschließen. Wie bei einem Auto, in je höhere Geschwindigkeitsbereiche man gelangt, immer mehr PS aufgeboten werden müssen, um die Spitzengeschwindigkeit um einen bestimmten Betrag zu steigern, so werden immer größere Wörtermengen nötig, die letzten paar Prozent eines Textes zu antizipieren. Die obersten zwei Prozent sind derart unvorhersehbar, daß sämtliche Fachwörterbücher zusammen nötig wären, einen größeren Teil von ihnen aufzuführen – und all die aktuellen Neologismen, 80
die noch in keinem Wörterbuch stehen, sowie all die Adhoc-Prägungen fehlten dann immer noch. Erst als mein eigenes Computerlexikon über 45 000 Wörter zählte, begannen immer häufiger solche aufzutauchen, von denen ich wußte: Sie sind mir zwar geläufig, das heißt, ich habe sie gehört und gelesen und verstehe sie und stutze nicht im mindesten, wenn sie mir begegnen, aber benutzt habe ich sie bisher nicht, und vermutlich werde ich sie auch nie benutzen, nicht weil sie mir mißfielen, sondern weil ich im richtigen Augenblick nicht auf sie käme. Doch, man kann es oft mit ziemlicher Sicherheit unterscheiden. Ich kann erkennen, daß ich die Knautschzone oder den Katamaran schon einmal gebraucht habe oder doch jederzeit gebrauchen könnte, den Quereinsteiger oder das Wechselfieber aber nicht; letzteres darum nicht, weil ich bisher nicht wußte, was darunter genau zu verstehen ist, und mir darum keine Situation vorstellen kann, in der es mir als das gesuchte Wort erschiene – anders gesagt: weil der Begriff, den es benennt, gar nicht in meinem Besitz ist. Darum schätze ich nun meinen latenten Aktivwortschatz auf über 50 000. Und das ist viel mehr, als ich erwartet hätte. Wie viele ich jemals wirklich benutzt habe und je benutzen werde, weiß ich natürlich nicht. Es hängt vor allem davon ab, wieviel ich spreche und schreibe – und wie vielfältig die Gegenstände sind, über die ich spreche und schreibe. So hätten wir also dies in der Hand. Gesamtwortschatz: eine zweistellige Millionenzahl, nach oben offen. Allgemeiner Wortschatz: 250 000 Wörter in 500 000 lexika81
lischen Bedeutungen. Individueller Mindestwortschatz: 8000 passiv, 2000 aktiv. Ein sechsjähriges Kind, wissen wir aus der Untersuchung von Augst, versteht 27 000 und benutzt 5200, hat also über Jahre hin Tag für Tag 3 neue Wörter zu gebrauchen und 17 zu verstehen gelernt. Der individuelle Wortschatz eines gebildeten und sprachgeübten Erwachsenen beläuft sich auf einige hunderttausend bekannte Wörter. Er gebraucht 10 000 bis 15 000. Und wer 10 000 Wörter tatsächlich verwendet, gebietet latent über etwa die vier- bis fünffache Menge. So grotesk unzulänglich unser Vorstellungsvermögen für größere Zahlen auch ist, jedem dürfte immerhin klar sein, daß 50 000 eine ganze Menge sind. Wer eine ganz bestimmte Buchseite unter 50 000 suchte, hätte zweihundert durchschnittliche dicke Bücher zu durchsuchen, zehn Regalbretter. Das Gehirn bringt es fertig, innerhalb von Millisekunden das gesuchte Wort in seinem Speicher aufzustöbern und: die motorischen Programme zu seiner lautlichen und schrift lichen Wiedergabe zu aktivieren, und das ist eine sehr beachtliche Leistung. Wie ist sein »Lexikon« gespeichert? Natürlich nicht alphabetisch; es wäre keinem möglich, sämtliche Wörter eines Anfangsbuchstabens herzusagen, und wenn er sich noch soviel Zeit ließe. Nach der Länge ebensowenig; bäte man jemanden, alle ihm zu Gebote stehenden siebensilbigen Wörter zu nennen, so käme er wahrscheinlich erst einmal auf kein einziges. Auch nicht nach Morphemen; niemand fände all die durchaus in seinem aktiven Besitz befindlichen Wörter auf, die sagen wir mit bis- beginnen oder deren Hauptelement sagen wir -teil ist. Auch nach gram82
matischen Klassen ist das innere Lexikon gewiß nicht sortiert; niemand wäre imstande, aus seinem Gedächtnisspeicher alle Adjektive der Größe oder alle Adverbien auf -maßen hervorzuholen. Schon der Versuch, unser Gehirn auf diese Weise zu befragen, verwirrt uns, mutet uns geradezu widernatürlich an. Der Reiz von Kreuzworträtseln, Silbenrätseln oder Scrabble liegt eben darin, daß alle solchen Spiele uns abverlangen, unser Sprachgedächtnis auf eine uns eigentlich völlig gegen den Strich gehende Art und Weise abzusuchen: vorgegebene Elemente unterhalb der Wortebene (Buchstaben an festliegenden Positionen, Silben, bestimmte Buchstaben) zu Wörtern zusammenzusetzen. Wir wären dazu außerstande, kämen nicht die Rätselautoren – oder wir uns selber – mit einem weiteren Gesichtspunkt zu Hilfe: der Bedeutung. »Ein Wort mit sechs Buchstaben, zwei Silben mit den Vokalen Ä und E, Anfangsbuchstabe R … ?« Wir hätten Mühe, wir wären nie sicher, alle Wörter aufgetrieben zu haben, auf die diese Spezifikation zutrifft. Aber »Denksportaufgabe?« … und sofort wäre das Rätsel gelöst, und wir hätten es beleidigend einfach gefunden. Tatsächlich ordnet unser Geistorgan sein Lexikon nicht nach irgendwelchen äußeren Gestaltmerkmalen der Wörter, sondern in der Hauptsache nach ihren Bedeutungen, also semantisch. Der amerikanische Sprachwissenschaftler Paul A. Kolers konnte es 1968 mit einem einfachen und schlagenden Experiment beweisen. Gibt man Versuchspersonen längere Wörterlisten mit einzelnen unregelmäßigen Wiederholungen zu lesen (oder liest man sie ihnen vor), so können sie hinterher jene am besten wie83
dergeben, die am häufigsten vorkamen: je häufiger genannt, desto häufiger auch erinnert, und niemand hätte etwas anderes erwartet. Und nun Kolers’ Dreh: Er baute in seine Listen ebenfalls unregelmäßige Wiederholungen ein, aber mit einer Abwandlung – die Wörter, oder vielmehr nicht die Wörter, sondern die ihnen zugrundeliegenden Begriffe, wurden in verschiedenen, den Versuchspersonen geläufigen Sprachen wiederholt: das englische fold bald als fold, bald aber auch französisch als pli. Und siehe da, auch die Wiederholung eines Begriffs in verschiedenen Sprachen, also ganz und gar verschiedener Wörter, verstärkte die Erinnerung nicht weniger als die Wiederholung ein und desselben Wortes. Unser Geistorgan hat die Wörter den Bedeutungen assoziiert und findet sie von den Bedeutungen her. Ein zweites und weit weniger effizientes Ordnungsprinzip ist das lautliche. Welche Wörter klingen hinten wie -ende? Lende, Wände, Geisterhände … (man sieht, die Schreibung ist bei dieser Art der Suche gleichgültig.) Die Fähigkeit, homophone Wörter oder Wortbestandteile zu finden, ist bei den Menschen verschieden ausgebildet; sie läßt sich trainieren. Darin wiederum besteht der Reiz des Wortspiels und des Reimes, besonders des seltenen Reimes: daß beide uns eine Art von Umgang mit dem inneren Wortbestand vorfuhren, die uns selber schwerfiele oder ganz unmöglich wäre. (»Darauf muß man erst mal kommen!«) Daraus ergibt sich nebenbei, daß Arno Schmidts sogenannte Etym-Theorie auf einer unrichtigen Voraussetzung aufbaut: »… daß der Fonetismus einer Silbe auto84
matisch die ›Nebenbilder‹ aller ähnlich klingenden hervorruft.« Nichts »automatisch«, nichts »alle«; der Witz der Kalauer, die Schmidt hier im Auge hat, besteht eben darin, daß sie nicht ständig jedem, und zwar von ganz allein einfallen. »Im ›Wortzentrum‹ des Gehirns«, schreibt Schmidt, »[sind] die Bilder & ihre Namen (& auch das daranhängende Begriffsmaterial der ›Reinen Vernunft‹) viel weniger nach sachlichen, sondern ballen- oder kolliweise nach fonetischen Kriterien gelagert.« Das eben sind sie nicht. Das ausschlaggebende Ordnungsprinzip ist nicht phonetischer, sondern semantischer Art. Es sind die Assoziationsnetze, in die unser Gehirn die Begriffe verwebt. Ein Wort, das nicht auf diese Weise semantisch verwoben wäre, fiele uns wahrscheinlich nie wieder ein, und wenn man es uns fast bis auf den letzten Laut oder Buchstaben vorlegte. »Ergänze Kan . . ei!« Es wird uns gelingen, aber erst nach einigem Suchen. »Synonym für Büro!« Sofort ist es da. Wer hat die meisten Wörter? Doch sicher jene, die von Berufs wegen die Wörter lieben und in ihnen zu Hause sind und schöpferisch mit ihnen umgehen: die Dichter. Eine der elementaren Qualitäten jeder besseren Literatur besteht darin, daß sie die Sprache dem Denken ungewöhnlich differenziert und geschmeidig anpaßt. Das eben ist ja die Kunst. Nabokov studierte Wörterbücher, auf der Suche nach seltenen, treffenderen Wort-Exemplaren. In dem – von Wilfried Böhringer wunderschön ins Deutsche übersetzten – Roman »Drei traurige Tiger« von Guillermo Cabrera Infante verspottet der Autor 85
seinen kubanischen Landsmann Alejo Carpentier und vor allem dessen Manie, auch noch das letzte Detail bei seinem genauen Namen zu nennen. Doch selbst durch die Parodie hindurch merkt der Leser, daß diese Poesie der Genauigkeit, des richtigen Wortes »etwas hat«: »… da wußte er, daß er auf dem richtigen Weg war, daß er sich nicht getäuscht hatte, denn hier waren die erwarteten purpurnen Astragale, die porphyrnen Architrave und die in Chartreuse und Magenta kannelierten Apophygen …« Aber auch vom Wortschatz der Dichter macht man sich leicht falsche Vorstellungen. Heute hätte man zumindest Anhaltspunkte. Seit der Computer in die Philologie Einzug hielt, sind viele neue Konkordanzen erschienen. Sie dienen dem Literaturwissenschaft ler dazu, einzelne Begriffe quer durch ein ganzes Werk zu verfolgen. Zwar ist kaum einem dieser meist so umfänglichen wie unansehnlichen Wälzer der wirkliche Umfang eines Wortschatzes zu entnehmen. Die eine schneidet die häufigsten Wörter ab, die andere die, welche nur ein einziges Mal vorkommen (und das sind regelmäßig über die Hälfte). Vor allem bleiben sie die »Lexematisierung« schuldig. Normale Wörterbücher vereinen alle Formen, in denen ein Wort vorkommen kann, zu einem Lexem. Der Computer behandelt einfach alles, was zwischen zwei Lücken steht, als selbständiges Wort. Das Hilfsverb sein ist also unter bin, gewesen, wärest und so weiter zu suchen. Um auf den Umfang eines Wortschatzes zu schließen, muß man darum in den Konkordanzen herumrechnen. Franz Kafkas »Prozeß« ist aus 6500 Wörtern gemacht, Her86
man Melvilles »Moby Dick« aus 16 000. Storms Wortschatz liegt bei 22 000. Mit ihren 25 000 Wörtern wirkt schon Shakespeares Sprache unglaublich reich. Aber das in Entstehung begriffene »Goethe Wörterbuch« soll auf etwa 80 000 Lexeme hinauslaufen. Joyces Wortschatz, liest man, habe gar eine Viertelmillion Wörter umfaßt. Es kann nicht sein. Zwar ist der Wortschatz seines »Ulysses« größer als der des ganzen Shakespeare: 32 000. Aber selbst alle die Neuprägungen von »Finnegans Wake« – die ja eigentlich überblendete oder verschriebene normale Wörter sind – übersteigen kaum die 50 000 – so daß sein gesamter Wortschatz sicher unter 100 000 liegt. Aber das mag sehr wohl der größte aktive Wortschatz sein, den je ein Irdischer sein eigen nannte. Und wohlgemerkt, alle diese Zahlen geben an, wie viele Wörter in einem Werk vorkommen, spiegeln also nur den tatsächlich verwendeten Teil des zu Gebote stehenden aktiven Wortschatzes, der in jedem Fall um ein Vielfaches größer sein muß. Je größer ein Textkorpus, je mehr einer schreibt und sagt, und über je mehr Themen er redet, um so größer wird auch die Zahl der von ihm benutzten Wörter sein. Ein vielseitiger Journalist könnte darum leicht einen größeren manifest aktiven Wortschatz haben als ein wählerischer Dichter, auch wenn der jedem auf den ersten Blick viel ausdrucksmächtiger wirkt. Daß Lyriker insgesamt weniger schreiben, macht auch ihren aktiven Wortschatz wesentlich kleiner. Der Wortschatz aller Gedichte Rainer Maria Rilkes war nicht viel größer als 5000. (Seine häufigsten Inhaltswörter waren: Leben, Nacht, weiß, Welt, Gott, leise …) Gottfried Benns 87
ganze Lyrik bestreiten nicht mehr als 2700 Wörter. (Seine Favoriten waren Nacht, Meer, Blut, Stunde, Welt …) Hesses Lyrik-Wortschatz ist zwar wesentlich größer: etwa 15 000. Bei näherer Betrachtung sieht man aber auch warum. Seine Gedichte strotzen von selbstgemachten Wörtern wie Blumenblässe, liebeswund, segenschwer, Sternenspiegel … Genau darum wirken wohl viele von ihnen heute so talmihaft. Da schwant uns nämlich etwas. Die schiere Menge macht es nicht. Benns geradezu lachhaft kleiner LyrikWortschatz mutet in seiner Spannweite vom Ordinären zum Kostbaren, von Suff und Kleister zu stygisch und Levkoienwelle ganz besonders groß an. Ein kleiner Wortschatz zwar wird auch nur eine dürftige Ausdrucksfähigkeit ergeben. Aber ein großer Wortschatz ist noch nicht ausreichend für eine große Ausdrucksfähigkeit. Es kommt nicht darauf an, aus den endlosen ungelüfteten Gedächtnisspeichern und seinen Ad-hoc-Wörterfabriken alles, aber auch alles hervorzuholen. Es kommt vielmehr auf die Gedanken an, die nach Wörtern verlangen. Und es kommt darauf an, im richtigen Moment die richtigen hervorholen zu können.
BLOS TIPPPFEHLER Der Computer als Orthographie-Experte
Am Bildschirm übersieht man Fehler leichter als auf dem Papier. Besonders häufig geschieht es, daß man beim Korrigieren und Wiederkorrigieren, das oft Umstellungen mit sich bringt, auf dem Bildschirm Wörter zu löschen vergißt, die bei der Neuformulierung überflüssig geworden sind. Sie sind richtig geschrieben, ursprünglich war nichts gegen sie zu sagen, jetzt aber stehen sie am falschen Platz – und werden am Bildschirm gern übersehen. Warum man sie übersieht, ist gar nicht klar. Es könnte sein, daß man am Bildschirm eher wortweise liest als in größeren Wortgruppen, so daß man sich an überflüssigen Wörtern nicht so stört, solange sie nur richtig geschrieben sind und zum Sinn des Satzes passen. Es könnte aber im Gegenteil auch sein, daß man eher vom Gesamtsinn eines Satzes ausgeht – besonders dann, wenn man diesen noch im Kopf hat – und wegen der größeren Mühe, die das Bildschirmlesen macht, seltener überprüft, ob der von der Stellung der einzelnen Wörter auch gedeckt wird. Schließlich könnte es sein, daß man am Bildschirm einfach »ungefährer« liest: Das Lesen ist mühsamer, also analysiert das Auge nicht sämtliche Schriftzeichen vollständig, sondern begnügt sich mit ein paar wichtigen Unterscheidungsmerkmalen und nimmt es mit dem Rest nicht so genau. Häufig passiert es auch, daß Buchstaben fälschlich verdoppelt oder verdreifacht werden – die Computertasta91
tur ist empfindlich, auch ist ihr »Auto-Repeat« vielleicht zu schnell eingestellt, und dann schreibt der Computer ein Zeichen mehrfach, wenn man seine Taste ein wenig zu lange drückt. Solche Fehler unterlaufen leichter als beim Maschineschreiben, und oft übersieht man sie am Bildschirm. Egal in welchem Medium man schreibt: Die deutsche Orthographie hat Tücken, die niemand ganz und gar meistert. Also wäre es gut, wenn der Computer einem dabei hülfe, falsche Schreibungen zu vermeiden. Tatsächlich gibt es solche Hilfen. Sie heißen Spellingchecker. Ein Spellingchecker ist ein PC-Programm, meist in Form einer Zugabe zu den ehrgeizigeren Textprogrammen. Sein Zweck ist es, einen auf Tippfehler aufmerksam zu machen – sozusagen ein eingebauter Rechtschreib»Duden«. Das Prinzip ist einfach: Die Maschine sucht jedes geschriebene Wort in einem eigenen Lexikon, und wenn sie es dort nicht findet, gibt sie eine Fehlermeldung. Je weniger Wörter das Lexikon enthält, desto öfter werden auch richtig geschriebene Wörter als fehlerhaft gemeldet, und wenn das zu oft geschieht, wird man das Ding lieber abschalten. Die Qualität eines Spellingcheckers hängt also immer wesentlich von der Qualität seines Lexikons ab. Und daß einige wie ein schlechter Witz anmuten, muß daher rühren, daß manchen Software-Entwicklern nicht klar ist und auch nicht klarzumachen ist: Auch etwas so Unscheinbares wie ein Lexikon hat sehr wohl eine Qualität. Es gibt zwei Sorten von Spellingcheckern. Die eine sucht 92
nach ganzen Wörtern: Sie betrachtet alles, was zwischen zwei Spatien (blanks) steht, als eine zu prüfende Einheit und sieht im Lexikon nach, ob der nämliche »String«, die nämliche Zeichenfolge dort vorhanden ist. Ist sie es nicht, gibt der Spellingchecker Alarm – und der kann bedeuten, daß das betreffende Wort tatsächlich falsch geschrieben wurde, aber auch nur, daß es dem Lexikon unbekannt ist. Über die Wortebene denkt eine solche Rechtschreibprüfung natürlich nie hinaus: Die Satzphrase eine großes fehl würde sie nicht beanstanden, denn alle drei Wörter gibt es. Im Unterschied zu den konventionellen Wörterbüchern auf dem Regal kommt ein solcher Spellingchekker also nicht mit den Lexemen, den Grundformen der Wörter aus; jede Konjugations- oder Deklinations- oder Steigerungsform, jede adverbiale oder adjektivische Ableitung, jede zusammengesetzte Form ist für ihn ein eigenes »Wort«. Die meisten deutschen Wörter treten in mehreren Beugungsformen (»Flexemen«) auf; manche unschuldig wirkenden zusammengesetzten Verben (einschließen) haben deren bis zu neunundvierzig. Das Lexikon muß also sozusagen ein Flexikon sein. Nach den Beobachtungen einer mit dem maschinellen Übersetzungssystem METAL befaßten Forschungsgruppe der Firma Siemens, die unter anderem auch ein Grundformenlexikon zu einem Vollformenlexikon ausgebaut hat, ist das Verhältnis von Lexemen zu Flexemen in der deutschen Sprache 1 zu 5,7. Das Englische, eine weitaus flexionsärmere, »analytischere« Sprache als das noch relativ »synthetische« Deutsche, hat längst nicht so viele Flexeme und Komposita. Das »noch« ist sprachhi93
storisch zu verstehen. Der Sprachbau der indoeuropäischen Sprachen war ursprünglich synthetisch, das heißt: Sie hatten die Tendenz, syntaktische Beziehungen durch Veränderungen des Wortstamms zu kennzeichnen. Die Metamorphose hin zum analytischen Sprachbau, bei dem die syntaktischen Beziehungen durch separate Funktionswörter klargestellt werden, haben sie in verschiedenem Maß vollzogen, das Englische stärker als das Deutsche. Hier liegt das Verhältnis von Lexemen zu Flexemen bei 1 zu 1,9. Deutsche Vollformenlexika müssen darum von vornherein dreimal so groß sein wie englische. Außerdem schreibt das Englische die meisten zusammengesetzten Begriffe als getrennte Wörter (news magazine, ivy league), während sie im Deutschen zusammengeschrieben werden (Nachrichtenmagazin, Oberliga). Aus beiden Gründen können englische Spellingchecker dieser Art wesentlich kleiner sein: Wo er Alltagstexte zu prüfen hat, arbeitet ein englischer Spellingchecker schon mit 50 000 Wortformen ganz vortrefflich; um ihm in der Leistung gleichzukommen, braucht ein deutscher erfahrungsgemäß über 200 000. Und da viele der verbreitetsten Textprogramme aus dem englischsprachigen Raum kommen, sind sie schon von ihrer Konzeption her nicht auf derartig große Wörterbücher angelegt. Den leidigen Unterschied zwischen »Wörter« und »Wortformen« ignorieren die Soft warehäuser bei ihren Größenangaben im übrigen gern. Sie sprechen von »Wörtern«, wo sie Wortformen oder Einträge meinen, so daß ihre Lexika regelmäßig größer wirken, als sie tatsächlich sind. »200 000 Wörter« klingt eindrucksvoll, auf dem 94
Rechtschreib-»Duden« steht es auch; aber wenn sämtliche Flexeme aufgenommen wurden, verbergen sich dahinter bloße 3 5 000 Lexeme – und das ist kaum halb soviel, wie ein kleines konventionelles Taschenwörterbuch enthält. Die tonangebenden, die verbreitetsten Textprogramme haben noch wesentlich weniger: MS-Word 5.0 bloße 130 000, nicht Wörter, sondern Wortformen, WordPerfect 5.0 111 000, Wordstar 5.5 gar nur 100 000 – ein derartig dünnes Papierwörterbuch wäre nur zum Lachen. Die 290 000 Wortformen von Euroscript à la carte, beigesteuert von einer amerikanischen Spezialfirma für elektronische Sprachverarbeitung, Microlytics, wären nicht übel, wenn die Angabe zuträfe. Doch selbst echte 290 000 Wortformen machten ein Lexikon noch lange nicht »riesig«, wie es die Werbung kühn behauptet, sondern entsprächen nur 51 000 Lexemen. Andererseits führten die 200 000 Lexeme des Rechtschreib-»Duden« zu einem Vollformenlexikon von über 1,1 Millionen Einträgen, das noch niemand geschrieben hat und das derzeit auch auf dem größten PC nicht zu »implementieren« wäre. Sogar der Riese unter den deutschen Spellingcheckern mit Vollformlexikon, das Orthographieprogramm Carlos, ist mit seinen 500 000 Wortformen neben den großen konventionellen Wörterbüchern nur ein Zwerg. Und gerade weil alle Spellingchecker bisher ein so relativ schmales Wörterbuch haben, käme alles darauf an, daß dieses nicht irgendwie zusammengestoppelt wird, sondern die richtigen Wörter enthält – nämlich jene, die in der Praxis wahrscheinlich am häufigsten auftreten. Das heißt, in sie sollten sprachstatistische Erfahrungen eingehen. 95
Der Spellingchecker der anderen Art – ein Beispiel wäre das Programm Primus – arbeitet »regelgeleitet«: Er enthält nur Morpheme, also Wortstämme und Affixe (Vor- und Nachsilben), dazu dann aber die morphologischen Regeln für ihre Beugung und Verbindung, die angeben, zu welchen Wortformen und Komposita sie sich verändern lassen. Deutsche Morpheme gibt es nur etwa 5000 – aus nicht mehr Elementen sind die Hunderttausende, die Millionen deutscher Wörter zusammengesetzt. Diese Art von Lexikon kann also sehr viel kleiner sein. Einen geringeren Speicherbedarf hat sie dennoch nicht, denn die Flexions- und Zusammensetzungsregeln und dazu die vielen Ausnahmen, für die sie nicht zutreffen, brauchen Platz. Ihr Vorteil liegt darin, daß sie Komposita antizipiert, an denen das Deutsche so überreich ist (Vertragsstrafe, Ersatzgehirn), selbst solche, die noch nie vorgekommen sind, aber jederzeit von jemandem gebildet werden könnten. Beide Arten stoßen auf dem Weg zu ihrer Perfektionierung auf inhärente Schwierigkeiten. Je mehr Formen das Vollformenlexikon enthält, desto mehr Zeichenstrings erlaubt es, und je mehr es erlaubt, desto öfter erlaubt es auch solche, die nur in einem Zusammenhang richtig, in einem anderen aber Tippfehler sind: Die drei Fehler in einem Satz wie Reisig ißt der Sterz ließe es unbeanstandet. Ein kleineres Lexikon hätte wahrscheinlich weder Reisig noch Sterz enthalten und somit das falsch geschriebene Riesig und Stern reklamiert. Beim regelgeleiteten Lexikon wiederum untersucht der Computer jede Zeichenfolge daraufhin, ob irgendwelche 96
erlaubten Morpheme in regelhaften Abwandlungen und Kombinationen in ihr stecken, und das ist zum einen eine erhebliche Rechenaufgabe. Er muß ja jede Zeichenkette auf jede Segmentierungsmöglichkeit prüfen. Macht er sich an den String Notartermine, so könnte der erste Bestandteil not, nota oder notar sein – und für jeden dieser Fälle muß er untersuchen, ob sich irgendwelche anderen Morpheme in den restlichen Buchstaben unterbringen lassen. Zum andern kann er, wenn ihn keine weiteren Regeln an beliebigen Zusammenstellungen einzelner Wörter hindern, zu völlig falschen Ergebnissen kommen – falsch natürlich nur aus der Sicht des Benutzers. So mag er den Tippfehler notarterminne durchgehen lassen, weil er es erfolgreich zu not-art-er-minne oder notar-term-inne zerlegt. Das heißt, er läßt auch unzählige Zeichenfolgen gelten, die es gar nicht gibt. Der Leerkörper und das Mehr schweinchen blieben wahrscheinlich unbeanstandet. Außerdem brauchte ein solcher Spellingchecker schon sehr viel grammatisches Wissen, in diesem Fall über die Verwendung des Fugen-S, oder doch wieder ein großes Lexikon für Einzelfälle, um zu merken, daß von den Zeichenfolgen Himmelsfahrtkommando, Himmelfahrtskommando, Himmelfahrtkommando, Himmelsfahrtskommando nur eine zulässig ist. Mit einem Wort: Je mehr Wortformen beide Arten von Wörterbüchern enthalten oder selber bilden können, desto mehr läßt ihr Diskriminationsvermögen nach. Daran muß es liegen, daß bei einem Test der Zeitschrift ›Chip‹ die beiden besten – und teuersten – deutschen Rechtschreibprüfprogramme, Carlos und Primus, 97
das erste ein Vollformenlexikon, das zweite regelgeleitet, zwar am besten abschnitten, aber beide gleich viele Tippfehler durchgehen ließen, mehr als die meisten anderen Rechtschreibprüfprogramme. Angesichts dieser sprachlichen Sachlage (von der, nach ihren unbekümmerten Produkten zu urteilen, manche der auf diesem Gebiet tätigen Softwarehäuser nicht die mindeste Ahnung zu haben scheinen) nimmt es nicht weiter wunder, daß Spellingchecker bisher keine reine Freude sind und daß es den vollkommenen Spellingchecker gar nicht geben kann. Um so wichtiger wäre es, daß sie wenigstens praktisch zu handhaben sind – so »komfortabel«, so »benutzerfreundlich«, wie die Computerbranche es ihren Produkten gerne nachsagt; daß sie zum Beispiel die Prüfung in wirklich elektrischem Tempo vornehmen und nicht gemächlich von Wort zu Wort hüpfen und daß die Zusammenstellung und Einbindung separater eigener Spezialwörterbücher ohne Schwierigkeiten möglich ist. Dringend zu wünschen ist auch die Online-Kontrolle: Schon während des Schreibens sollten sie einen auf mögliche Tippfehler aufmerksam machen, nicht erst in einem zeitraubenden nachträglichen Prüfgang. Aber sie sollten es diskret tun, mit einem Brummton oder einem Aufblinken des gerade geschriebenen und möglicherweise falschen Wortes. Wenn sie einem mit einer »Dialogbox« dazwischenfahren, die den gerade entstehenden Text verdeckt und einen zur Beantwortung irgendwelcher Fragen nötigt (die Reklamation ignorieren? das betreffende Wort in ein Lexikon aufnehmen? in welches? das Hauptlexikon? ein Benutzerlexikon?), können sie gewaltig stören. 98
Das Programm Right fährt einem nicht nur dazwischen. Seine Bestimmung ist es gar, Tippfehler automatisch zu korrigieren – eine Funktion, die einen einigermaßen schreibgeübten Menschen geradezu zur Verzweiflung treiben muß, denn wenn er einen Satz wie Er haßt Fehler schreiben wollte und statt dessen versehentlich Er haßtt Fehlder getippt hat, wird er es sich verbitten, ihn vom Computer automatisch zu Er hast Felder verschlimmbessern zu lassen. Schwer vorstellbar, wie sprachlich schlicht die Texte eines Schreibers sein müßten, der ein derartiges Programm mit Nutzen anwenden kann. Selbst ein Legastheniker hätte wenig von den automatischen Verbesserungen, denn seine Störung besteht ja eben darin, daß er nicht weiß, wie sich die Wörter schreiben, und also auch nicht beurteilen kann, ob das Programm die richtigen Korrekturen vornimmt. Wer sich seine Texte von ihm orthographisch überwachen lassen will, sollte nicht nur wissen, wie sich die Wörter richtig schreiben, sondern dazu, wie er sie falsch schreiben müßte, um es zu den richtigen Korrekturen zu veranlassen. Manche Rechtschreibkontrollen haben eine gutgemeinte Zusatzfunktion: Wenn sie ein Wort nicht erkennen, zeigen sie einem ähnliche – in der Annahme, darunter sei das, welches der Benutzer eigentlich hatte schreiben wollen. Meist dauert es so lange, bis die Vorschläge am Bildschirm erscheinen, daß der Fehler sehr viel schneller manuell behoben wäre. Außerdem aber sind die Vorschläge oft absurd, um so häufiger, je kleiner das Wörterbuch ist, dem sie entstammen: Wer Koryphähe mit h schreibt, wollte sicher nicht Karaffe sagen, wer in Gastitis 99
das r ausgelassen hat, ist mit Gastwirt nicht bedient. Diese Funktion spiegelt eine kompetente Hilfe vor, für die jede Voraussetzung fehlt. Daß derlei Unfug vorkommt, liegt daran, daß er sich programmieren läßt. Ein gutes Wörterbuch aber läßt sich nicht programmieren. Es läßt sich nur mit Sachverstand und Fleiß Eintrag für Eintrag erarbeiten. Ich bin der Überzeugung, daß für die deutsche Sprache ein hybrider Spellingchecker der einstweilen beste wäre: ein Vollformenlexikon mit einigen Regeln, die gewisse Arten von Zusammensetzungen vorsehen. Die Qualität eines Spellingcheckers erweist sich am deutlichsten immer daran, ob er den vielen deutschen Verbformen gewachsen ist, vor allem den zusammengesetzten Verben. Schon eine einzige Regel, die zuließe, daß Verben Präpositionalpräfi xe tragen können, würde dem Lexikon Hunderttausende von einzelnen Formen ersparen – man denke nur an ein Verb wie stellen, das zwischen abstellen und zustellen mindestens 39 Abkömmlinge hat. Ein solcher kompromißlerischer Spellingchecker beanspruchte nicht gar so viel Speicherplatz, beziehungsweise könnte den eingesparten Platz für zusätzliche Wörter verwenden; er würde nicht zu viele Schreibfehler unbeanstandet lassen; er könnte relativ schnell sein, weil er keine riesigen Wörterlisten abzusuchen, keine riesigen Regelwerke durchzurechnen hätte. Das Tempo ließe sich weiter steigern, wenn nicht jedes Wort einen Plattenzugriff mit sich brächte, wenn der Computer also einen nach Frequenzgesichtspunkten kompilierten Grundwortschatz, mit dem bis zu 80 100
Prozent jedes Textes abgedeckt wären, zum Prüfen von der Diskette oder Festplatte in den Arbeitsspeicher lüde, so daß nur noch die 20 Prozent seltener Worte auf der Festplatte abgefragt werden müßten. Aber einen solchen Spellingchecker hat noch niemand versucht. Ein Schritt immerhin auf ihn zu ist ein Zusatzprogramm namens Rechtschreibprofi. Es enthält bloße 106 000 – von dem Wörterbuchverlag Langenscheidt mit einigem Bedacht ausgewählte – Wortformen, erlaubt aber in gewissem Umfang, daraus Komposita zu bilden. Sein Diskriminierungsvermögen wird dadurch nicht getrübt. Ich habe es den ›Chip‹-Test absolvieren lassen, und im Unterschied zu Carlos und Primus ließ es keinen einzigen Schreibfehler unerkannt, ohne doch überdurchschnittlich oft falschen Alarm zu geben. Aber wie die meisten Computerprodukte hat es einen Haken: seine niedrige Arbeitsgeschwindigkeit. Es gehört zu jenen Orthographiekontrollen, die nachträglich appliziert werden müssen – und hat man einen längeren Text, so wartet man besser nicht darauf, sondern läßt ihn gleich über Nacht durchprüfen. Dann aber muß man auch bereit sein, das umfängliche Fehlerprotokoll, das man am Morgen vorfindet, »von Hand« durchzuarbeiten. Manche Spellingchecker geben auch Alarm, wenn zweimal hintereinander dasselbe Wort dasteht, meist zu Recht. Damit transzendieren sie bereits die Domäne der Orthographie und wagen sich vor in die der Stilistik. Relativ schlichte Programme sind denkbar, die einen darauf aufmerksam machen, daß ein Inhaltswart innerhalb eines Satzes oder Absatzes oder einer Seite schon zum 101
zweiten Mal vorkommt. Für die englische Sprache gibt es bereits Stil- und Grammatikprüfprogramme, etwa das amerikanische Grammatik: Es macht einen auf redundante Wendungen, aut Slang, auf sexistische Wörter, auf Neologismen, auf überstrapazierte Ausdrücke aufmerksam, erkennt falsche Homophone (there / their / they’re, who’s / whose), doppelte Verneinungen, unvollständige Sätze, Nichtübereinstimmungen zwischen Substantiv und Verb – und läßt sich im übrigen vom Benutzer ergänzen und modifizieren. Die deutsche Sprache zu »parsen«, d. h. Satzglieder grammatisch zu bestimmen, ist wegen ihres relativen Flexionsreichtums und der größeren Freiheit in der Wortstellung sehr viel schwieriger; ein vergleichbares Programm wird es darum für sie so bald nicht geben. Was es immerhin geben könnte, wäre ein wirklich rundum zufriedenstellender deutscher Spellingchecker. Es müßte eine Soft ware-Firma nur einmal Programmierer. Linguisten und professionelle Schreiber zusammenbringen. Bis das geschieht, ist es am Ende immer noch sicherer und bequemer und schneller, den Computer auszuschalten, den Text genau durchzulesen und im Zweifelsfall in den »Duden« zu sehen. Denn der beste Spellingchecker ist man heute immer noch selber.
R ECHTE SCHR EIBUNG Die geplante Reform der deutschen Orthographie
Fragte man die Leute, welches für sie die ödesten und nebensächlichsten Themen der Welt sind, so hätte das Thema Rechtschreibung gute Chancen, auf einem der obersten Plätze zu landen. Gleichwohl, bei kaum einem anderen lodern die Leidenschaften so schnell und so heftig auf. Denn unsere Einstellung zur Orthographie ist zwiespältig. Wir mögen sie nicht. In der Schule hat man uns bis zum Überdruß und dennoch mit nur zweifelhaftem Erfolg damit gezwiebelt. Der Rechtschreib-»Duden« ist für viele von uns ein eher unangenehmes Buch, das nach unerforschlichen Ratschlüssen, die wir auch gar nicht durchschauen wollen, Schreibungen verordnet, welche häufig wie bare Willkür anmuten. Daß man infolgedessen zusammenschreiben muß, statt dessen jedoch getrennt; in bezug auf klein, aber mit Bezug an/groß; er steht kopf, aber er steht Schlange; irgendwas, aber irgend etwas; potentiell mit t, obwohl man es mit einem z spricht und es das Wort Potenz gibt; Selektion und entsprechend selektieren, aber reflektieren und Reflexion, annektieren und Annexion – das alles mag irgendwelche spitzfindigen Gründe haben, es mag sogar gute Gründe haben (in Selektion wird ein t gesprochen, das es in Reflexion nicht gibt, und sprachhistorisch handelt es sich um zwei Paar Schuhe), die meisten von uns aber kennen sie nicht, und wir wollen sie nicht auch noch kennen müssen. Sprachhistorische Begründungen mag es für manches geben, was auf 105
den ersten Blick bescheuert anmutet, aber die Sprachgemeinschaft besteht nicht aus Etymologen, und für die allermeisten ihrer Angehörigen bleiben selbst die vortrefflichsten Gründe ewig undurchschaubar, wirken Vorschriften dieser Art doch weiter so, als seien sie von sadistischen Schulmeistern ausgedacht, das Volk zu malträtieren. Bei allen 16 Umfragen, die zwischen 1955 und 1982 in dieser Sache veranstaltet wurden, fand sich denn auch eine Mehrheit, die eine Vereinfachung der geltenden Rechtschreibung wünschte. Sobald wir jedoch eine Schreibung, und sei es die willkürlichste, »verinnerlicht« haben, hängen wir an ihr und begegnen jedem Ansinnen, sie zu ändern, mit flammender Entrüstung. Darum ist jede Orthographiereform ein überaus zähes Unterfangen. Als im Herbst 1988 Empfehlungen zu einer Reform der deutschen Rechtschreibung an die Öffentlichkeit kamen, und zwar die ersten nicht von vornherein ganz und gar aussichtslosen dieses Jahrhunderts, schrie das deutsche Feuilleton fast geschlossen auf: Keiser? Nie! Denn in Sprachdingen sind auch die Progressivsten unter uns oft stockkonservativ. Man kann sich noch so nüchtern sagen, daß das lateinische Caesar als Lehnwort vom Althochdeutschen bis ins siebzehnte Jahrhundert bald Kaiser, bald Keiser geschrieben wurde und daß sich die ai-Schreibung, die aus der Kanzlei Maximilians I. stammen soll, nur durch Zufall durchgesetzt hat und keinerlei besondere Logik oder Würde ihr eigen nennt, daß überhaupt keine Schreibweise von vornherein besser oder schlechter ist und jede nur eine Konvention – wer nur den 106
Kaiser kennt, erschrickt dennoch erst einmal über den unorthodoxen Keiser, so wie er über den Kaiser erschräke, hätte er Keiser gelernt. Es ist ein geradezu körperlicher und darum auch kaum belehrbarer Schreck. Niemand muß sich irgendeine Orthographie vorschreiben lassen. Wer meint, in seinen Liebesbriefen hätte er hinter der Anrede nur die Wahl zwischen einem Ausrufezeichen und einem Komma, weil der »Duden« es irgendwann so zur Norm erklärt hat, dem ist sowieso nicht zu helfen, und er hat es nicht besser verdient. Der Staat kann eine orthographische Norm überhaupt nur in zwei Bereichen für verbindlich erklären: im Schriftverkehr seiner Behörden – und für den Schulunterricht. Das aber genügt auch schon. Theoretisch könnte jeder sehr wohl seine eigene Rechtschreibung erfinden, könnte jede Institution ihre eigenen Normen erlassen. Aber mehrere Orthographien nebeneinander kann es nicht geben. In der Schule eine Orthographie zu unterrichten, die später im Leben nicht mehr gilt, wäre nicht nur sinnlos. Jeder wird die Orthographie, die er in der Schule gelernt hat, auch zeitlebens für die einzig richtige halten. Der Rest bedarf keiner Vorschriften, sondern regelt sich über eine automatische und recht erbarmungslose soziale Kontrolle. Wer von jenen Schulnormen abweicht, muß gewärtig sein, von seinen Menschen für ungebildet, für kulturlos, fast für einen Analphabeten gehalten zu werden. Die Furcht vor dem schadenfrohen Grinsen des Nebenmannes ist es, die der für Schule und Behörde angeordneten Norm die allgemeine Geltung verschafft. 107
Aber brauchen wir überhaupt Rechtschreibnormen? Die Aussprache ist ja auch nicht bis ins letzte normiert. Um die Jahrhundertwende, zur gleichen Zeit also, als der »Duden« für die Rechtschreibung verbindlich wurde, veröffentlichte Theodor Siebs seine »Deutsche Bühnenaussprache«. Aber nie wurde Orthophonie auch nur im entferntesten so wichtig wie Orthographie. Die Vereinheitlichung der Rechtschreibung begann nach der Erfindung des Buchdrucks: Ein Buch sollte nun von allen Angehörigen der Sprachgemeinschaft ohne weiteres gelesen werden können. Doch noch fünfhundert Jahre lang – das Deutsche tastete sich zu seiner einheitlichen Schriftform voran – blieben die Normen einigermaßen vage. Goethe genierte sich nicht, allen Wörterbüchern seiner Zeit zum Trotz Nachbaarinn oder dicktiren zu schreiben und Frau von Stein in ein und demselben Brief bald als meine Beste, bald als meine beste anzureden. Und es ist keine zwanzig Jahre her, daß die ganze Rechtschreibung vielen nichts als ein weiteres Symptom für ein verrottetes autoritäres System schien, wert, mit diesem zum Teufel gejagt zu werden. Schüler sollten nicht gegängelt werden, schon gar nicht mit absurden Reglements; sie sollten ihre Köpfe für Wichtigeres freibehalten. Es war wohl zu kurz gedacht. Zum einen beruhte diese pädagogische Theorie auf einer mehr als zweifelhaften Prämisse: daß das Gehirn eine Art großer AllzweckSpeicher sei – packte man von dem einen weniger hinein, so bliebe der eingesparte Raum frei für anderes. Das gilt möglicherweise für das abstrakte semantische Wissen, wahrscheinlich aber nicht für spezielle Prozesse wie 108
Schreiben und Lesen. Die Module, die diese steuern, stehen keinem anderen Zweck zur Verfügung. Für den modularen Aufbau des Gehirns spricht die hohe Spezifizität der Nervenzellen, die Tatsache, daß manche punktuelle Läsion zum punktuellen Ausfall einer Funktion führt, spricht auch das Phänomen der Legasthenie, der Lese-Rechtschreib-Schwäche bei völlig normaler sonstiger Intelligenz. Zum andern ist in der modernen Schriftkultur eine normierte Rechtschreibung aus psycholinguistischen Gründen vermutlich unerläßlich. In langsameren Zeiten, als Lesen und Schreiben eine Sache weniger Erwählter waren, die sich genußvoll Zeit lassen konnten, Handschrift liches zusammenzubuchstabieren und über den Sinn des Gelesenen nachzugrübeln, störte es sicher nicht sonderlich, wenn man beim Lesen über die ungewohnte Gestalt eines Wortes stolperte oder beim Schreiben öfters zwischen mehreren Alternativen zu wählen hatte. Heute jedoch brauchen wir eine eindeutige Referenzebene. Alles nicht Eindeutige läßt sich keinen automatischen Prozessen überantworten, erfordert also unsere bewußte Aufmerksamkeit. Die kurzen Entscheidungsphasen, die minimalen Stockungen, von denen das Lesen und Schreiben ohne eine solche Referenzebene ständig unterbrochen würden, fänden wir vermutlich nicht zumutbar. Sie würden uns genauso irritieren, als wären zuweilen ein paar Tasten auf unserer Schreibmaschine oder unserem Klavier miteinander vertauscht und nötigten uns, immer wieder kurz zu überlegen, welchen Finger wir nun bewegen müssen. 109
Alles in uns sträubt sich, wieder umzulernen, was wir uns so gründlich eingeschliffen haben, daß wir es automatisch verrichten – und eben darum verteidigen wir die einmal gelernte Orthographie mit einer hartnäckigen Leidenschaft, als wäre sie nicht die reichlich willkürliche Konvention, die sie ist, sondern die einzige natürliche. Alle anderen Gründe sind nur vorgeschoben. Die Rechtschreibung ist gewiß nicht das heilige Kulturgut, als das sie so gern verteidigt wird, aber einmal beherrscht, gehört sie zur fast unabänderlichen Infrastruktur unseres Geistes. Rechtschreibreformer müssen das bedenken. Wer eines Tages mit einer reformierten Orthographie aufwächst, für den wird dann sie die einzig richtige sein. Aber den zwei bis drei lebenden Generationen, die noch mit der alten Orthographie groß geworden sind, mutet die Umstellung zu, fortan in einer haarsträubend verkehrten Welt zu leben, in der alles »falsch« geschrieben wird. Auch nach der mehr als bescheidenen Reform am Anfang dieses Jahrhunderts schrieben viele bis ans Lebensende weiter Thor und Thau; in Dänemark halten manche nun schon über vierzig Jahre lang an ihrer vorreformatorischen Rechtschreibung fest. Einige Reformer des letzten Jahrhunderts träumten von einem radikalen Eingriff: Die einen wollten auch die vergessenen historischen Ursprünge der Wörter in den Schreibweisen sichtbar machen: Das Licht etwa wollten sie liëcht schreiben, weil das i hier im Mittelhochdeutschen einst diphthongisch gesprochen wurde, und aus dem nämlichen Grund zwar er blib, aber er ist ge110
blieben. Die anderen wollten die phonetische Schreibung: nicht mehr als ein einziges Zeichen für jeden Laut (er hop, das bot, der hol). Solche Träume sind zerstoben; seit langem glaubt niemand mehr, man könnte oder sollte der widerspruchsvollen deutschen Rechtschreibung zu einer auch nur annähernden Konsistenz verhelfen. Der über die Jahrhunderte gewachsene Garten der deutschen Orthographie mit all seinem Kraut und seinen Rüben wird von niemandem in eine logische Betonwüste verwandelt werden. Wer Reformpläne hegt, muß sich damit begnügen, hier und da ein wenig herumzuharken und zu jäten, und er weiß das. Die fröhliche orthographische Anarchie hat nicht nur keine Chance; sie wäre auch nicht zu ertragen. Aber eine gewisse Liberalisierung auf einigen genau definierten Gebieten und in einer begrenzten Zahl von Fällen – sollte die nicht dennoch möglich sein? Als der »Duden« noch kein Buch war, sondern ein Gymnasialdirektor in Hersfeld, ging es liberaler zu als heute. In Konrad Dudens Wörterbuch von 1902, dem ersten, das sich auf amtliche Regeln stützte, stehen häufig mehrere erlaubte Formen nebeneinander: in bezug auf neben in Bezug auf, irgendwer neben irgend wer, zu Grunde (gehen) neben zu grunde und zugrunde. Und man möchte ja auch gerne meinen, daß es getrost dem sogenannten mündigen Bürger überlassen bleiben kann, wie er sich entscheidet, wenn zwei für sich genommen vernünftige Prinzipien kollidieren – also ob er etwa aufs Ganze oder aufs ganze gehen, ob er etwas in Frage stellen oder infra111
gestellen will. Tatsächlich aber hat der »Duden« einen Horror vor solchen Doppelschreibungen und sie im Laufe der Jahrzehnte weitgehend ausgemerzt. Nur bei etwa 0,8 Prozent aller Wörter (in der Hauptsache Fremdwörter in den verschiedenen Stadien der Eindeutschung) läßt er mehr als eine Möglichkeit zu. Er trifft sich mit den vielen ehrenamtlichen Sprachpolizisten, die an allen Ecken darüber wachen, daß ihre Mitmenschen nicht über die Straße gehen, wenn der »Duden« Rot zeigt, in dem Wunsch, alles bis ins letzte eindeutig geregelt zu sehen. Entspricht er damit nur einem quasi zur Naturnotwendigkeit gewordenen Bedürfnis? Manche sehen es so, etwa der Linguist Dieter Nerius aus der weiland DDR in seinem informativen Buch »Deutsche Orthographie«: »Das gesellschaft liche Bedürfnis nach Eindeutigkeit und Stabilität der Orthographie ist offenbar so groß, daß die Variabilität . . . nie mehr einen größeren Umfang erlangen konnte.« Es ist wahr, Schreibvarianten verlangen von Autoren, Korrektoren, Lektoren, Redakteuren einiges an zusätzlicher Aufmerksamkeit und Arbeit. Denn auch wenn mehrere Varianten erlaubt sind, wird innerhalb eines Buches, einer Zeitschrift meist konsequent nur eine von ihnen gelten sollen – und es ist gar nicht so einfach, in einem dicken Buch, bei dem man sich für die Alternative an Stelle entschieden hat (eine der wenigen verbliebenen Wahlmöglichkeiten), kein einziges anstelle durchgehen zu lassen. Andererseits hat uns die antiliberale Haltung des »Duden« den Geschmack an solchen kleinen Freiheiten gründlich aberzogen; hätten wir uns erst wieder dar112
an gewöhnt, daß uns allen Ernstes manches anheimgestellt bleibt, unsere Gier nach Orthodoxie, unser Gefühl für das Richtige würde sich auch wieder entspannen. Den ersten Vorstoß zu einer Reform der deutschen Rechtschreibung gab es bald nach der Reichsgründung. Er hatte ein doppeltes Ziel: die deutsche Orthographie zu vereinfachen und sie im gesamten Reichsgebiet zu vereinheitlichen. Aber die Konferenz von 1876 scheiterte: Ihre Vorschläge, obschon maßvoll und durchdacht, wurden von der Presse ausgebuht und auch von Sprachwissenschaftlern aus entgegengesetzten Gründen verworfen. Erst 1901 raffte man sich auf Betreiben des preußischen Kultusministers zu einer zweiten Konferenz auf. Diesmal beließ man es von vornherein bei einer Handvoll bescheidener Korrekturen (der Thür wurde das h gestrichen, aus -iren wurde -ieren, ein paar Fremdwörter wie Accent wurden eingemeindet), um das andere Ziel, das der Vereinheitlichung, nicht zu gefährden. Tatsächlich wurden dann einheitliche Regeln verabschiedet: fortan die amtliche Grundlage der Rechtschreibung in Schulen und Behörden, allerdings im Laufe der Jahrzehnte von den »Duden«-Redaktionen nach freiem Ermessen ergänzt, erweitert, auf neue Fälle ausgedehnt, bis die amtlichen nicht mehr von den nichtamtlichen Normen zu unterscheiden waren. Nach dem Untergang des Reiches stand auch die deutsche Rechtschreibung zur Disposition. Aber als 1955 ein Wörterbuch des Bremer Lexikographen Lutz Mackensen in einigen Fällen von den »Duden«-Normen abwich und 113
damit das »Duden«-Monopol antastete (es unterstand sich, es ist das Beste oder Kopf stehen zu schreiben), malte die »Dudens-Redaktion die Gefahr der RechtschreibAnarchie so dramatisch an die Wand (»[weicht] um jeden Preis von der bisherigen Regelung ab«), daß die Kultusministerkonferenz sich breitschlagen ließ, den »Duden« für verbindlich zu erklären, bis auf weiteres: nämlich »bis zu einer etwaigen Neuregelung«. Manche der an jenem »Stillhalte-Beschluß« Beteiligten mochten damals denken, diese komme bald; andere hofften wohl, sie werde nie kommen. Jedenfalls sind sämtliche Reform-Anläufe seither – vor allem die »Stuttgarter Empfehlungen« von 1954 und die »Wiesbadener Empfehlungen« von 1958 – sang- und klanglos in der Versenkung verschwunden, und es besteht seither die kuriose Situation, daß ein zwar überaus sachkundiger, aber privater Verlag mit quasi amtlicher Wirkung entscheiden darf, wie Schulen und Behörden zu schreiben haben und mithin das ganze Volk. Die geltende Rechtschreibung steckt voller Schwierigkeiten, die man nur als Schikanen bezeichnen kann. Kein Mensch kann sie vollständig beherrschen, selbst hauptberufliche Korrektoren nicht. Ich nehme an, selbst Günther Dosdrowski, der Leiter der »Duden«-Redaktion, könnte ein mit »Duden«-Tücken gespicktes Diktat nicht fehlerlos schreiben. Die Sprachentwicklung ist den Regeln von 1901 davongelaufen. In allen deutschsprachigen Ländern besteht heute Interesse an einer vorsichtigen Fortschreibung und Vereinfachung. Alles das hat schließlich auch die Kultusminister überzeugt. 1986 beauftragten sie das Institut für deutsche Sprache (IdS) in Mannheim (eine 114
vom Bund und vom Land Baden-Württemberg getragene Stiftung), Reformvorschläge auszuarbeiten. Das IdS berief eine Expertenkommission, der auch Vertreter der beiden anderen Instanzen für Muttersprachliches angehören, die in diesem Land etwas zu sagen haben, der »Duden«-Redaktion und der Gesellschaft für deutsche Sprache. Im Herbst 1988 legte sie ihre Empfehlungen zu fünf Bereichen auf den Tisch: Zeichensetzung, Worttrennung, Getrennt- und Zusammenschreibung, Wortschreibung und Fremdwortschreibung. Die ersten beiden Bereiche sind (auf den 1986 eingerichteten »Wiener Gesprächen«) mit Fachleuten aus der DDR, Österreich und der Schweiz beraten und abgestimmt worden; die drei anderen Bereiche werden dort in den nächsten zwei, drei Jahren behandelt werden. Dann bleibt immer noch das brisanteste aller Themen, das zunächst ganz ausgespart wurde, weil eine Einigung auch nur der Experten undenkbar scheint: die Groß- und Kleinschreibung. Gegen Mitte der neunziger Jahre schließlich werden die Kultusminister entscheiden müssen, ob sie mit der Neuregelung Ernst machen wollen oder nicht. Zum ersten Mal seit 1876 besteht also die reelle Chance einer bescheidenen Reform. Wird sie verpaßt oder zerredet, wird selbst der größte Schwachsinn der heutigen Regelung für die nächsten hundert Jahre weitergelten müssen. Das sollte Grund genug sein, nicht dem ersten Affekt nachzugeben und die Empfehlungen pauschal zu verlachen und zu verurteilen. Sie sind es wert, im einzelnen angesehen und geprüft zu werden.
115
Die unproblematischsten Vorschläge sind die zur Zeichensetzung. Hier gibt es von Amtes wegen bisher keinerlei Vorschriften; was an Regeln im Schwange ist, ist ausnahmslos das Werk der »Duden«-Redaktionen. An ihm soll nur dreierlei geändert werden. 1. Zwischen Anführungen und ihrem Begleitsatz soll immer ein Komma stehen, auch wenn die Anführung mit einem Frage- oder Ausrufezeichen endet (»Hallo!«, sagte die Telefonistin statt wie bisher »Hallo!« sagte …). Eine Zusatzregel würde also getilgt – in Ordnung. 2. Vor und und oder kann das Komma wegfallen, auchwenn ein ganzer Satz folgt (er kam und er sah und er siegte). Hier gibt es heute eine relativ klare Regel (Hauptsätze werden mit einem Komma abgetrennt), auch wenn der »Duden« zehn Paragraphen braucht, ihr Wenn und Aber zu erläutern. Sie soll um eine Ausnahme ergänzt werden, und das ist eigentlich weniger gut. Da es aber eine fakultative Bestimmung ist, und da die jetzige Regel tatsächlich oft mißachtet wird, mag auch das in Ordnung sein. 3. Vor erweiterten Infinitiv- und Partizipialgruppen kann das Komma wegfallen (sie versprechen bald zu zahlen), kann aber auch stehen, wenn es den Sinn deutlicher macht. Die heutigen Regeln für diese Fälle nehmen im »Duden« drei engbedruckte Seiten ein und sind eine Beleidigung; niemand sollte gezwungen sein, einer so unerheblichen Frage mit einem solchen Wust spitzfindiger Vorschriften zu Leibe zu rücken. Weg mit Schaden! Ob irgendeine Neuregelung noch der völligen Verwilderung der Worttrennung am Zeilenende zuvorkommen 116
kann, ist mehr als fraglich. Sie ist die Folge der elektronischen Textverarbeitung. Der Computer trennt nach starren, mehr oder minder kompletten Regeln, und das führt in einigen Prozent der Fälle zu falschen Ergebnissen, die nur mit relativ großem »manuellem« Arbeitsaufwand völlig zu verhindern wären. Und da fast alles Gedruckte heute aus dem Computer kommt, nehmen falsche Trennungen Überhand. Selbst Fälle wie Tasche und Ta-ube, die ein völlig unzulänglicher Algorithmus ausgeheckt haben muß, kommen vor, und in dem Maß, wie wir uns an sie gewöhnen, schwindet das Gefühl, daß die Trennung überhaupt irgendeiner Regel bedarf. Vielleicht wird man Ende des Jahrhunderts allgemein ein Wort einfach dort abtrennen, wo die Zeile zu Ende ist. Die heutige Grundregel ist an und für sich einfach und klar genug: Getrennt wird nach Sprechsilben. Leider ist sie an mehreren Stellen durchlöchert. Die Reform will nur diese Ausnahmen streichen, vernünftigerweise. 1. Wie andere s-Verbindungen, soll auch das st trennbarwerden: Lis-te wie Wes-pe. 2. Das ck muß nach der heutigen Regelung k-k getrennt werden – eine so unschöne Regel, daß anspruchsvollere Typographen ck-Trennungen mühevoll ganz vermeiden. Der Vorschlag sieht die Trennung c-k vor, ist aber noch nicht endgültig. Meiner Meinung nach wäre es günstiger, das ck als einen durch mehrere Buchstaben wiedergegebenen einzigen und damit untrennbaren Laut zu betrachten, der es ja tatsächlich ist: Ma-cke wie ma-che. 3. Die Trennung nach Sprechsilben soll fakultativ auch 117
für ein paar »Problemwörter« gelten, für die sie bisher verboten ist, Wörter wie wa-rum und hi-nauf. 4. Mit Rücksicht auf die humanistisch Gebildeten sind viele Fremdwörter bisher von der Regel »Trennung nach Sprechsilben« ausgenommen. So muß man heute Mag-net trennen und Inter-esse und päd-ago-gisch (aber pä-do-phil). Häufig sind die klassischen Morpheme, die diese Regel vor Zerlegung bewahren will, zwar für so gut wie niemanden mehr erkennbar: Aber auch wenn den allermeisten die Gründe unerfindlich bleiben, man darf nur An-ek-do-te oder an-omal oder Pan-ora-ma trennen. Auch wenn einige Altphilologen zurückzucken mögen: An den Psy-chi-a-ter (statt heute Psych-ia-ter) wird sich die Sprachgemeinschaft schnell und erleichtert gewöhnen. Die Vorschläge zur Getrennt- und Zusammenschreibung von Wortverbindungen berühren eine der chaotischsten und reformbedürftigsten Zonen der deutschen Rechtschreibung. Wer jemals versucht hat zu verstehen, wann er soviel und wann so viel schreiben muß, weiß, was ich meine. Eine allgemeingültige und gar amtliche Regel dafür gibt es heute nicht. Es herrschen zwei Faustregeln, beide aber völlig inkonsequent, unter anderem darum, weil sie sich oft gegenseitig in die Quere kommen. Die eine besagt: in konkreter Bedeutung getrennt, in übertragener zusammen – was dazu führt, daß der Nagel breit geschlagen, die Widerspenstige aber breitgeschlagen wird. Trotzdem müssen Verbindungen wie liegenblei118
ben oder steckenbleiben, kennenlernen oder Spazierengehen immer zusammengeschrieben werden, auch wenn sie durchaus in ihrer konkreten Bedeutung gebraucht werden oder gar keine übertragene Bedeutung besitzen. Übrigens verlangt der »Duden«, daß man zusammenschreiben zusammenschreibt, getrennt schreiben aber getrennt. Kein Wunder, daß viele sich einfach nicht daran kehren. Die andere heutige Faustregel hält sich an die Betonung: Wird das erste Wort betont, so wird die Verbindung zusammengeschrieben (das leichtverdauliche Essen), sonst aber getrennt (das Essen ist leicht verdaulich). Trotzdem muß man festsitzen oder lockersitzen oder leichtfallen schreiben, obwohl der Ton auf dem ersten Wort liegt, aber dann wiederum lästig fallen. Diesem wahrhaft lästig fallenden Wirrwarr sind die Reformer auf recht elegante Weise nahegetreten (was erweitert heute übrigens wiederum getrennt geschrieben werden müßte: zu nahe getreten). Es soll eine einzige Grund- und Hauptregel geben: daß der Normalfall die Getrenntschreibung ist und der Sonderfall, der einer extra Regelung bedarf, die Zusammenschreibung. Dann hieße es: kennen lernen, Radfahren, aneinander reihen. Für die verbleibenden Zusammenschreibungen gäbe es ebenfalls eine Grundregel. Nicht mehr die subjektive Betonung oder die oft unentscheidbare Frage, ob die konkrete oder übertragene Bedeutung gemeint ist, wäre ausschlaggebend. Das viel verläßlichere Kriterium hieße: Erweiterbar oder nicht erweiterbar. Ihr Brief ist (ungewöhnlich) gut geschrieben, hieße es danach; aber: Sie 119
hat den Betrag gutgeschrieben (was sich nicht zu sehr gutgeschrieben oder ähnlichem erweitern läßt). Außerdem sollen ein paar häufig vorkommende Ungereimtheiten verschwinden. Auch irgend etwas und irgend jemand sollen zusammengeschrieben werden (wie irgendwer oder irgendeine); neben so daß soll auch die Zusammenschreibung sodaß erlaubt sein, die in Österreich immer Vorschrift war (warum dann nicht gleich auch im Parallelfall um so?); und die ganze Sophisterei um soviel und so viel, wieviel und wie viel, zuviel und zu viel soll ein Ende haben dürfen: Immer getrennt! Nicht daß sie uns sämtliche Zweifelsfälle ersparten – eine erhebliche Erleichterung brächten diese Vorschläge jedenfalls mit sich. Sie haben den weiteren Vorzug, vermutlich niemandem weh zu tun (aber da kann man nie wissen). Wenn nur sie in absehbarer Zeit Wirklichkeit würden, die Reformmühen hätten sich schon gelohnt. Ewiger Dollpunkt aller »Sprachpflege« war in früheren Jahrzehnten die »Reinheit« des Deutschen. Heute ist die Diskussion um sie gnädig verstummt, vermutlich aus Gründen ähnlich denen, die die Deutschen zu Weltmeistern bei Auslandsreisen gemacht haben. Es muß sich herumgesprochen haben, daß der Zustrom der Fremdwörter keine vorübergehende Modetorheit war, sondern eine zwangsläufige Folge der internationalen Verflechtung allen Lebens; daß er anhalten wird; und daß die meisten Gastwörter gekommen sind, um zu bleiben. Aber was machen wir mit ihnen? Andere, verwandte Sprachen wie das Niederländische oder das Schwedi120
sche machen mit ihnen kurzen Prozeß: Sie bürgern sie in Aussprache wie in Schreibung rigoros ein. Das Deutsche tut sich damit sehr viel schwerer. Eine große Zahl jener französischen Wörter, die Hugenotten und Revolutionsflüchtlinge im siebzehnten und achtzehnten Jahrhundert nach Preußen mitbrachten, hat bis heute ihre originale Form behalten: Bouillon, Bredouille, Malheur … Das gilt jedenfalls für die gebildeten Wörter der höheren Stände, der Haute-volee (die nur eines Akzents verlustig gegangen ist). Das Volk verfuhr weniger etepetete (was auf être peut-être zurückgeht und selbst schon ein Beispiel ist), machte aus radical ein ratzekahl, aus bleu mourant ein blümerant, aus quincailleries die Kinkerlitzchen. Zuweilen stehen sich eine vornehme und eine plebejische Form gegenüber, das Milieu dem Milljöh. Vor allem zwei Gründe wirken der Einbürgerung entgegen. Ein sozialer: Man will ja keinen Verdacht aufkommen lassen, daß man die betreffende Fremdsprache etwa nicht richtig beherrscht. Ein materieller: Für manche fremden Laute gibt es keine Entsprechung in der deutschen Schrift – solange der Jupon ausgesprochen wird, wie er es wird, sträubt sich alles, ihn zu etwas wie einem Schüpong zu machen; das sonst vergleichbare Schmisett (chemisette) war da besser dran. Richtlinien für die Behandlung von Fremdwörtern wären dringend vonnöten, und zwar nicht nur wegen deren schierer und jeden Tag wachsender Menge. Oft stellen sie das Deutsche vor ein kniffliges, zuweilen gänzlich unlösbares Problem. Ein eingemeindetes Fremdwort nämlich muß sich auch der deutschen Grammatik fügen und 121
Präfixe und Suffixe anlegen, die es in seiner Heimat nicht hatte. Ein Fall wie managte mag noch leicht scheinen, obwohl Empfindlichere das e durchaus vermissen werden. Bei einem Fall wie layouten wird es schon schwieriger: Outlayed? Outgelayt? Gelayoutet? Oder? Fast unschreibbar aber ist ein Fall wie recyclen: Gerecyclet? Regecycelt? Hier besteht wirklich … wie heißt das heute? »Handlungsbedarf«. Amtliche Normen für die Fremdwortschreibung gibt es nicht. Die »Duden« haben sie von Fall zu Fall geregelt (in der DDR und in Österreich teilweise anders), aber lassen keines im mindesten offen. Selbst Versehen bleiben eisern als das einzig Zulässige vorgeschrieben: Guerilla hat sich im Deutschen nur mit einem r zu schreiben, obwohl sein doppeltes rr (das Duden selber 1902 noch zuließ) auf dem Weg aus dem Spanischen ins Deutsche nun am allerwenigsten gestört hätte. Sie schrecken auch nicht zurück vor allerlei unschönen Bastardformen wie Kompagnon oder Plädoyer – einige Bestandteile des Wortes werden eingedeutscht, andere nicht. Das Grundprinzip der Reform-Empfehlungen ist einfach und gesund: Es sollen jeweils zwei Schreibungen angeboten werden, eine, die die ursprüngliche Schreibweise respektiert, und eine eingedeutschte. In regelmäßigen Abständen, etwa alle zehn Jahre, sollen neue offeriert und jene gestrichen werden, die die Sprachgemeinschaft partout nicht akzeptiert. Dann dürfte man nicht nur wie heute schon die Affaire auch Affäre schreiben, sondern die Saison auch Säson, die angedeutschte Bastardform Kommunique (die sich bei der Gelegenheit dann vielleicht zu 122
Communiqué regallisieren ließe) auch Kommunikee, das Restaurant auch Restorant, fair auch fär. Zuweilen mag die angepaßte Form zunächst schockieren. Fälle wie Bluse (statt Blouse) oder Keks (statt Cakes) lehren jedoch, daß dieser Schock schnell verwunden ist und die integrierte Form bald selbstverständlich erscheint. Bedauerlich scheint mir indessen, daß die Vorschläge viel zu viele Ausnahmen von dieser Grundregel vorsehen. Manchmal soll die fremde Schreibweise ganz getilgt werden, auch wo sie noch gebräuchlich ist und zuweilen stilistische Gründe durchaus für sie sprechen: Dann gäbe es nur noch das Foto und den Klub und die Grafik (aber weiter die Graphologie), Club und Graphik und Photo wären verboten. Einerseits soll der Cheque gestrichen werden und nur noch der Scheck erlaubt sein; andererseits soll es zum Chef keine eingedeutschte Alternative geben. Das wie z gesprochene t soll bald so, bald so behandelt werden: In Patient und Nation bleibt es die einzige Schreibweise, in partiell bekommt es die Variante parziell an die Seite, in potentiell soll es nur das z sein dürfen. Bei Budget oder Bulletin scheuen die Vorschläge vor potthäßlichen Bastardformen nicht zurück: Das u würde zu ü, aber die »Fremdmerkmale« -dg- und -in blieben erhalten, wahrscheinlich darum, weil es keine deutsche Schreibung geben kann, die ihrer Aussprache gerecht würde. Clown oder Crew dagegen sollen mit Rücksicht auf ihre »Fremdmerkmale« ganz ohne eingedeutschte Variante bleiben, obwohl sie sich ohne weiteres lautgerecht schreiben ließen. Der Einzelfall Portemonnaie soll eingemeindet werden, 123
aber nur zu Portemonee nicht zu Portmonee, obwohl jenes erste e nicht gesprochen wird. Das th soll im allgemeinen Wortschatz zu t werden (Apoteke, Hypotek, Panter, Rytmus), im »Bildungswortschatz« aber th bleiben (Theater, Thema, Theorie). Es ist schon darum ein überaus zweifelhafter Vorschlag, weil niemand begreifen wird, wieso ein Wort wie Rytmus zum allgemeinen, eins wie Thema zum Bildungswortschatz gehören soll. Erst recht soll, vermutlich aus Furcht vor dem Hohn der Kulturträger, natürlich die Philosophie nicht angetastet werden; obwohl nicht einzusehen ist, wieso eine Filosofie auf Dauer anstößiger wirkte als die Sinfonie, die bereits seit langem friedlich mit der Symphonie koexistiert. Kurz, die Vorschläge zur Fremdwortschreibung scheinen mir zwar die richtige Richtung anzudeuten, aber dann doch immer wieder ängstlich vor wirklicher Konsequenz zurückzuschrecken (die in diesem Fall ja niemanden vergewaltigte, weil jeder die Freiheit behielte, nach seinem Gusto die fremde oder die integrierte Schreibweise zu wählen). Es ist zu hoffen, daß sie bei der noch ausstehenden internationalen Beratung entsprechend hochgepauert (hochgepowert? hochgepowered? hochpauered?) werden. Vielleicht ließe sich sogar noch daran denken, für bestimmte Laute, die dem Deutschen fremd sind und für die es leider keine Zeichen besitzt, die aber mit den Fremdwörtern auch im Deutschen heimisch werden, nicht etwa neue Buchstaben, sondern bestimmte Buchstabenkombinationen vorzusehen, etwa ein sh für das stimmhafte sch, wie es bisweilen schon bei der Umschrift aus dem Rus124
sischen gebraucht wird. Sie würden die Eindeutschung erleichtern. So weit wären die Vorschläge kaum mit Entrüstung quittiert worden, eher mit einer gewissen Enttäuschung ob ihrer Laschheit. Alle Entrüstung haben allein die Empfehlungen zur Wortschreibung auf sich gezogen. Dabei verordnen sie keine Gewaltkur. Vielmehr sind sie ein Sammelsurium von einem Dutzend kleinerer Maßnahmen mit dem gemeinsamen Ziel, die deutsche Orthographie hier und da etwas konsequenter und konsistenter zu machen. Daß beispielsweise ein Vokal lang ist, wird in der Schrift auf vielerlei Weise zum Ausdruck gebracht: Er wird gar nicht markiert, vorausgesetzt, es folgt ihm nur ein Konsonant (Mal); er erhält ein Dehnungs-h (Mahl); er wird verdoppelt (Aal); das i wird meist zu ie (viel). Die Vorschläge wollen die Vielzahl der Dehnungsmarkierungen verringern, aber nur ein wenig: Die Doppelvokale sollen beseitigt werden (Al, Har, Stat; Bot, Mor). Aber wiederum nicht alle: Bei Zoo soll es bleiben und meist auch beim Doppel-e (leer, Meer). Oder: ei wird in einigen Fällen ai geschrieben und soll in insgesamt neun Wörtern zu ei werden, darunter der berüchtigte Keiser. In etlichen Fällen soll es wiederum beim ai bleiben, um Verwechslungen mit gleichlautenden anderen Wörtern zu vermeiden (Laich / Leiche, Saite / Seite, Waise / Weise), manchmal aber auch ohne erkennbaren Grund (Mai, Kai). Oder: Aus ä soll oft e werden (Demmer, etzen, reuspern, 125
Seule), aber wenn es ein verwandtes Grundwort mit a gibt, würde wiederum e zu ä: Hätzen (wegen Hatz), Gräuel (wegen Grauen), Stängel (wegen Stange). Das alles hätte keineswegs die dramatischen Folgen, die mancher flugs gebildete polemische Beispielsatz suggeriert (der Keiser streubt sich gegen die Statsgeschäfte [oder Statsgeschefte?] und fängt lieber im Mor Ale), griffe aber doch in manches gewohnte Wortbild ein. Und was wäre dafür gewonnen? Die deutsche Orthographie wäre wohl um ein winziges konsequenter, aber von der Einszu-Eins-Entsprechung zwischen Laut und Buchstabenzeichen, wie sie etwa dem Spanischen eigen ist, so fern wie vorher. Es bliebe dabei, daß man im Deutschen wie im Französischen oder Englischen die Schreibung jedes Wortes einzeln zu lernen hat. In einigen Fällen würde diese Reform das Schreiben vielleicht etwas erleichtern, das Lesen aber erschweren; ein Satz wie mit den Boten kam die Pest wäre aus sich selbst heraus nicht mehr verständlich. Einen besonderen Nutzen kann ich in diesem Teil der Reform nicht erkennen. Aber selbst wenn bessere Gründe für die Vorschläge zur Wortschreibung sprächen: Sie haben sowieso keinerlei Chance. Kein Politiker wird um einer so marginalen Frage wie der Rechtschreibung willen je den Zorn und Hohn vieler Bildungsbürger und fast der gesamten Presse riskieren; wird es auf sich nehmen, von der ›FAZ‹ bezichtigt zu werden, er beabsichtige die »Heimatvertreibung aus der Sprache«. Das Echo auf die Empfehlungen hat Ende 1988 die Kultusministerkonferenz dermaßen verschreckt, daß sie die Vorschläge zur Wortschreibung 126
noch vor jeder Diskussion für »nicht realisierbar« erklärte. Sie sind tot. Es ist überflüssig, noch jahrelang international über sie zu beraten. Da aber eine Rechtschreibreform wahrscheinlich nicht ganz ohne jede Reform der Wortschreibung abgehen kann, käme es jetzt auf Flexibilität an. Die Kommission müßte bald mit einem sehr viel bescheideneren Alternativvorschlag aufwarten, dem nicht gleich der Wind ins Gesicht bläst. Ich selber glaube, daß – wenn es denn unbedingt sein soll – die Laut-Buchstaben-Beziehung vor allem in einem Punkt reformierbar ist. Ein ungeschriebenes Gesetz der deutschen Orthographie besagt, daß die Schreibung der Stammsilben bei der Flexion nicht verändert wird. Ab und an geschieht es doch. Fälle etwa wie Kuß / Küsse verstoßen dagegen. Darum soll nach den vorliegenden Empfehlungen das ß einzig noch nach langem Vokal oder Diphthong stehen, sonst aber zu ss werden (Fuß wie Füße, aber Fass wie Fässer, Russland wie Russe). Es ist kein unvernünftiger Vorschlag. Dennoch hat er einen Haken: Er erreicht nicht alle Fälle, in denen heute ss und ß wechseln. In manchen Fällen nämlich ändert sich bei der Flexion auch die Länge des Konsonanten. Bei stoßen / stieß / gestoßen oder hassen / hasste / gehasst griffe die Regel des Reformvorschlags und bewirkte eine Vereinheitlichung. Bei fließen oder lassen griffe sie nicht, und es bliebe bei fließen / floss oder lassen / ließ. Hier wäre eine Vereinheitlichung nur zu erreichen, wenn Deutschland und Österreich ganz auf das ß verzichteten, wie es heute die Schweiz tut. Dazu werden 127
sie sich wohl nicht aufraffen; oder höchstens dann, wenn ein Großteil des Volks und seiner Vertreter auf Computern schriebe und die dauernden Probleme mit dem irregulären deutschen ß leid wäre, aus dem auf dem Computer oft ein Beta oder das Pesetazeichen wird und das des Deutschen unkundige Ausländer unweigerlich als B lesen. Dieser Reformvorschlag also beseitigte eine Ungereimtheit nur zum Teil, aber immerhin. Er weist außerdem in eine Richtung, in die eine »kleine« Reform der Wortschreibung des öfteren gehen könnte. Wenn man das gleiche Prinzip anwendete, könnte man nämlich eine Reihe irregulärer Ableitungen an die zugrundeliegende Stammsilbe oder an die als verwandt oder analog empfundenen Wörter angleichen: Gräuel (wie Grauen), Kängeru (wie Kakadu), nummerieren (wie Nummer), Plattitüde (wie platt), platzieren (wie Platz), Quäntchen (wie Quant), Rohheit (statt Roheit), schnauzen (wie Schnauze), selbstständig, Stopp (wie stoppen), unerschwänglich (wie Überschwang), Zierrat (statt Zierat). Alle diese Änderungen sehen die Reformvorschläge vor, aber unter den verschiedensten Rubriken und dort zusammen mit vielen anderen. Sie ließen sich einem einzigen Prinzip subsumieren. Und wenigstens die störendsten Ungereimtheiten der Wortschreibung ließen sich durch die konsequentere Anwendung dieses einen Prinzips relativ schmerzlos beseitigen. Es gibt einen Fall unter den Vorschlägen, der wegen seiner Häufigkeit das Schriftbild stärker veränderte als jeder andere, einen Fall ganz für sich: daß das Daß Das geschrieben werden soll. Dieser Satz hieße dann also: 128
»das das Das Das geschrieben werden soll«, die Konjunktion wie der Artikel und das Pronomen. Für diesen Vorschlag spricht, daß damit eine der de facto häufigsten Fehlerquellen beseitigt wäre. Gegen ihn spricht, was die Volkserzieher unter den Reformkritikern immer wieder vorbringen: daß damit die Notwendigkeit entfiele, beim Schreiben eine grammatische Entscheidung zu treffen, daß also das Sprachgefühl der deutsch Schreibenden geschwächt würde. Gegen dieses Argument aber spricht auch etwas. Es verkennt die Natur der Sprachbeherrschung. Sie besteht jedenfalls nicht darin, bewußt grammatische Kategorien zu erkennen oder grammatische Regeln anzuwenden. Dagegen spricht auch, daß kultivierte andere Sprachen sehr gut ohne eigenes Wort für die Konjunktion daß auskommen (ehe, que, that, tschto). Alles in allem scheinen mir die Gründe für die Umwandlung von daß in das zu überwiegen; verwirrende Fälle wie daß das Daß Das kommen normalerweise nicht vor. Keinesfalls dürfte die ganze Reform an dieser delikaten Frage scheitern. Tot, ehe sie auch nur förmlich empfohlen werden konnte, ist auch die Kleinschreibung der Substantive. Um nicht schlafende Hunde zu wecken, sollte die ganze Frage der Groß- und Kleinschreibung warten. Ungefragt aber hat die Kommission ihren Empfehlungen zwei Gutachten aus dem Jahre 1982 beigegeben. Das eine stammt von der Gesellschaft für deutsche Sprache und plädiert dafür, die Großschreibung der Substantive mit einigen Modifikationen beizubehalten. In dem anderen plädiert eine 129
internationale Expertenkonferenz für die sogenannte gemäßigte Kleinschreibung – und die Empfehlungen »Zur Neuregelung der deutschen Rechtschreibung« lassen keinen Zweifel daran, daß sie selber diesem Gutachten zuneigen. Auch das alarmierte die Kultusminister. Als sie die Vorschläge zur Wortschreibung von vornherein ablehnten, verwarfen sie gleichzeitig auch die gemäßigte Kleinschreibung. »Gemäßigte Kleinschreibung« ist ein Euphemismus. Das einzige Gemäßigte an ihr ist, daß sie sich nicht zu der Absurdität versteigt, die Großbuchstaben ganz abschaffen zu wollen. Aber käme sie, so würden nur noch Satzanfänge und Eigennamen groß geschrieben, alles übrige klein. Viele Sprachwissenschaft ler sind seit anderthalb Jahrhunderten dafür; heute wahrscheinlich eine Mehrheit unter ihnen. Denn einzig die Abschaffung der eigentümlichen deutschen Hauptwortmajuskeln würde es erlauben, die neben der Getrennt- und Zusammenschreibung problematischste Zone der deutschen Rechtschreibung mit einem Schlag zu entrümpeln; die Zone all jener Wörter, denen man nicht sicher ansehen kann, ob sie noch oder schon wirkliche Substantive sind. Hier herrschen wüste Zustände. Es heißt Autofahren, aber radfahren; Ski laufen, aber eislaufen. Wer sich das endlich gemerkt hat, ist aber noch keineswegs gegen Fehler gefeit. Es heißt nämlich Auto und radfahren, aber rad- und Auto fahren; und es heißt er läuft eis (lächerlich, aber wenigstens konsequent, denkt man), aber er fährt (oder schlägt) Rad (auch lächerlich, weil es inkonsequent ist). Man steht auf dem 130
Trocknen, aber sitzt auf dem trocknen. Man tut ein Gleiches, aber das gleiche. Man macht Pleite, aber geht pleite. Man behält recht, aber hält etwas für Rechtens. Man hat Angst, aber macht jemandem angst. Man hält Diät, aber lebt diät. Man schreibt: derartiges, aber etwas Derartiges; alles mögliche (im Sinn von »allerlei«), aber alles Mögliche (alles, was möglich ist) oder alles Erdenkliche; Karl ist der einzige, aber unser Einziger; im ganzen, aber ums Ganze; das Geringste, was man tun kann, aber das wenigste … Kein Mensch beherrscht alle diese Vorschriften, zumal da man sie dauernd »falsch« geschrieben sieht – denn selbst Profis machen hier Fehler zuhauf. Hier wäre eine Reform dringender nötig als in allen anderen Bereichen. Und die einzige Maßnahme, die das Problem wirklich auf einen Schlag löste, hieße: alles klein. Wagte die Orthographie den Sprung, so sähe hinterher vermutlich alles nur halb so schlimm aus. 1948 führte Dänemark eine Orthographiereform durch und schaffte unter anderem die Großschreibung der Substantive ab. Damals wurden dort die gleichen Befürchtungen laut wie heute in Deutschland; vor allem die vor einem drastischen Traditionsbruch. Sie bewahrheiteten sich nicht. Ernst Dittmer, Germanist an der Universität Aarhus, berichtet: »Außerhalb der Schule stieß die Reform auf starken Widerstand von seiten sprachlich konservativer Kreise, aber im folgenden Jahrzehnt drang sie in der ganzen Presse durch. Zu einem Bruch mit der Schreibtradition hat sie nicht geführt, und ältere Texte wirken kaum altmodisch, noch sind sie in nennenswertem Grad schwerer lesbar. Altere Literatur wird zum Teil noch in der älteren Orthogra131
phie gedruckt. Für den Lesenden hat die Reform kaum Vorteile oder Nachteile gebracht, für den Schreibenden dagegen erhebliche Vorteile, da er nicht mehr zu überlegen braucht, ob ein Wort Substantiv ist oder nicht.« Auf die Majuskeln wäre natürlich leichter zu verzichten, wenn sie tatsächlich nur der typographische Bombast einer fernen Epoche wären und keinen praktischen Nutzen hätten. Nun haben Experimente tatsächlich gezeigt, daß deutsche Leser, die mit den Majuskeln groß geworden sind, Texte mit Großschreibung leichter und lieber lesen. Das aber beweist für deren Nutzen noch herzlich wenig; es beweist zunächst nur, daß jeder alles am liebsten und leichtesten so liest, wie er es gewöhnt ist. Am Max-Planck-Institut für Psycholinguistik in Nijmegen fand indessen eine Pilotstudie statt, die demonstrierte, daß die Großschreibung auch dem Leser, der sie nicht gewöhnt ist, von Nutzen sein mag. Mehreren Holländern gab ein Forscherteam niederländische Texte mit und ohne Großschreibung zu lesen. Jene mit Großschreibung wurden schneller gelesen – obwohl diese Form im Niederländischen doch völlig ungewohnt war! Wie konnte das sein? Haben die Majuskeln der Substantive etwas, das das Lesen leichter macht? Wir lesen nicht mit einer kontinuierlichen Augenbewegung über die Zeile hinweg, wir lesen in Sprüngen (Sakkaden): Dreibis fünfmal pro Sekunde springt das Auge weiter, um für die Dauer von 200 bis 250 Millisekunden jeweils fünf bis sieben Buchstaben scharf und die folgenden fünf bis sieben weniger scharf zu fi xieren; bei jeder Fixierung liest man also ein bis drei Wörter. Nur während dieser Fi132
xationen wird das Geschriebene aufgenommen. Bei jenem Experiment nun zeigte es sich, daß die Texte mit Großschreibung darum schneller gelesen wurden, weil die Leser mit kürzeren Fixationen auskamen. Entweder, so vermuten die Autoren, enthält das großgeschriebene Substantiv zusätzliche Informationen, die eine schnellere Verarbeitung erlauben. Oder man richtet die Weite des nächsten Augensprungs nach dem nächsten Großbuchstaben: Man hat ihn unscharf ja schon im voraus wahrgenommen und weiß, daß er ein wahrscheinlich wichtiges Inhaltswort einleitet. Sollte sich dieser Befund in einem größeren Experiment festklopfen lassen, so dürfte er alle Diskussionen um die gemäßigte Kleinschreibung ein für allemal beenden – so vermutet es Hartmut Günther, einer der Autoren. Denn dann wäre erwiesen, daß die geringe zusätzliche Mühe, die die Majuskeln dem Schreibenden machen mögen, durch eine erhebliche Erleichterung für den Lesenden mehr als wettgemacht wäre. Aber selbst dann, wenn sich keinerlei Nutzen nachweisen ließe, wird die Großschreibung nicht fallen; es ist politisch nicht durchsetzbar. Wird die Reform also nie bis zur heiklen Frage der Groß- und Kleinschreibung vordringen? Es wäre unverzeihlich, wenn nach hundert Jahren tatsächlich eine Reform der Orthographie zustande käme, der größte Mißstand aber, das Wirrwarr der vielen bald groß, bald klein geschriebenen Halb- und Pseudosubstantive, unangetastet bliebe. Also muß man zweierlei verlangen: daß die Kultusmi133
nister deutlich zu verstehen geben,» in welchem Umfang sie eine Reform der Groß- und Kleinschreibung (und auch der Wortschreibung) zumindest ernsthaft in Erwägung zu ziehen bereit sind. Und daß sich dann die Experten noch einmal hinsetzen und den Kopf darüber zerbrechen, welche Teile der Empfehlungen zur Wortschreibung sie weiter vertreten und beraten wollen – und vor allem, ob sich nicht trotz beibehaltener Großschreibung die leidige Willkür im Dickicht der Halb- und Pseudosubstantive auf ein erträglicheres Maß zurückstutzen läßt. Die Jahrhundertreform soll zwar niemanden allzu sehr vor den Kopfstoßen; aber sie soll ihren Namen auch verdienen. Die nächste gäbe es dann erst wieder im zweiundzwanzigsten Jahrhundert. Wichtiger als jede einzelne Regelung aber wäre zunächst etwas Allgemeineres. Auf der politischen Ebene muß entschieden werden, wer in Zukunft in Sachen Rechtschreibung das Sagen haben soll – nicht nur das eine Mal, bei der in Aussicht genommenen Reform, sondern überhaupt. Denn die Probleme der Orthographie lassen sich nicht ein für allemal lösen; sie braucht ständige Überlegungen, Entscheidungen, Eingriffe. Soll nach der Reform alles wieder dem »Duden« überlassen werden? Wollen sich die Kultusminister selber immer wieder einzelner Rechtschreibungsfragen annehmen? Soll irgendein Gremium ins Leben gerufen werden, das die Entwicklung der Sprache verfolgt und die nötigen Entscheidungen vorbereitet oder selber treffen darf? Wie soll es zusammengesetzt sein? Wie können die nötigen internationalen Abspra134
chen herbeigeführt werden? Eine Willensbildung in diesem Punkt wäre wichtiger und dringender als jede Frage, ob man Dämmer Demmer schreiben soll. Wer also soll hinfort bestimmen dürfen, wie das Deutsche zu schreiben ist? Man kann die Frage auch in einer Form stellen, die sie garantiert unlösbar macht: Wem gehört das Deutsche? Am schärfsten hat wohl Johannes Gross der Rechtschreibreformkommission jegliche Kompetenz abgesprochen. Er veröffentlichte in der ›FAZ‹ Teile aus einem Brief, den er dem bayerischen Ministerpräsidenten geschrieben hatte, mit der Bitte, der möge doch ein Machtwort sprechen: »Ein kräftiges Wort von Ihnen, und es ist mit dem Spuk vorbei.« Franz-Josef Strauß kam nicht mehr dazu. Dies ist, was Gross ihm unterbreitet hatte: »Der neueste Vorstoß dieser Menschen ist weniger radikal, aber genauso verwerflich wie die vorhergehenden. Es ist nicht erforderlich, in die Erörterung des Wertes einzelner Vorschläge einzutreten, der von diskutabel bis fragwürdig reicht. Verächtlich ist die Überzeugung, auf der diese regelmäßig auftretenden Peinigungen der Öffentlichkeit beruhen: die Meinung, Schrift und Sprache stünden zur Disposition von Manipulatoren, die einen Auftrag von Unterrichtsministern oder wem auch immer haben. Sie werden vielleicht nicht meine Auffassung teilen, daß auch den Kultusministern selbst eine solche Disposition nicht zusteht, sondern daß auch sie im Schulunterricht den überkommenen kulturellen Bestand zu respektieren haben, weil nur die communis opinio im Gefolge der edelsten Geister der deutschsprechenden Völker solche Veränderun135
gen bewirken darf. Es genügt zum Beleg, die Reformwut der Kommissionen, die ohne die edelsten Geister auskommen, wahrzunehmen. Unsere Sprache ist von dem Reformator, von Dichtern und Philosophen, von gebildeten Soldaten, von Wissenschaft lern vieler Disziplinen entwickelt, gefördert worden; eine besonders erhabene Rolle der Germanistik ist nicht auff ällig gewesen.« Nicht Germanisten, nicht Kultusminister, folgte man Gross; allenfalls die »edelsten Geister«, und dann ein Plebiszit, und eigentlich niemand … In der Tat, die Sprache »gehört« keiner Kommission. Sie gehört auch den Linguisten und Germanisten und den Ministern nicht. Sie gehört noch nicht einmal den »edelsten Geistern«, wer auch immer sie dazu ernennt. Sie gehört selbst Johannes Gross nicht und nicht einmal der ›FAZ‹. Die Sprache gehört niemandem und allen. Aber niemand und alle – das ist kein Subjekt, das auch nur die bescheidenste Entscheidung treffen könnte. Wenn wir überhaupt eine Orthographie wollen, sind hier jedoch laufend Entscheidungen zu treffen. Unsere heutige Rechtschreibung als Ganzes ist mitnichten ein »überkommener kultureller Bestand«, etwas zeitlos Heiliges, an dem sich bisher niemand je vergriffen hätte und zur Zeit noch niemand vergreift. Sie ist das widerspruchsvolle Werk vieler Schreiber, einem öffentlichen Bedürfnis entsprechend in einheitliche Form gebracht von ein paar Germanisten, von Kultusministern zur Norm erhoben und seitdem von den Redakteuren eines Buchverlags, wiederum Germanisten, nach eigenem Gutdünken aktualisiert, modifiziert, erweitert. Daß die Sprache nie136
mandem gehöre, ist als Gemeinplatz richtig, als Aussage über die Orthographie aber falsch. Über diese disponierte und disponiert, auch über die staatlich sanktionierten Richtlinien von 1901 hinaus, de facto und de iure der »Duden«. Sie regelt sich nicht von allein; jemandem muß sie zur Disposition stehen. Dem Buchverlag, der heute über sie bestimmt, ist kein Vorwurf zu machen. Er hat sich bemüht, verantwortungsvoll für Ordnung zu sorgen, aber im Laufe der Jahrzehnte hat er auch einiges an Willkür und viele, viele Zumutungen verbindlich gemacht, die keinerlei Schutz und Respekt verdienen. Daß niemand über die Sprache und auch nicht über ihr Teilgebiet Rechtschreibung verfügt, ist eine Fiktion, die die Existenz jener längst bestallten »Manipulatoren« geflissentlich übersieht und praktisch darauf hinausläuft, jede Entscheidung des »Duden« umstandslos zum ewigen »kulturellen Bestand« zu erklären. Ob eine Kommission von Germanisten legitimiert ist, die Orthographie zu reformieren und dann laufend anzupassen, ist trotzdem eine berechtigte Frage. Jemand muß es tun; und wenn niemandem ein öffentlicher Auftrag dazu erteilt wird, dann geschieht es ohne den, von allein. Ich glaube nicht, daß ein Gremium aus edlen Geistern – praktisch hieße das heutzutage: aus prominenten Repräsentanten der »gesellschaft lich relevanten« Organisationen, die sich untereinander um Machtworte bitten – einer Linguistenkommission überlegen wäre. Es kommt bei der Regelung von Rechtschreibfragen nicht darauf an, eigene Vorlieben glaubensstark zu glorifizieren und 137
alles, was einem nicht auf Anhieb zusagt, als verwerflich und verächtlich zu verdammen. Es kommt vor allem darauf an, die systemischen Zusammenhänge jedes Eingriffs frühzeitig vorherzusehen und zu überdenken. Das aber erfordert eine Menge Erfahrungswissen und mühsamster Kleinarbeit, die ein Gremium erlauchter Geister schwerlich aufbrächte. Regelung muß leider sein und geschieht sowieso. Ich meine, bei einem Gremium von Sprachwissenschaft lern liegt sie nicht in der schlechtesten Hand. Sachverständige erarbeiten Vorschläge, die Öffentlichkeit diskutiert sie, Politiker entscheiden, Sachverständige setzen die Entscheidungen um … Allerdings, so waltete nicht der hehre Geist der Sprache selber. Es wäre nur eine erprobte demokratische Art, wo dem gesellschaftlichen Miteinander ein paar Regeln vorgegeben werden müssen.
138
72 Fehler In den folgenden Sätzen sind 72 Wörter falsch – das heißt »Duden«-widrig – geschrieben. Wahrscheinlich ist niemand in den deutschsprachigen Ländern imstande, sie ohne Blick in den »Duden« alle zu finden. 1. Irgendjemand fletzte sich auf dem Divan neben dem Büffett, ein anderer räkelte sich rhytmisch auf der Matraze, ein Dritter plantschte im Becken. 2. Man stand schlange und Kopf, lief Ski und eis, wollte Rad und Auto fahren, und wer Diät gelebt und Hausgehalten hatte, hielt jetzt Hof. 3. Auf gut Deutsch heißt das, die lybische Firma hat pleitegemacht, aber die selbstständigen Mitarbeiter konnten ihre Schäfchen ins Trockene bringen. 4. Alles Mögliche deutet daraufhin, daß sich etwas ähnliches widerholen wird, obwohl alles Erdenkliche getan wurde, etwas derartiges zu verhindern und alles zu anullieren. 5. In einem nahegelegenen Haus fand der Fotograph das nächst gelegene Telefon, im Portemonaie den nummerierten Bon. 6. Im Zenith ihres Rums wagten sie die Prophezeihung, man werde trotz minutiöser Prüfung weiter im Dunkeln tappen und aufs beste hoffen, und in soweit werde alles beim Alten bleiben. 7. Auch wer aufs ganze geht und überschwänglich sein bestes tut, tut manchmal Unrecht, hält es aber gern für rechtens. 139
8. Er war stattdessen disperat bemüht, den zugrunde liegenden Konflikt – also den Konflikt, der ihrem Dissenz zugrundeliegt und allen Angst macht – zu entschärfen, und infolge dessen kam er mit allen ins Reine. 9. Wie kein Zweiter hat sich der Diskutand dafür starkgemacht, auch die weniger brillianten Reflektionen der Koryphähen ernstzunehmen. 10. Daß es nottut, alles wieder instandzusetzen, darf ein Einzelner nicht infrage stellen. Worttrennungen: Exa-men; Ex-otik; Hek-tar; ig-noriert; Lan-dau-er; Li-no-le-um; Psy-cha-go-ge; psy-chia-trisch; Psy-cho-lo-ge; pä-da-go-gisch; pä-do-phil; Päde-rast; Sow-jet; Sy-no-nym. Diesen Text haben wir einige Male diktiert. Das Experiment ging aus wie erwartet. Niemand konnte ihn fehlerfrei schreiben. Jene Versuchskaninchen, die nicht von Berufs wegen mit Texten umgehen, machten im Durchschnitt 44 Fehler; Deutschlehrer 39; und Berufskorrektoren auch noch 16. (Als der Autor, der diese Texte zusammengebaut hatte und mit ihren Tücken also vertraut war, sich den Text nach einigen Wochen selber diktieren ließ, machte er auch wieder 11.) Je professioneller die Schreiber, um so weniger Fehler machen sie bei den Wortschreibungen. Im Bereich der Getrennt- und Zusammenschreibung und der Groß- und Kleinschreibung aber, diesen beiden Hauptproblemzonen der deutschen Orthographie, kapitulieren auch Profis vor der Willkür. Nach Berichtigung der 72 Fehler müßte der Text folgendermaßen aussehen: 140
1. Irgend jemand fläzte sich auf dem Diwan neben dem Büfett [Büffet], ein anderer rekelte [räkelte] sich rhythmisch auf der Matratze, ein dritter planschte im Becken. 2. Man stand Schlange und kopf, lief Ski und eis, wollte rad- und Auto fahren, und wer diät gelebt und hausgehalten hatte, hielt jetzt hof. 3. Auf gut deutsch heißt das, die libysche Firma hat Pleite gemacht, aber die selbständigen Mitarbeiter konnten ihre Schäfchen ins trockene bringen. 4. Alles mögliche deutet darauf hin, daß sich etwas Ähnliches wiederholen wird, obwohl alles Erdenkliche getan wird, etwas Derartiges zu verhindern und alles zu annullieren. 5. In einem nahe gelegenen Haus fand der Fotograf [Photograph] das nächstgelegene Telefon [Telephon], im Portemonnaie den numerierten Bon. 6. Im Zenit ihres Ruhms wagten sie die Prophezeiung, man werde trotz minuziöser [minutiöser] Prüfung weiter im dunkeln tappen und aufs Beste hoffen, und insoweit werde alles beim alten bleiben. 7. Auch wer aufs Ganze geht und überschwenglich sein Bestes tut, tut manchmal unrecht, hält es aber gern für Rechtens. 8. Er war statt dessen desperat bemüht, den zugrundeliegenden Konflikt – also den Konflikt, der ihrem Dissens zugrunde liegt und allen angst macht – zu entschärfen, und infolgedessen kam er mit allen ins reine. 9. Wie kein zweiter hat sich der Diskutant dafür starkgemacht, auch die weniger brillanten Reflexionen der Koryphäen ernst zu nehmen. 141
10. Daß es not tut, alles wieder instand zu setzen, darf ein einzelner nicht in Frage stellen. Worttrennungen: Ex-amen; Exo-tik; Hekt-ar; igno-riert; Land-au-er; Lin-ole-um; Psych-ago-ge; psych-ia-trisch; Psy-cho-lo-ge; päd-ago-gisch; pä-do-phil; Päd-erast; Sowjet; Syn-onym.
EIN A IST KEIN A IST KEIN A Die Maschine als Leserin
Bedarf für einen Computer, der Geschriebenes lesen könnte, war sehr früh da. In einer Massengesellschaft gibt es endlose Papierströme zu sortieren, gibt es Berge von Buchungsbelegen und überhaupt Daten jeder Art irgendwo einzutragen. Immer geschickter verwalteten Computer immer größere Datenmengen. Aber diese mußten durch einen Flaschenhals: Jemand hatte sie den Rechnersystemen Zeichen für Zeichen einzutippen. Gesucht waren also Maschinen, die etwa ein bereits irgendwo und irgendwie geschriebenes A als den Buchstaben erkennen konnten, der es in unserer Konvention ist; und die sich dann selber die endlosen Datenfluten der verwalteten Welt einläsen. Die Aufgabe hat einen internationalen Namen: Optical Character Recognition (optische Schriftzeichenerkennung), kurz OCR. Für jede OCR braucht der Computer zunächst einen »Sehapparat«, um sich im Wortsinn ein Bild von den betreffenden Zeichen zu machen. Ein solcher Apparat ist der Scanner – ein optischer Abtaster. Der Scanner wirft einen feinen Lichtstrahl auf jeden Punkt des Papiers. Ist es an einem Punkt weiß, so wird das Licht reflektiert, und eine Photodiode des Scanners registriert den Reflex; sie meldet: An Punkt soundso ist nichts (o). Ein schwarzer Punkt dagegen verschluckt das Licht, es kommt kein Reflex zurück, und der Scanner vermeldet: An Punkt soundso ist etwas (1). Dergestalt wird die gesamte Seite Bildpunkt für Bildpunkt, Pixel für Pixel ab145
getastet, ein Vorgang, der bei besseren modernen Scannern keine fünfzehn Sekunden mehr dauert. Es ist, als legte man einen Raster, ein Gittersieb über eine Vorlage und notierte dann, in welchen Maschen etwas ist und in welchen nichts. Je weiter die Maschen, desto schneller ist man mit der Arbeit fertig, desto gröber aber auch wird das Bild. Vom Kunstdruck her ist uns allen geläufig: Je feiner eine Abbildung wirken soll, desto kleiner muß ihr »Korn« sein, in desto mehr Punkte muß sie »aufgelöst« werden; das große Raster des Zeitungsdrucks liefert gröbere Bilder als die kleinere, kaum erkennbare Rasterung eines guten Kunstdrucks. Für die Zeichenerkennung ist eine Auflösung von mindestens dreihundert Punkten pro Zoll (300 dpi) nötig, zwölf pro Millimeter; Schriften unterhalb einer Größe von acht typographischen Punkten brauchen höhere Auflösungen. Das Scanner also »digitalisiert« die Vorlage: Er liefert für jedes Pixel eine Ja/Nein, eine 1/0-Information, und zusammen ergibt das die sogenannte Bitmap. Aus ihr könnte der Computer die Vorlage rekonstruieren, sie am Bildschirm oder mit Hilfe eines Druckers oder Plotters nachzeichnen. Von einer »Erkennung« der einzelnen Zeichen ist er damit aber fast noch so weit entfernt wie vorher. Die Vorlage ist für ihn bisher nichts anderes als eine »Grafik«, eine Anordnung von Strichen und Schnörkeln auf einem andersfarbigen Untergrund. Die Fähigkeit, bestimmte Striche und Schnörkel als bestimmte Zeichen zu deuten, ist ihm mit dem Digitalisieren noch nicht gegeben. Mit ihr erst beginnt die OCR. 146
Das Grundproblem besteht darin, daß die Sprachzeichen, die der Computer antrifft, nie so völlig eindeutig sind, wie er es gern hat. Wird seine als a definierte Taste soundso angeschlagen, so ist das für ihn ein a – das heißt, eine bestimmte Zahl, die einzig und allein a bedeutet und nichts anderes. Trifft er aber auf irgendein Muster, ein grafisches oder ein lautliches, so besteht eine solche Eindeutigkeit nicht. Der Computer ist nie von vornherein sicher, sondern muß das Muster nach irgendwelchen ausdrücklichen Kriterien interpretieren. Oft kommen mehrere Interpretationen in Betracht. Dann muß er entscheiden, welche die wahrscheinlichste ist. In einer mehrdeutigen Situation eine Entscheidung zu treffen – der Vorgang heißt disambiguieren. Bei der Sprachverarbeitung – beim Schrift lesen wie bei der Spracherkennung – hat der Computer Muster für Muster zu disambiguieren. Bei jedem könnte er irren, heißt das – und er wird irren. Fragt sich nur, wie oft. Die nächstliegende Methode der Zeichenerkennung besteht in einem einfachen Mustervergleich (template matching). Ehe er an die Arbeit geht, werden die Buchstaben und Ziffern eines bestimmten Schriftalphabets einzeln gescannt; jedes Zeichen ergibt eine Bitmap, jeder Bitmap wird ein ASCII-Symbol zugewiesen, und so besitzt der Computer Definitionen der Zeichen eines bestimmten Schrifttyps – eine Schriftenbibliothek. (ASCII, das Akronym von American Standard Code of Information Interchange, ist der Zeichencode für Mikrocomputer, der zur internationalen Norm geworden ist. Da der Computer nur mit Zahlen und nicht mit Zei147
chen umgehen kann, benennt der Code jedes Zeichen mit einer Zahl: Insgesamt 256 alphanumerischen und einigen anderen Zeichen ordnet er eine Nummer zwischen o und 256 zu. Ein j etwa hat im ASCII-Zeichensatz die Nummer 106. Im Hexadezimalsystem, in dem Programmierer gern mit dem Computer verkehren, wird 106 als 6A geschrieben und in dem nur aus Nullen und Einsen bestehenden Binärsystem, in dem der Computer rechnet, als 1101010. Findet er in einem Byte seines Speichers, in dem er ASCII-Zeichen erwartet, eine 1001100 vor, das einer hexadezimalen 4C und einer dezimalen 76 entspricht, dann setzt eine vorgegebene Routine seines Bildschirmspeichers diese in eine Reihe von Bildpunkten um, die ein L ergeben, und der Drucker macht daraus sein jeweils eigenes L. Jede 0 oder 1 ist ein Bit. Acht Bits machen ein Byte, die elementare Speichereinheit eines Computers. Jedes Byte, in dem also acht Bits auf o oder 1 stehen können, kann auf 256 verschiedene Weisen mit Nullen und Einsen besetzt sein, kann also jede Zahl zwischen 0 und 256 – binär: zwischen 00000000 und 11111111 – ausdrücken. Daher die in der Praxis oft lästige Beschränkung des ASCII-Satzes auf 256 Zeichen: Ein Byte Speicherplatz reicht aus, jedes dieser Zeichen unterzubringen, und das beschleunigt die Arbeit des Computers, wenn er bei der Textverarbeitung ständig große Mengen von Zeichen aus einem Speicherbezirk in den anderen schaufeln muß. ASCII ist also ein Entgegenkommen an die innerste Beschaffenheit des Computers.) Beim Mustervergleich »betrachtet« der Computer die zu entziffernde Vorlage durch sein Scannerauge. Dabei 148
erhält er eine »Grafik«. Diese muß er segmentieren: muß Schrift von Nicht-Schrift trennen, Zeilen erkennen (und manche Druckschriften, bei denen Ober- und Unterlängen übereinanderstehender Zeilen ineinander ragen, machen ihm schon die Zeilenerkennung schwer), einzelne freistehende »Flecken« von Schwarz isolieren, die dann mutmaßlich einzelne Zeichen sind. Jede Bitmap eines solchen Flecks vergleicht er darauf Pixel für Pixel mit den Bitmaps der vorhandenen Zeichenkollektion. Das Muster, bei dem die größte Zahl von Pixeln übereinstimmt, wird genommen, der Rechner entscheidet: Der dritte Fleck von links ist ein A – und schon funktioniert der Klarschriftleser. So weit, so simpel. Tatsächlich arbeiten bis heute manche der billigeren OCR-Systeme nach der Methode des Mustervergleichs. Sie läßt sich in mehrerer Hinsicht verbessern. Vor allem können die isolierten Zeichen, die der Computer in der Bitmap ausmacht, zunächst auf eine Einheitsgröße verkleinert oder vergrößert (»normalisiert«) werden. Dann erkennt die Lesemaschine ein Zeichen auch dann, wenn es in seiner Größe – nicht aber in seiner Gestalt – von dem vorgegebenen Muster abweicht, bewältigt also auch die verschiedenen Größen, in denen eine bestimmte Schrift vorkommen kann. Trotzdem bleiben dem reinen Mustervergleich enge Grenzen gesetzt. Mit ihm erkennt der Computer immer nur eine ganz bestimmte Schrift, und schon die geringste Abweichung oder Verunreinigung oder Beschädigung eines Buchstabens wirft ihn aus der Bahn. Im Leben aber ist kaum eine Vorlage jemals perfekt, und es wimmelt von 149
verschiedenen Schriften. Ein A ist kein A ist kein A. Ein A in der Maschinen- und Druckerschrift Courier, Größe Pica, sieht anders aus als ein A der Druckerschrift Helvetica, und dies wiederum hat wenig greifbare Ähnlichkeit mit einem A der Alt-Schwabacher-Frakturschrift. Das A hat einfach keine bestimmte Form; es kann in unbegrenzt vielen Gestalten auftreten. Was dann ist ein A eigentlich? Es ist eine Idee. In seinem »Metamagicum« nennt Douglas Hofstadter es geradezu eine »platonische Wesenheit«, eine semantische Kategorie: »Mathematisch ausgedrückt, läuft das auf die Setzung hinaus, daß jede begriffliche (oder semantische) Kategorie eine produktive Menge ist« – nämlich eine Menge, »deren Elemente durch keinen Algorithmus vollständig aufgezählt werden können«. Es läßt sich kein Algorithmus finden, der sämtliche vorkommenden oder möglichen A’s beschriebe. So lange man auch suchte und sammelte, man hätte niemals sämtliche A’s beisammen. Oder: So lange man auch an den »Knöpfen« eines imaginären Schrifterzeugungsapparats drehte, von denen jeder irgendeinen »Parameter« verstellt, der eine die Größe, der andere die Strichstärke, der nächste die Serifen und so weiter – nie hätte man genug Parameter, um aus einer bestimmten einzelnen Schrift sämtliche anderen denkbaren Schriften abzuleiten. Aber wie erkennt der Mensch ein A als ein A, wenn es doch keine bestimmte Form hat? Der Mensch vergleicht es wahrscheinlich mit einem inneren prototypischen A, dem idealen A. Dieses ist nicht durch bestimmte Striche bestimmter Länge und Dicke und Richtung definiert, 150
sondern durch eine Reihe von Kriterien, denen es genügen sollte. Kaum eines dieser Kriterien trifft nur auf einen einzigen Buchstaben zu, und nicht alle Kriterien müssen immer erfüllt sein: Zwei schräge Balken hat neben dem A auch das X, einen Querstrich auch das H; andererseits müssen die beiden Balken nicht unbedingt schräg sein, sondern können auch gerade stehen, so wie sie sich nicht einmal unbedingt oben berühren oder unten offen sein müssen. Wenn wir nicht irgendein bestimmtes, sondern das A schlechthin visualisieren, sehen wir eine Form vor uns, wie wir sie in der Realität mit ihren Tausenden verschiedener A’s selten oder nie zu sehen bekommen: Sie hat keine bestimmte Größe und Strichstärke, sondern ist einfach eine besonders markante Sammlung aller entscheidenden Kriterien; am nächsten käme diesen prototypischen Formen wohl eine völlig schmucklose Groteskschrift wie die Helvetica. Wendete der Computer ein bestimmtes Muster von einem A auf die tatsächlich vorkommenden A’s an, so käme er immer wieder zu dem Schluß: das sei gar keines. Starrsinnig benennte er die Symbole der ähnlichsten Bitmaps, »erkennte« also die Zeichen schon, nur leider falsch. Das auf dem Mustervergleich beruhende OCR-System liest immer nur die Schriften, die ihm eigens beigebracht wurden, und das heißt in der Praxis auch: Es liest immer nur eine einzige Schrift gleichzeitig und scheitert an Vorlagen, in denen sich verschiedene Schriften mischen. Wo die Leute besonders deutlich schreiben sollen, auf Banküberweisungen etwa, werden ihnen Kästchen vorgegeben, die die Schrittweite von einem Buchstaben zum 151
152
153
nächsten und mit ihr die Grenzen zwischen den Zeichen festlegen. Auch bei gewöhnlichen Schreibmaschinenschriften wie der Courier oder der Prestige haben die Zeichen alle die gleiche Breite (»Dickte« in der alten deutschen Schriftsetzersprache). Bei solchen Schriften macht die Abgrenzung und Isolierung der einzelnen Zeichen dem Computer kaum Schwierigkeiten. Die vornehmeren Maschinen- und so gut wie alle Druckschriften aber sind weniger entgegenkommend. Es sind Proportionalschriften, Schriften also mit variablen Dickten: Ein w ist breiter als ein n und dieses breiter als ein i. Hier kann der Computer nicht in gleichen Schritten vorrücken. Er muß jedesmal bestimmen, wo ein Zeichen beginnt und aufhört. Wo liegt die Grenze? Wo ein senkrechter Strich aus nichts die Zeichen trennt. Mit dieser Regel lassen sich die Proportionalschriften der Schreibmaschine und der Drucker bewältigen – jedenfalls solange das Schriftbild so sauber ist, daß sich nebeneinanderstehende Zeichen nie berühren. Bei Druckschriften aber käme man mit dieser Regel nicht weit. Sie haben Ligaturen – bestimmte Buchstaben verschmelzen zu einem, etwa das fl oder das fi. Außerdem »unterschneiden« sich Zeichen manchmal: Das Schwänzchen des Q streckt sich unter das folgende u, das c ragt in das folgende h oder k hinein (»Kerning« heißt das auf Englisch und in der Sprache des Desk Top Publishing). Die Zahl solcher Fälle ist begrenzt und läßt sich für jede Schrift angeben, also ist das Problem zu bewältigen und erfordert nur einen gewissen zusätzlichen Trainingsaufwand. Nicht vorhersehbar aber sind die Schäden, die an je154
dem gedruckten oder geschriebenen Buchstaben auftreten können. Oft berühren sich zwei Zeichen (oder ihre gröberen Scannerbilder), obwohl sie es nicht sollten. Oft fehlt irgendein Teil eines Zeichens. Oft ist ein Zeichen irgendwo durchbrochen, manchmal so, daß der Computer es fälschlich für zwei Zeichen hält. Schon der mindeste Schmutz auf der Seite, die geringste handschrift liche Eintragung oder Markierung wirft den Computer beim Mustervergleich aus der Bahn. In den Anfängen der OCR blieb nur eines übrig: eine möglichst eindeutige Normschrift zu entwerfen und dem Computer nur diese zu lesen zu geben. Mitte der fünfziger Jahre einigten sich amerikanische Banken auf eine Magnetschrift namens MICR (Magnetk Ink Character Recognition). Sie bestand nur aus den zehn Ziffern und dazu vier Zeichen. Die magnetisierte Farbe wurde nicht optisch gelesen, sondern wie ein Tonband abgetastet, und das machte die Leseautomaten sehr zuverlässig; aber das ungeübte menschliche Auge wurde aus diesem Gestrichel nur schwer klug. Darum wurden Mitte der sechziger Jahre international zwei maschinenlesbare Schriften eingeführt, OCR-A (nur Großbuchstaben) und OCR-B (Groß- und Kleinbuchstaben), die nicht nur der Maschine, sondern auch dem menschlichen Leser entgegenkamen. Etwa auf den maschinenlesbaren Zeilen der Bankschecks stehen sie bis heute. Das eigentliche Ziel der OCR aber ist es, nicht nur ein paar eigens präparierte, sondern beliebige Schriften lesen zu können und damit der Schriften Vielfalt des Lebens gewachsen zu sein: dem Klarschrift leser mal eine Buch155
seite, mal einen lifestyle-mäßig aus zehn verschiedenen Schriften bestehenden Illustriertenartikel, mal den Computerausdruck einer Tabelle, mal eine uralte Schreibmaschinenseite zum Einlesen vorlegen zu können. Da hilft der Mustervergleich gar nicht weiter. Da muß der Computer Formanalyse betreiben. Die fortgeschrittenen OCR-Systeme heute tun es. Kein A zwar ist genau wie das andere, und einige sind höchst extravagant und in keiner Weise vorherzusehen. Aber das Gros aller großen A’s, die in der Mehrheit aller Schriftstücke vorkommen, hat doch eine Reihe von Charakteristika gemein, an denen sie sich mit einiger Sicherheit identifizieren lassen. Jedes Softwarehaus, das sich auf diesem Gebiet versucht, hat seine eigene Methode der Formanalyse. Am häufigsten ist irgendeine Art von Feature-Analyse. Die Muster werden abgefragt, etwa so: Wie viele freie Endpunkte, wie viele Schnittpunkte, wie viele Ösen, wie viele konvexe Bögen, wie viele konkave hat das betreffende Zeichen? Auf jede dieser Fragen gibt es eine Antwort, und alle Antworten hintereinander bilden dann den Code des Zeichens – beim A wäre es in diesem (stark vereinfachten) Fall die Zahl 3-3-1-0-0, beim relativ ähnlichen H aber 4-2-0-0-0, beim a 2-2-1-1-0. Die Merkmale sollten so gewählt sein, daß jede Codezahl nur auf einen einzigen Buchstaben, aber in allen seinen gängigen Varianten zutrifft. Aber es gibt auch originellere Arten der geometrischen Beschreibung, etwa die Winkelschnittanalyse, bei der der Computer gedachte Parallelen schräg durch das Muster legt und die Winkel berechnet, unter denen 156
diese Linien die Striche des Zeichens schneiden. Auf jede dieser Weisen kann sich der Computer von den starren vorgegebenen Schablonen freimachen und eine beträchtliche Flexibilität gewinnen. Neue Schriften müssen ihm dann nicht von Grund auf antrainiert werden; auf alle wendet er von vornherein an, was er über die abstrakte Gestalt eines bestimmten Zeichens weiß. Auch die raffinierteste Formanalyse bewahrt ihn nicht vor Fehlern. Vor jedem sehr schadhaften Zeichen muß er ebenso kapitulieren wie vor den phantasievolleren Druckschriften oder vor auch nur der kleinsten handschrift lichen Eintragung. Leicht verwechselt er das S und die 5, das Z und die 2, das i, 1, t und die 1, das g und das q, das m mit einem rn, und um das O von der o zu unterscheiden oder das Schreibmaschinen-l als Buchstabe von dem gleichen Zeichen als Ziffer 1, nützt ihm die ganze Formanalyse nichts. Solche Mehrdeutigkeiten kann er nur lösen, wenn ihm außerdem »Wissen« zur Verfügung steht – etwa das Wissen, daß ein Oval vor Buchstaben wahrscheinlich ein O sein wird, neben Zahlen aber eine Null. Fehler hin oder her: Jedenfalls ist die OCR-Technik heute weit genug entwickelt, um sie in großem Stil einzusetzen. Banken, Verwaltungen verwenden Formularleser, die je nach Umfang 450 bis 900 Formulare die Stunde bewältigen, ohne jedes Training sämtliche Maschinen- und Druckerschriften, sogar Handblockschrift. Wo sie ihrer Ergebnisse nicht völlig sicher sind, geben sie sie an den Bildschirm weiter; dort werden sie kontrolliert und notfalls ergänzt oder berichtigt. 157
In den großen Postämtern der Bundespost sortieren Maschinen einen großen Teil der ausgehenden Briefpost – jene 30 bis 45 Prozent, die die normalen Formate einhalten und Adressen in Maschinen- oder Druckerschrift tragen, vor allem also jene Briefe, die Versicherungen, Banken, Versorgungsunternehmen, Versandhäuser ihren Kunden zu schicken pflegen und lastwagenweise anliefern. Der Anschriftenleser sucht sich den linkesten Punkt der untersten Zeile und liest dort Postleitzahl und Ort. Während der Brief schon weiter flitzt, prüft ein Rechner, ob Postleitzahl und Ort zueinander passen – der ausgeschriebene Ortsname dient sozusagen als Plausibilitätsprüfung für die Postleitzahl. Paßt beides zusammen, so wird dem Brief, wenn er die Maschine nach einigen Warteschleifen dreieinhalb Sekunden später verläßt, ein kaum sichtbarer fluoreszierender orangefarbener Strichcode mit der Postleitzahl aufgedruckt, anhand dessen eine zweite Maschine dann die Feinsortierung besorgt. Passen sie nicht zusammen, schießt er in ein Sonderfach und kommt in die Handsortierung. Eine Sortiererin braucht mindestens zwei Sekunden, einen Brief ins richtige Fach zu stecken; die Maschine schafft mehr als acht pro Sekunde, 30 000 in der Stunde. Nur 2 Prozent der Anschriften kann die Maschine nicht entziffern, und die Fehlerquote liegt bei bloßen 0,3 Prozent. Jeder 333. Brief wird von ihr ins falsche Fach dirigiert und geht dann erst einmal in die Irre. Bei bestimmten Anwendungen also funktioniert die OCR heute durchaus und ist gar nicht mehr wegzudenken. Es sind auch keine großen Spezialmaschinen mehr 158
vonnöten: Jeder bessere PC läßt sich heute mit OCR ausrüsten. Man darf nur nicht erwarten, daß sie fehlerfrei arbeitet. Wenn die Marketingstrategen mancher OCRSysteme für den PC behaupten, bei ihnen läge die Trefferquote bei 99,9 Prozent oder darüber, so kann man sich darauf verlassen, daß sie übertreiben. Füttert man der Maschine Laserausdrucke in höchster Qualität und in einer Schrift, die sie bestens beherrscht (sei es, daß sie ihr antrainiert wurde, sei es, daß sie sie selber erlernt hat), dann kann es vorkommen, daß ihre Trefferquote an die 100 Prozent heranreicht. Im Leben kommen solche optimalen Vorlagen nur sehr selten vor; fast jede ist in irgendeiner Hinsicht »suboptimal«. Enthält der Text irgendwelche erschwerenden Charakteristika, mit denen das betreffende System seine besonderen Schwierigkeiten hat – seltene Zeichen, Kapitälchen, kursive und fette Schrifttypen-Varianten, Unsauberkeiten –, so schnellt die Fehlerquote sofort enorm in die Höhe; im äußersten Fall kann es vorkommen, daß kaum ein Zeichen richtig erkannt wird. Auch die besten und teuersten Systeme machen noch einige Zehntelprozent Fehler. Ganz unbeaufsichtigt kann man sie ihr Werk nur tun lassen, wo es auf hundertprozentige Richtigkeit auch nicht ankommt. Und das kann man so oder so sehen. Was zu 99 Prozent stimmt, ist natürlich ziemlich richtig. Ein Silbentrennprogramm mit einer Fehlerquote von 1 Prozent macht im Deutschen mit seinen relativ langen Wörtern und entsprechend vielen Worttrennungen einen Trennfehler etwa alle sechs Buchseiten und verdient damit das Prädikat »passabel« – und »gut«, wenn es erlaubt, alle etwaigen 159
falschen Trennungen leicht aufzuspüren, und sie sich für alle Zukunft merkt. Liest die Maschine aber von hundert Zeichen eines falsch, heißt das, daß sie alle anderthalb Zeilen einen Fehler macht – und wenn jeder dieser Fehler während des Erkennungsvorgangs korrigiert oder hinterher von Hand herausgefischt werden muß, wäre die Seite genauso schnell neu geschrieben. Vielleicht gelingt es mit großem Aufwand, die Trefferquote noch um einige Zehntelprozent zu steigern. Das Vertrackte und eigentlich Seltsame ist aber, daß der lesende Computer damit an seine Grenze gestoßen sein dürfte. Viel weiter kommt er auf diesem Weg nicht. Vor allem ist heute überhaupt nicht daran zu denken, ihm das Lesen von Handschriften zu überlassen: Deren im Wortsinn unberechenbarer Variabilität ist er in keiner Weise gewachsen. Eine Verbesserung der Mustererkennung ist möglicherweise von einer späteren Soft ware-Generation zu erwarten, die das Prinzip der »Neuronalen Netze« nutzt. Das Neuronale Netz ist ein Versuch, einige Aspekte der Gehirnarchitektur auf dem Computer nachzuahmen. Das Gehirn besteht aus Neuronen, etwa fünfundzwanzig Milliarden an der Zahl, von denen jedes mit bis zu zehntausend anderen verbunden ist. Jedes empfängt Impulse von anderen Neuronen, summiert sie und gibt, wenn ein bestimmter Schwellenwert erreicht ist, selber Impulse an die Neuronen einer nachgeordneten Schicht ab; diese summieren die bei ihnen eingehenden Signale, und so fort, von Schicht zu Schicht. Die »Neuronen« der künstlichen Neuronalen Netze, mit denen heute experimentiert wird, sind Prozessoren (oder verhalten sich wie sol160
che). Sie sind ebenfalls in mehreren Schichten (mindestens zwei, meist nicht mehr als vier) angeordnet. Jedes von ihnen empfängt Signale von jedem Neuron der vorgeordneten Schicht, summiert sie, und sobald ein bestimmter Betrag voll ist, gibt es ein Signal an jedes Neuron der höheren Schicht weiter. Die Stärke der Signale, die es hinaufreicht, läßt sich verstellen – und darauf beruht die Lernfähigkeit eines solchen Netzes. Wie läßt es sich zur Mustererkennung anstellen? Wie bei der konventionellen Mustererkennung wird zunächst das Bild analysiert. Eine Methode besteht darin, ein imaginäres Gitter darüber zu legen. In jeder seiner Maschen sitzt sozusagen ein Neuron der Eingabeschicht. An Stellen, wo nichts ist, bleibt das Neuron still; wo etwas ist, »feuert« es. Was auf diese Weise nachgeahmt wird, ist nichts anderes als die Netzhaut des Auges, die ein dichtgepacktes Gitter von Neuronen ist. Von einem bestimmten Bild werden sie unterschiedlich stark erregt. (Eine andere Methode wäre, statt der Information über die einzelnen Bildpunkte in die Neuronen der Eingangsschicht Kurzformeln für den Aufbau des Bildes einzugeben, sogenannte Vektoren. Jeder von ihnen besagte dann etwa dies: An einem bestimmten Punkt des Bildes, definiert durch die Koordination soundso, verläuft ein Strich in die folgende Richtung.) Die Neuronen der höheren Schicht erhalten aber nicht alle das gleiche Signal von einem »erregten« Neuron; jedes Signal ist verschieden stark. Zunächst sind diese »Verbindungsgewichte« zufällig; die Lernphase besteht in ihrer Justierung. Wenn sie abgeschlossen ist, soll die Ausgabeschicht ein Erre161
gungsmuster aufweisen, das eine eindeutige Identifizierung des Eingabemusters erlaubt. In gewisser Weise lernt auch ein solches Neuronennetz die Erkennung und Bewertung von Features. Aber im Unterschied zur herkömmlichen Feature-Analyse werden ihm die Merkmale, die es aus einem Bild extrahieren soll, nicht vordefiniert. Es sucht sich selber jene, auf die es ankommt. Angenommen, ein Neuron der zweiten Schicht erhielte von einigen nebeneinanderliegenden Neuronen der ersten Schicht Signale, während ihm die unmittelbar danebenliegenden Neuronen melden, daß da nichts ist. Der Fall tritt etwa an den Kanten grafischer Zeichen ein. Ist es eine Kante, auf die es für die Identifizierung des Zeichens ankommt, so wird man die Gewichte der beteiligten Neuronen verstärken. Man legt dem Neuronalen Netz also eine Beispielsammlung vor, eine Reihe von ähnlichen Mustern, vielleicht hundert verschiedene große A’s, und verstärkt oder vermindert die zunächst nach dem Zufallsprinzip eingestellten Verbindungsgewichte innerhalb des Netzes so lange, bis das gewünschte Ergebnis da ist: ein eindeutiges Erregungsmuster in der Ausgabeschicht. (Es gibt auch Neuronale Netze, die von selber lernen, sich selber so lange umorganisieren, bis der gewünschte Ausgabewert erreicht ist.) Das Grundproblem der Zeichenerkennung räumt auch ein Neuronales Netz nicht aus: daß die Zeichen nicht invariant sind. Es muß ja nicht nur ein Zeichen in möglichst vielen seiner Abarten erkennen, es muß es auch von allen anderen Zeichen unterscheiden; und je unterschiedlichere Formen es als ein bestimmtes Zeichen identifiziert, de162
sto leichter wird es dieses mit anderen Zeichen verwechseln. Aber möglicherweise läßt sich mit seiner Hilfe die Lernphase vereinfachen und abkürzen; und möglicherweise geht es am Ende doch sicherer mit der Variabilität der Zeichen um. Beliebige Schriften, auch Handschriften, wird aber selbst das tüchtigste Neuronale Netz nicht entziffern können. Das Gehirn schafft es – und zwar darum, weil es beim Lesen gar nicht ausschließlich und durchweg auf die Analyse graphischer Muster angewiesen ist. Wie stark viele Schriftzeichen von ihrer idealen Form abweichen, wie mangelhaft sie sind, merken wir beim Lesen gar nicht; erst der Computer zeigt es uns, wenn er, allein auf ihre Form angewiesen, sie falsch interpretiert oder gar nicht erkennt. Dann plötzlich wird uns etwa klar, daß irgendein Buchstabe, den wir nie für etwas anderes als ein ü gehalten hätten, unten ganz eindeutig gebrochen ist, so daß er tatsächlich aussieht wie das ii, für das der Computer in seiner Einfalt ihn gehalten hat. Wie das? Wie macht es der Mensch, daß er sogar die »unmöglichsten« Schriften noch richtig entschlüsselt? Wie schafft es das lesegeübte Gehirn, das Schriftbild, so verschiedene Schriftbilder ohne bewußte Anstrengung in Bedeutung zu übersetzen? Was beim Lesen im Innern des Gehirns abläuft, weiß man längst nicht so genau, daß man versuchen könnte, es im Computer nachzubauen. Aber man weiß, daß das menschliche Geistesorgan jedenfalls nicht nur so liest wie die Maschine: von »unten« nach »oben«, geometrische Merkmale auffindend und zählend, Buchstaben entzif163
fernd. Es liest (und versteht Sprache überhaupt) gleichzeitig von oben nach unten: indem es sie »versteht«. Beim Lesen gleitet der Blick nicht etwa gleichmäßig von Zeichen zu Zeichen. Drei- bis fünfmal pro Sekunde springt er weiter, und bei jeder dieser »Sakkaden« (Sprünge) fi xiert er für 0,2 bis 0,25 Sekunden jeweils etwa zwölf Buchstaben – vier links, acht rechts vom Fixationspunkt, die Hälfte davon scharf, die andere Hälfte weniger scharf. Während des Springens wird gar nicht gelesen, sondern nur während der Fixationen. Die Sakkaden sind nicht alle gleich weit; vielmehr sucht sich der Blick von vornherein vielversprechende Fixationspunkte. Nie zum Beispiel werden Wortzwischenräume fixiert, und bevorzugt werden solche Wörter, die voraussichtlich Inhaltswörter sind. Rechts der scharfen Zone nämlich wird zwar noch nichts gelesen, aber die Umrisse der Wörter werden bereits erkannt, und danach kann sich dann die nächste Sakkade richten. Auch die Netzhaut des Auges löst das Bild auf – in die elektrischen Signale der einzelnen Sehzellen. Aber sie löst es feinkörniger auf als der feinkörnigste Scanner. Eine DIN-A4-Seite besteht für diesen aus insgesamt etwa neun Millionen Pixeln; wenn sie im Auge etwa ein Fünftel des gesamten Gesichtsfeldes einnimmt, erregt sie dagegen ein Fünftel der 126 Millionen Sehzellen – 25 Millionen. In Wahrheit sind es wesentlich mehr, denn in der Mitte der Netzhaut, mit der wir ein Blatt Papier beim Lesen fixieren, sind die Photosensoren dichter gepackt als an den Rändern. Die Sehzellen der Retina reagieren aber auch nicht nur, wie die Photodioden des Scanners, auf die An164
oder Abwesenheit von Licht an der betreffenden Stelle. Das gesehene Bild wird also nicht nur als eine bloße Verteilung von Helligkeiten über das Sehfeld verarbeitet – es wird von Anfang an interpretiert. Eine von starkem Licht erregte Photozelle hemmt die umliegenden Zellen, und das verstärkt alle Hell-Dunkel-Kontraste; schon das Auge betont also die Konturen der Dinge. In der Sehrinde im Hinterhaupt, in die die Reize aus der Retina weitergeleitet werden und in der ihre kortikale Verarbeitung beginnt, gibt es einen Zelltyp (die »einfachen« Zellen), der am stärksten auf Linien in einer bestimmten Raumlage reagiert; einen übergeordneten anderen (die »komplexen« Zellen), der am stärksten reagiert, wenn sich eine Linie einer bestimmten Raumlage in einer bestimmten Richtung bewegt; und ein dritter (die »hyperkomplexen« Zellen) reagiert dann am stärksten, wenn sich Linien und Winkel einer bestimmten Größe in einer bestimmten Richtung bewegen. Wenn man so will, ist also auch der Sehapparat von Anfang an ein Merkmals-Detektor – einer jedoch, der nicht speziell auf die geometrischen Merkmale von Schriftzeichen eingestellt ist, sondern für die gesamte sichtbare Welt gilt und ihr bevorzugt überlebenswichtige Informationen entnimmt, indem er Bewegungen und die Kanten der Dinge stark betont. Aus den wahrgenommenen Merkmalen »synthetisiert« der Sehapparat die graphischen Muster. In welchen Einheiten wir Schriftsprache im Gedächtnis speichern, ist nicht restlos geklärt. Die konventionelle Meinung lautet: Wir lesen Buchstaben, übersetzen sie uns im Kopf in Laute, fügen diese zu Wörtern zusammen und entnehmen 165
denen dann den Sinn. Seit Mitte des letzten Jahrhunderts hat aber auch die Wortbildtheorie ihre Anhänger. Sie gründet sich vor allem auf ein Experiment des amerikanischen Psychologen J. M. Cattell aus dem Jahr 1886. Er projizierte für jeweils eine Zehntelsekunde Schrift an die Wand: einmal mehrere Wörter, einmal gleich lange sinnlose Buchstabenfolgen. Danach sollten seine Versuchspersonen sagen, wie viele Buchstaben sie in Erinnerung behalten hatten. Im Falle der Wörter waren es zwölf bis fünfzehn, im Fall der Scheinwörter nur vier bis fünf. Es scheinen die Abbildungen ganzer Wörter zu sein, was unser Gedächtnis verwahrt – und was wir beim Lesen vergleichen und im Fall der Übereinstimmung erkennen. Die Wortbildtheorie behauptet also, im Gedächtnis seien visuelle Wortbilder gespeichert. Daraus wurde die Ganzheitsmethode im Lese- und Schreibunterricht abgeleitet; gelesen und geschrieben werden sollten immer nur ganze Wörter, um im Gehirn die richtigen Wortbilder zu erzeugen und zu konsolidieren. Beide Modelle vereinfachen wohl zu stark. Die Umwandlung in eine (innere) Lautsprache scheint nur hin und wieder nötig. Neben ihr gibt es, für geübte Leser zumindest, einen direkten Weg von den graphischen Zeichen zur Bedeutung, ohne Umweg über die Lautform des Gelesenen. So jedenfalls beschreibt Max Colthearts von vielen Forschern heute akzeptiertes »Zwei-ProzesseModell«, was beim Lesen vor sich geht. Weniger Einigkeit besteht bei der Frage, welches die Einheiten sind, in denen wir lesen – einzelne Buchstaben oder ganze Wörter oder etwas dazwischen. Wahrscheinlich gehen wir 166
gleichzeitig mit mehreren, hierarchisch gestaffelten Einheiten um: mit Merkmalen von Buchstaben, mit Buchstaben, mit Sprechsilben oder orthographischen Grundsilben oder Morphemen, die ihrerseits wieder aus zwei für die Verarbeitung wichtigen Teilen bestehen, dem – meist konsonantischen – Silbenanlaut und dem Silbenreim (St/ and), und schließlich mit ganzen Wörtern. Jedenfalls sind gute Leser eher in der Lage, Wörter beim Lesen in Silben zu gliedern. Gute Leser auch machen von dem Wissen Gebrauch, welche Buchstabenkombinationen in der betreffenden Sprache zulässig sind und wie häufig einzelne Buchstabenkombinationen vorkommen. Was im Gedächtnis gespeichert wird, sind – so meint die Leseforscherin Gerheid Scheerer-Neumann – wahrscheinlich keine visuellen Wortbilder, sondern vielerlei miteinander verknüpfte wortspezifische Informationen: die (wahrscheinlich abstrahierte) grafische Form des Wortes, deren lautliche und schreibmotorische Entsprechung, seine Bedeutung, seine emotionale Einfärbung. Die eigentliche »Erkennung« irgendeiner graphischen Einheit muß sich ähnlich abspielen wie beim Computer: indem ein wahrgenommenes Muster mit Mustern verglichen wird, die im Gedächtnis verankert sind. Sobald es mit einem dieser Gedächtnismuster übereinstimmt, ist es erkannt. Welcher Methode sich das Gehirn dabei bedient, ist nicht geklärt. Ein simpler Mustervergleich (template matching) scheidet aus, und zwar aus den gleichen Gründen, die ihn beim Computer zu einem so unflexiblen, wenig leistungsfähigen Verfahren machen: Es müßten zu viele Muster vorhanden sein und abgesucht 167
werden – funktionierte das Gehirn auf diese Weise, so könnte es zum Beispiel keine Form erkennen, wenn diese sich aus einem anderen Gesichtswinkel darbietet, denn das verändert sie ja: Wenn wir ein A senkrecht von oben sehen, hat es eine andere Gestalt als etwa beim schrägen Blick über die linke untere Seitenecke hinweg. Möglicherweise analysiert auch das Gehirn Unterscheidungsmerkmale. Es gibt experimentelle Hinweise darauf, daß es vor allem darauf achtet, ob ein Buchstabe gerade oder gebogene Elemente enthält; und ob ein Buchstabe eine Einschnürung oder einen Querstrich in der Mitte besitzt. Bei Schriftzeichen gelangte das Gehirn auf dem Weg der Merkmalsanalyse auch durchaus zu brauchbaren Resultaten. Wie es kompliziertere Fälle von Mustererkennung (zum Beispiel das Erkennen von Gesichtern) auf diese Weise bewerkstelligen soll, ist jedoch gar nicht mehr klar. Es bedient sich, vielleicht zusätzlich, wahrscheinlich einer anderen Methode: Es analysiert nicht die unterscheidenden Details, sondern vergleicht die wahrgenommenen Muster als ganze mit im Gedächtnis gespeicherten Prototypen – abstrahierten, idealisierten Gestalten. Gleich welche Einheiten ein Lesender aber in einer bestimmten Situation verarbeitet und welcher Mustererkennungstechnik er sich bedient – nie verzichtet er auf eine Analyse der graphischen Gestalt, auch wenn diese in der Regel automatisch abläuft und nicht ins Bewußtsein gelangt. Nur wenn der automatische Prozeß zu keinem Ergebnis führt, muß sich das Bewußtsein einschalten und notfalls sogar hinunter bis zu den einzelnen Strichen und Bögen greifen. 168
Immer aber kommt dieser visuellen Analyse ein anderer Prozeß »von oben« her entgegen: die Sinnerwartung. Der Leseforscher George McConkie hat demonstriert, daß diese Sinnerwartung uns über kleine Schreibfehler meist sicher hinwegträgt. Er ließ am Computerbildschirm Sätze lesen, in denen er einen einzigen Buchstaben eines einzigen Wortes auswechselte, und zwar so, daß das Gesamtbild des Wortes kaum verändert wurde; und er arrangierte die Sätze so, daß das fehlerhafte Wort am Ende stand, so daß sich eine Sinnerwartung zu ihm hin aufbauen konnte. Ein solcher Satz mochte so lauten: Er kaufte sich eine Fahrkarte für die Eisenhahn. Viele Leser lasen Eisenbahn und bemerkten den Schreibfehler gar nicht. Tatsächlich aber fixierten sie die Wörter, die den – nicht bemerkten – Schreibfehler enthielten, doppelt so lange. Unterschwellig also war der Fehler sehr wohl bemerkt worden; den Konflikt auszuräumen und den Fehler im Lichte der Sinnerwartung zu korrigieren, hatte Zeit gekostet. Was sich schließlich durchsetzt, ist oft also die Sinnerwartung; aber diese macht die (unbewußte) visuelle Analyse bis hinab zu den Merkmalen der einzelnen Buchstaben nicht überflüssig und setzt sie nicht außer Kraft. »Weder die synthetische noch die ganzheitliche Erklärung und auch nicht ihre additive Verknüpfung werden dem Lesen(lernen) gerecht«, resümierte der Bremer Leseund Schreibdidaktiker Hans Brügelmann. »Information über graphische Details der Schrift (›von unten‹) und die durch den Textinhalt und die Erfahrung des Lesers erzeugte Sinnerwartung (›von oben‹) wirken beim Ent169
schlüsseln von Buchstaben, Wörtern und Sätzen unmittelbar zusammen.« Für diese beiden gegenläufigen Prozesse – eine Analyse »von unten«, der eine Analyse »von oben« entgegenkommt – wurde in den letzten Jahren auch eine mutmaßliche hirnanatomische Basis gefunden. Lange meinten viele Hirnforscher, der Wahrnehmungsprozeß sei eine Einbahnstraße: Die Signale würden von einer Ebene des Gehirns zur Weiterbearbeitung an die jeweils höhere hinaufgereicht, bis ganz am Ende die fertige Wahrnehmung entsteht. Heute aber weiß man, daß zwischen den einzelnen Bereichen der Großhirnrinde überall Verbindungen in beide Richtungen bestehen. Terrence W. Deacon, biologischer Anthropologe an der Harvard-Universität, sieht im Gehirn durchgängig eine Art Gegenstromprinzip am Werk: Während die Signale von der Peripherie her einströmen und Schritt auf Schritt analysiert werden, strömen ihnen andere Signale – aus den Mittelschichten der Großhirnrinde – entgegen, und beide Ströme geben die in ihnen enthaltene Information aneinander ab. »Von innen nach außen sich entwickelnde Wahrnehmungsbilder benötigen die von außen nach innen fließende, periphere Information, um sich fortschreitend zu differenzieren, und die nach innen strömenden Sinnesreizmuster benötigen die sich nach außen hin ausbreitenden Wahrnehmungsbilder, um die Sinnesmerkmale zu organisieren und ihre integrierten Beziehungen zu abstrahieren. So kann man … sagen, daß das sich entwickelnde Wahrnehmungsobjekt Sinnesinformation in sich aufnimmt, um sich zu differenzieren.« Beim Lesen also würde ein 170
zentrifugaler, sich von innen nach außen entwickelnder Prozeß angestoßen, aus dem die von den Augen kommenden und nach und nach analysierten Daten schließlich herausmodellieren, was gelesen wird. Dieser zentrifugale Prozeß muß Informationen höchst vielfältiger Art enthalten. So wissen wir etwa von vornherein: Dies ist Text und keine Grafik, dies ist Sprache und kein Geräusch. Wir haben die Fähigkeit, sozusagen in verschiedenen Ebenen zu hören: Wenn wir uns in einem lauten Raum mit jemandem unterhalten, blenden wir nicht nur das nichtsprachliche Hintergrundgeräusch aus unserer Wahrnehmung aus, sondern auch alle verständlichen Gespräche in unserer Nähe – aber nicht so sehr, daß wir nicht plötzlich hinhörten, wenn dort etwas gesagt wird, das uns besonders interessiert, wenn etwa der eigene Name fällt. Der Computer muß Sprachliches immer wieder von neuem von Nichtsprachlichem trennen, Schrift von Nicht-Schrift. Wir wissen sehr schnell, dies ist nicht irgendeine, sondern eine bestimmte Sprache. Wie sehr einen diese Erwartung beim Verstehen leitet, kann man an sich selber beobachten, wenn man sagen wir in einem italienischen Restaurant am Nebentisch eine Unterhaltung mitanhört und in der Erwartung, es müsse sich um Italienisch handeln, kein Wort versteht, obwohl es Deutsch ist. Wir besitzen die Lautgesetze dieser Sprache, die uns sagen, welche Laute und Lautgruppen (und welche Buchstabengruppen) möglich sind und welche nicht und wie häufig (und somit wahrscheinlich) einzelne Laut- oder Buchstabenkombinationen vorkommen. 171
Wir kennen die etwa fünftausend bedeutungstragenden Grundelemente der Wörter, die Morpheme einer Sprache. Wir besitzen einen stattlichen Teil des Vokabulars dieser Sprache, einige hunderttausend Wörter; und dazu die Regeln der Wortbildung, die uns in den Stand setzen, selber beliebig viele neue Wörter zu bilden und bei beliebigen erstmals gehörten oder gelesenen Wörtern zu entscheiden, ob es sie geben kann und was sie wahrscheinlich bedeuten. Wir besitzen die Grammatik dieser Sprache: ein immenses, aber kaum ins Bewußtsein zu hebendes Gefüge von Regeln, welches uns sagt, welche Sätze grammatikalisch sind und welche nicht – also welche Wortfolgen erlaubt sind und welcher Sinn aus der Stellung der Worte zueinander hervorgeht. Unser Gehirn errät, noch während es ihn hört oder liest, wie ungefähr ein bestimmter Satz zu Ende gehen wird. Wir wissen überhaupt immer schon von vornherein, was ungefähr uns in einem bestimmten Zusammenhang mitgeteilt werden soll. (Ein Fremder, der uns auf der Straße so undeutlich anspricht, daß wir nur ön-ieie-ei-ahn hören, wird nicht gesagt haben: »Gönnen Sie mir ein Ei mit Sahne«, sondern »Können Sie mir vielleicht sagen … «) Das heißt, wir müssen gar nicht alle Laute oder alle Schriftzeichen und Silben und Wörter vollständig und richtig wahrnehmen und dann einzeln analysieren. Unser Sprachverstehensapparat ist ungeheuer robust: Er versteht auch noch durchaus richtig, wenn ihn viele einzelne Laute oder Zeichen stark entstellt oder gar nicht errei172
chen. Er muß sich überhaupt nicht durch alle Einzelheiten kämpfen; er braucht nur nach den markanten Punkten zu suchen, jenen, die einen Unterschied im Sinn machen. Wenn er diese Knotenpunkte bemerkt und richtig analysiert, kann er von sich aus rekonstruieren, was da gestanden haben muß oder was ihm gesagt wurde. Auch er muß, wie der Computer, beim Lesen von Schrift oder Anhören von Sprache in einem fort Hypothesen darüber bilden, wie jede Sprachäußerung lautet; er bildet sie viel schneller, als ein heutiger Computer das könnte, weil er sie nicht hintereinander, sondern »parallel« bildet. All sein Wissen über die Sprache und das Leben aber hilft ihm, die Zahl der Hypothesen, die er in Erwägung zu ziehen hat, von vornherein stark einzugrenzen. Der menschliche Sprachapparat ist ein außerordentlich leistungsfähiges Werkzeug der Disambiguierung. Beim Computer, der von keinem solchen Wissen ausgeht und der folglich sozusagen jederzeit alles für möglich halten muß, steigt die Zahl der Hypothesen, die er bilden, vergleichen und bewerten muß, schnell ins Astronomische. Sprache wirklich fehlerfrei lesen und hören wird der Computer also erst können, wenn er annähernd so viel über die Sprache und das Leben »weiß« wie ein Mensch und alles dieses Wissen jederzeit heranziehen kann. Wann wird das sein? In absehbarer Zeit gewiß nicht.
173
Optische Zeichenerkennung, praktisch Wer selber mit dem Gedanken spielt, seinen PC mit OCRFähigkeiten auszustatten, kann sehr klein anfangen. Für etwa 1200 DM bekommt man einen Handscanner mit OCR-Soft ware, etwa den ScanMan von Logitech mit dem Programm IMAGE-IN READ von CPI. Und es wäre ja auch nett, wenn man nur einmal über eine Textspalte hinwegzustreichen brauchte, und schon stünde sie als ASCII-Datei im PC. So einfach aber ist die Sache denn doch nicht. Da die Handscanner nicht breiter als 10,5 Zentimeter sind, muß jede Seite in der Regel in mehreren – gewöhnlich mindestens drei – Streifen eingescannt werden, die dann anschließend am Bildschirm erst wieder zusammengefügt werden müssen. Das erfordert einiges an Geschicklichkeit und dauert zusammen mit der Nachbehandlung – der Fehlerkorrektur, dem Herausoperieren der Zeilenendmarkierungen und Trennstriche – in der Regel so lange, daß der Text wesentlich schneller neu getippt wäre. Solche Mini-OCR-Systeme sind also eher dazu gut, sich selber vorzuführen, welch ergreifende Mühe der Computer mit dem Schriftlesen hat. Zur ernstlichen Arbeit taugen sie nicht. Dafür brauchte man schon einen ausgewachsenen Scanner, der ganze Seiten bis zum Format DIN A4 abtastet. Jede Unvollkommenheit des Scannerbildes senkt die Chance einer richtigen Zeichenerkennung. Je kleiner die Buchstaben der zu entziffernden Schrift, desto höher muß die Auflösung sein. Um bis zu einer Schriftgröße von 8 Punkt hinuntergehen zu können, sollte die Auflö174
sung mindestens 300 dpi betragen; für 6-Punkt-Schriften sind mindestens 400 dpi erforderlich. Solche Flachbettscanner gibt es ab etwa 2000 DM; die besten, schnellsten und komfortabelsten kosten etwa das Dreifache. Zu manchen gehört eine OCR-Software. Sonst braucht man ein scannerunabhängiges OCR-Programm. Zu den verbreitetsten gehören das französische AutoREAD, das amerikanische Discover Freedom 386 oder OmniPage, das französische ReadStar, das ungarische Recognita Plus, das spanische TextPert Windows; fiir den Apple Macintosh kämen etwa das amerikanische AccuText oder auch TextPert in Frage, für den Atari ST Augur. Da sie im Grunde nur eine Funktion haben, nämlich Text zu erkennen, sind sie einander auf den ersten Blick alle ziemlich ähnlich (und auch gleich schnell, um 180 cps, Zeichen pro Sekunde); unter den feineren Unterschieden zwischen ihnen aber könnte sich gerade jener befinden, der für den einzelnen Anwender der entscheidende ist. Auch unterscheiden sie sich im Preis (2000 bis 4500 DM) nicht unbeträchtlich. Man sollte also nicht darauf verzichten, sie sich vor der Anschaffung näher anzusehen. Dabei sollte man Antwort auf die folgenden zwölf Fragen suchen: 1. Unterstützt das Programm den Scanner überhaupt, den ich einsetze? 2. Liest es auf Anhieb – also .ohne vorheriges Training? 3. Liest es auf Anhieb auch mehrere Schriftarten, selbst wenn diese gemischt auftreten (Omnifont-Prinzip)? 175
4. Läßt sich eine Schrift, die es nicht oder nicht optimal erkennt, trainieren? 5. Läßt sich eine einmal trainierte Schrift speichern, sodaß man später gegebenenfalls darauf zurückgreifen kann? 6. Läßt sich ein bestimmter Font auch während des Lesens selbst trainieren, »interaktiv« (oder nur in einem extra Arbeitsgang)? 7. Erkennt es Schriftattribute (fett, kursiv, unterstrichen)? 8. Bewahrt es diese Schriftattribute? 9. Erkennt es Spaltensatz, und behandelt es ihn richtig? 10. Ist die Benutzeroberfläche, über die man mit ihm verkehrt, ansprechend und in sich logisch? 11. Greift es zur Verbesserung der Erkennungsleistung auf eigene Wörterbücher zurück? 12. Ist die eigentliche Erkennungsleistung für die eigenen Zwecke ausreichend? Bei keinem wird die Antwort auf jede dieser Fragen ein Ja sein; es kommt also darauf an, daß die Neins nicht gerade an Stellen stehen, die einen später sehr stören werden. Das Leistungsstärkste, Vornehmste und Teuerste auf diesem Gebiet dürften derzeit die Lesemaschinen des amerikanischen Künstliche-Intelligenz-Experten und Software-Ingenieurs Ray Kurzweil sein. Er begann Ende der sechziger Jahre, eine Vorlesemaschine für Blinde zu entwickeln; 1976 stellte er sie vor: KRM, die Kurzweil Reading Machine. In Abmessungen und Preis geschrumpft, 176
wird sie noch heute gebaut: der XEROX/Kurzweil Personal Reader. Man zieht eine kleine, mausähnliche Kamera über die Zeilen, und das Gerät liest den Text mit Computerstimme vor (oder gibt ihn, in einer anderen Variante, in Braille-Schrift aus). Seit 1990 gibt es auch eine deutsche Sprachausgabe; das Gerät kostet 26 300 DM. Aus der KRM wurde 1978 KDEM entwickelt, ein Klarschriftleser, der mit beliebig vielen Schriftarten fertig wurde, sie aber alle erst einzeln lernen mußte. Er war ein Kasten von der Größe eines großen Fotokopierers und kostete etliche hunderttausend Mark. Heute ist aus KDEM Discover geworden – eine reich bestückte Steckkarte für einen normalen PC-AT. Discover kostet, je nach Ausführung, zusammen mit einem Scanner zwischen 13 000 und 50 000 Mark und braucht kein Schriftentraining mehr – es lernt selber. Macht Discover am Anfang eines Einsatzes noch Fehler, so gewinnt es im Verlauf der nächsten Zeilen an Sicherheit und ist spätestens am Ende der ersten Seite fit. Man kann das System auf eine schwierige Vorlage trainieren, muß es aber meistens nicht. Das schafft Discover dadurch, daß einiges an Künstlicher Intelligenz eingebaut ist. Auf vier Ebenen gleichzeitig beugen sich mehrere unabhängige »Experten« über den zu entziffernden Text und liefern ihre Ergebnisse einem »Manager«, der sie gewichtet und dann seine Entscheidungen trifft. Die Experten der untersten Ebene stellen erst einmal fest, was auf einer Seite überhaupt Text ist und was Grafik, Markierungen, Schmutz. Auf der nächsthöheren Ebene analysiert ein Geometrieexperte die Formen 177
der Zeichen, trennt ein Anstoßexperte solche, die sich berühren, ermittelt ein Fragmentexperte, ob zu einem Zeichen Tremas, Akzente und ähnliches gehören. Auf der dritten Ebene heißen die Experten resolvers, Löser, denn sie müssen nun Deutungen liefern. Dabei kommt ihnen vor allem eins zustatten: daß sie die reine Zeichenebene verlassen und sich zur Wortebene hinaufschwingen. Sie ziehen nämlich ein internes Lexikon zu Rate, um abzuklären, ob eine vermutete Zeichenfolge tatsächlich existiert; hat die geometrische Analyse Zweifel gelassen, ob eine Zeichenfolge als guer oder quer zu interpretieren ist, so werden sie sich für letzteres entscheiden, denn das steht im Lexikon. (Während das Lexikon meist eine Hilfe ist, gibt es andere Situationen, in denen es die Trefferquote im Gegenteil mindert, und zwar gerade solche, in denen Fehler besonders tückisch sind: anderssprachige Stellen in einem Text und Eigennamen. Hier nämlich entwikkelt die Maschine nun den merkwürdigen Hang, alle gelesenen Zeichenfolgen an existente Wörter anzugleichen. Stand der Name »Field« in der Vorlage, könnte daraus »Feld« werden.) Auch untersuchen sie die Wahrscheinlichkeit bestimmter Zeichenfolgen (und unterscheiden so etwa zwischen einem O und einer Null, die selten mitten unter Buchstaben auftreten wird). Die vierte Ebene schließlich befaßt sich mit dem Layout: Sie erkennt Zeilenenden, Absätze, Spalten, Unterstreichungen. Das ganze System enthält so viel Künstliche Intelligenz, daß Ray Kurzweil selber gar nicht mehr von OCR spricht, sondern von ICR, Intelligent Character Recognition, und manche andere Softwarefirma tut es ihm inzwi178
schen nach. Aber alle »I« kann nicht darüber hinwegtäuschen, daß selbst das hochgestochenste Programm gelegentlich die unvermutetsten Fehler macht.
SPR AC H E , EIN SCHWINGU NGSGEBIRGE Die Maschine als Stenotypistin
Als um die Mitte des Jahrhunderts klar wurde, daß Computer nicht nur zum Rechnen taugten, sondern vielleicht auch andere intelligente Leistungen des menschlichen Gehirns nachahmen könnten, da war die Zuversicht groß, daß man ihnen in einigen Jahren auch das Lesen und das Verständnis für gesprochene Sprache beibringen würde. Alan Turing, einer der Gründerväter des Computerzeitalters, prophezeite 1950, »bis zum Ende dieses Jahrhunderts [werde] die Verarbeitung von Texten und allgemeinem Wissen so weit fortgeschritten sein, daß man von denkenden Maschinen sprechen kann, ohne auf Widerspruch zu stoßen«. Durchs KinoAll und die Phantasie der Erdenmenschen geisterte HAL , der sprachgewandte und reichlich eitle und intrigante Rechner in Kubricks »2001«. Er war inspiriert von Marvin Minsky, einem der Pioniere der Artifiziellen Intelligenz. Bei ihm hatte Stanley Kubrick sich Auskunft über alle irgend denkbaren künftigen Computerentwicklungen geholt. Dem Jahr 2001 sind wir heute näher als dem Entstehungsjahr des Films, 1968. Einen HAL gibt es nicht und wird es bestimmt auch 2001 nicht geben. Man kann nicht sagen, daß damals eben die Fähigkeiten des Computers überschätzt wurden. Eher wurden sie unterschätzt. Noch mehr unterschätzt aber wurde etwas anderes: welche Leistungen das Gehirn vollbringt, wenn es Schrift liest oder gesprochene Sprache versteht. Daß 183
es das in der Regel ohne jede spürbare Anstrengung tut, hatte uns im Glauben gewiegt, es seien das alles im Grunde »triviale« Fertigkeiten, noch weit unterhalb der Ebene dessen, was wir gemeinhin »Denken« nennen. Erst die seitdem in vielen Labors der Welt unternommenen Versuche, den Computer einige Bestandteile einer minimalen Sprachbeherrschung zu lehren, haben deutlich gemacht, was für ganz und gar nicht triviale, was für phantastisch komplexe Aufgaben das menschliche Geistorgan spielend zu meistern weiß. Das Schrift lesen fällt dem Computer schon schwer genug. Immerhin, es ist ein noch relativ einfacher Fall von Mustererkennung. Bei Maschinen- und Druckschriften gibt es einzeln stehende, »diskrete« Zeichen, wenn auch in einer großen Fülle von Formen, und die Wörter sind durch Zwischenräume (»Spatien«) eindeutig voneinander abgesetzt. Bei gesprochener Sprache ist das anders. Automatic Speech Recognition – die automatische Spracherkennung –, kurz ASR, stellt den Computer vor eine noch sehr viel schwierigere Aufgabe als die OCR. Das Mikrophon wandelt die Luftdruckschwingungen der gesprochenen Sprache in elektrische Schwingungen. Auch diese lassen sich digitalisieren – also in eine Folge von Ja / Nein-Entscheidungen übersetzen, die festhalten, wie das elektrische Signal in jedem Augenblick aussah. Anders als bei der OCR bringt die Momentaufnahme aber hier gar nichts: Gesprochene Sprache entfaltet sich in der Zeit, und was man braucht, ist eine Abbildung ihrer Veränderungen in der Zeit. Die erste Aufgabe besteht also in einer drastischen Datenreduktion; eine 184
kontinuierliche Aufzeichnung sämtlicher denkbarer Parameter ergäbe eine solche Datenflut, daß auch der größte Computer schnell in ihr ersaufen müßte. Um eine Bitmap gesprochener Sprache zu erhalten, die eine Analyse zuläßt, genügt es, wenn man alle 10 Millisekunden eine Momentaufnahme von 25 Millisekunden Dauer macht, wenn man also die Sprache sozusagen in etwa dreißig Scheiben pro Sekunde zerschneidet. Das reduziert den Datenstrom erheblich. Trotzdem bleibt er unhandlich groß: 30 Kilobyte pro Sekunde. In drei Minuten liefe der Arbeitsspeicher selbst des größten Mikrocomputers über. Also muß der Sprachstrom zunächst einmal gefiltert, »vektorisiert« werden, bis nur Kurzformeln für das übrigbleiben, was an ihm interessiert. So läßt er sich auf ein Zehntel bis ein Dreihundertstel der ursprünglichen Menge eindampfen. Diese 100 Byte pro Sekunde aber ergeben immer noch ein überaus komplexes Signal, neben dem die Bitmap eines alphanumerischen Zeichens geradezu einfältig anmutet. Am ehesten lassen sich Sprachlaute daran erkennen, wieviel Energie in den einzelnen Frequenzbändern vorliegt. Als erstes entwirft der Computer für jede Zeitscheibe also ein »Spektrum« der Frequenzen. Der Vorgang heißt Spektralanalyse und ergibt ein Spektrogramm der Sprache. Es gibt Auskunft darüber, welche Schwingungszahlen in welcher Stärke in welchem Augenblick vorlagen. Das Ohr macht es nicht anders; nur daß die Sinneshärchen in der Schnecke des Innenohrs selektiv für Tausende sich überschneidender Frequenzbänder empfindlich 185
sind, während der Computer allenfalls ein Dutzend Frequenzbänder wahrnimmt und untersucht. Das menschliche Gehör hat also eine sehr viel höhere Auflösung als das des Computers. Bei der Schriftzeichenerkennung macht sich der Computer ein Bild, welches nicht sehr viel gröber ist als jenes, welches das menschliche Auge wahrnimmt. Das Sprachgehör des Computers aber ist sehr viel gröber; verwandelt er ein Sprachspektrogramm in Sprache zurück, so klingt sie entsprechend blechern und kratzig und defekt. Wer sich vergegenwärtigt, vor welchen Schwierigkeiten die arme Maschine steht, die bestimmten Klängen – also bestimmten Schwingungsmustern – bestimmte Wörter zuordnen soll, die also in einem fort Mehrdeutigkeiten zu lösen hat, dem fallen unweigerlich zunächst die Homophone ein – die gleichlautenden Wörter verschiedener Bedeutung (und Schreibweise): Fälle wie viel und fiel, ist und ißt, weise und Weise und Waise, Meer und mehr. Eine noch so genaue und treffende Analyse des Klangs hilft ihr hier gar nicht weiter. Viel und fiel könnte die Maschine möglicherweise unterscheiden, wenn sie etwas Grammatik beherrschte – nämlich zum Beispiel wüßte, daß am Ausgang eines Satzes wie der Groschen viel / fiel nur ein Verb und kein Adjektiv zu erwarten ist. Den Satz Er ist / ißt ein Schwein könnte sie auch mit noch so viel Grammatik nicht eindeutig machen. Selbst zusätzliches semantisches Wissen nützte nichts: Sinnvolle Sätze sind beide, ein männliches Wesen kann ein Tier sowohl essen als auch selber sein. Wir selber »disambiguieren« solche Sätze überhaupt nicht mit unserem sprachlichen Wissen, 186
sondern aus unserem Verständnis für die Situation, in der sie fallen. Der Computer kann nur raten. Aber das sind nur einige der spektakulären Schwierigkeiten. Zu ihnen dringt der Computer überhaupt erst vor, wenn er schon bestimmte Klänge richtig als bestimmte Wörter identifiziert hat. Dahin aber ist es ein langer Weg. Relativ eindeutige Muster ergeben alle Vokale. Sie zeichnen sich durch Formanten aus, charakteristische Frequenzgipfel. Stößt der Computer zum Beispiel auf kräftige Schwingungen um 1000 Hertz, so kann er relativ sicher annehmen, daß da ein a gesprochen wurde; liegt ein breiterer Gipfel zwischen 3000 und 3800 Hertz, so wird es ein i gewesen sein. Konsonanten aber haben keine Formanten. Sie sind eigentlich nur bestimmte Arten, wie Vokale beginnen und enden. Am meisten Mühe hat der Computer mit den Verschlußlauten p / t / k und b / d / g. Sie selber sind sozusagen gar nichts – eben ein Verschluß des Stimmtrakts, unterschieden nur dadurch, ob der Luftstrom im Rachen, am Gaumen oder an den Lippen abgesperrt ist und ob der Druck der Luft hinter dem Verschluß schwach oder stark ist. Sie geben sich also nur im nachhinein zu erkennen, nämlich daran, wie der folgende Konsonant einsetzt. Auch Konsonanten wie n und m erzeugen für das gröbere Gehör des Computers sehr ähnliche und darum leicht verwechselbare Frequenzenmuster. Bestimmte Eigentümlichkeiten der menschlichen Sprache komplizieren die Aufgabe weiter. Viele Laute treten in völlig verschiedenen Varianten (Allophonen) auf: Der 187
eine spricht ein Zungen-R, der andere ein Zäpfchen-R; der eine sagt König, der andere Kenich, der eine hehrzlich, der andere härzlisch. Und wenn schon kein geschriebenes A wie das andere aussieht, so ist die Variabilität der gesprochenen A’s noch sehr viel größer. Nicht nur von Dialekt zu Dialekt und von Sprecher zu Sprecher werden die Sprachlaute anders gesprochen; kein Sprecher spricht je ganz genau das gleiche A. Bald ist es etwas länger, bald etwas kürzer, bald ist es lauter, bald leiser, bald höher, bald tiefer, bald hat der erste Formant einen Gipfel bei 999, bald bei 1001 Hertz … Damit nicht genug. Es wäre ein Irrtum zu glauben, Sprache sei eine säuberliche Aneinanderreihung der kleinsten bedeutungsunterscheidenden Lauteinheiten, der Phoneme, deren die deutsche Sprache 40 besitzt, 20 Vokale und 20 Konsonanten – es reichte also, diese relativ wenigen Phoneme zu suchen, zu isolieren und zu interpretieren. Tatsächlich existiert kein Phonem für sich allein, sondern färbt stark auf seine Nachbarn ab. Das d in da ist ein ganz anderes als das in du – und wir können selbst dann, wenn der Vokal weggeschnitten wird, den Unterschied hören. Es nützt also gar nichts, nach Phonemen zu suchen – ein Phonem d als solches gibt es gar nicht. Gesucht werden muß nach Silben oder Halbsilben, deren Zahl sehr viel größer ist als die der Phoneme. Weiter erschwerend kommen die Undeutlichkeiten der Artikulationen hinzu, die vielen Lautverschleifungen (saan statt sagen), Auslassungen, Hinzufügungen (all die äh’s und ah’s und hm’s). Das größte Problem aber ist noch ein anderes. Wir 188
machen meist keine Pause zwischen den Wörtern, sie gehen fließend ineinander über, während wir andererseits manchmal mitten in den Wörtern Pausen machen, etwa vor Verschlußlauten (Haupt-post). Der Computer muß also den kontinuierlichen Lautstrom erst einmal in Wörter zerlegen – und da jede Lautkombination ein Wort sein kann, hat er Hypothesen über Hypothesen zu bilden und zu bewerten. Um die Schwierigkeiten nicht ins Unabsehbare wachsen zu lassen, muß man dem Computer die Aufgabe heute noch stark erleichtern. Allen heutigen Spracherkennungssystemen sind drei Beschränkungen auferlegt, von denen derzeit immer nur eine einzige gelockert oder aufgehoben werden kann: 1. ASR-Systeme sind sprecherabhängig. Ehe irgendeine ASR beginnen kann, muß jeder Benutzer ihnen die Eigenheiten seiner persönlichen Sprechweise mitteilen. Bei einfacheren Systemen muß er ihnen jedes einzelne Wort, das sie erkennen sollen, mehrfach vorsprechen. Fortgeschrittene Systeme sind in der Lage, aus einem Sprachmuster von etwa zwanzig Minuten Dauer selber die charakteristischen Merkmale zu entnehmen. 2. ASR-Systeme verlangen, daß die Wörter mit kurzen, aber deutlichen Pausen gesprochen werden, so daß ihnen die Aufgabe der richtigen Segmentierung des Sprachstroms erspart bleibt. Es ist die Einschränkung mit den wenigst akzeptablen praktischen Folgen. Alle Entwickler auf diesem Gebiet sind sich einig, daß sich die ASR in größerem Stil erst dann durchsetzen kann, wenn das Verbot kontinuierlicher Sprache gefallen ist. 3. Je größer die Zahl der Muster, zwischen denen ein 189
ASR-System zu wählen hat, um so schwerer seine Aufgabe. Also operieren ASR-Systeme mit eingeschränkten Wortschätzen. Wenn in der ASR-Forschung heute von Ver-
suchenmit »großem Vokabular« die Rede ist, dann sind damit etwa 1000 Wortformen gemeint. Ein »sehr großes Vokabular« ist eins von 20 000 bis 60 000 Wortformen. Falls er bei einem Thema bleibt, kommt ein Sprecher im Deutschen mit vielleicht 22 000 Wortformen ganz gut aus (also mit etwa 4400 Wörtern, wie man sie im Lexikon fände, »Lexemen«, die dekliniert oder konjugiert zu durchschnittlich über fünfmal so vielen »Flexemen« führen). Tatsächlich aber beherrscht er etwa zehnmal soviel, und der gesamte allgemeine deutsche Wortschatz, der in den größten Wörterbüchern steht, ergäbe zwei Millionen Wortformen. Selbst der allergrößte Wortschatz heutiger ASR ist also immer noch vergleichsweisewinzig. Wortschätze über 1000 erfordern bereits eine Grammatik – sonst hielte der Computer zu viele Wortfolgen für möglich und müßte zu viele Hypothesen aufstellen und abwägen. Eine Grammatik verringert ihm die Schwierigkeit der Aufgabe beträchtlich. Die gesamte Grammatik einer natürlichen Sprache ergäbe ein überaus komplexes Regelsystem; bis heute ist es für keine Sprache völlig durchschaut, ja man weiß nicht einmal mit Sicherheit, ob sich eine natürliche Syntax überhaupt restlos in explizite Regeln fassen läßt. Die Grammatik, die man dem Computer beibringt, müßte also auf jeden Fall eine eingeschränkte Grammatik sein, und die ließe dann allerlei nicht zu: Nebensätze oder Wortumstellungen oder Ellipsen – und damit wäre der Computer den möglichen Sät190
zen einer natürlichen Sprache von vornherein nicht gewachsen. Die Grammatiken aller größeren ASR-Systeme haben darum keine Ähnlichkeit mit der menschlichen Grammatik. Es sind rein stochastische Grammatiken, die der Computer sich mehr oder weniger selber macht. Und zwar werden ihm möglichst große Mengen von Texten eingegeben. Er zählt sie durch, ermittelt und hält fest, wie oft zwei oder drei Wörter (Bigramme oder Trigramme) hintereinander vorkommen. Je häufiger, desto höher setzt er die Wahrscheinlichkeit eines bestimmten Bi- oder Trigramms an, und desto eher ist er dann bereit, ein ähnliches Lautmuster für diese Wortfolge zu halten. In der Informationstheorie wird manchmal ein Maß für die Schwierigkeit einer Aufgabe gebraucht, das den hübschen Namen Perplexität trägt. Es bezeichnet die Menge der Möglichkeiten, die der Computer an einem Entscheidungspunkt in Erwägung ziehen muß. Übersteigt ihre Zahl seine Rechenleistung, so wirkt er tatsächlich perplex: Er rechnet und rechnet und läßt den Benutzer auf seine Antwort warten. In der Frühzeit der ASR rechnete er zuweilen an einem einzigen Satz Minuten oder gar Stunden. Kai-Fu Lee von der Carnegie-Mellon-Universität konnte seinem ASR-System SPHINX mit einer Bigramm-Grammatik die Perplexität der Aufgabe um nicht weniger als 98 Prozent erleichtern. Manche Linguisten scheinen in der Vergangenheit mit der Vorstellung gespielt zu haben, daß auch die Grammatik des Menschen letztlich eine Wahrscheinlichkeitsgrammatik sein könnte. Sie ist es eindeutig nicht. Der Mensch kann auch solche Wörter spontan zu gramma191
tikalischen Sätzen zusammenstellen, die er noch nie in irgendeinem syntaktischen Zusammenhang gehört oder gelesen hat, für die er also keinerlei Wahrscheinlichkeiten errechnet haben kann. Die menschliche Grammatik ist eine Regelgrammatik, und man kann sich kaum vorstellen, daß eine Wahrscheinlichkeitsgrammatik überhaupt ihren Dienst tun kann. Aber sie tut es. Man kann sich von dem Effekt rasch überzeugen, wenn man einem Spracherkennungssystem einen Satz vorspricht und dann verfolgt, wie es ihn analysiert. Der Mond ist aufgegangen – die Trigramm-Grammatik ist ausgeschaltet, der Computer druckst herum und bleibt schließlich bei der Deutung Der und ist auf bekommen, also bei einem ungrammatikalischen Satz. Dann wird die stochastische Grammatik hinzugeschaltet, die diesen Wortpaaren eine geringe Wahrscheinlichkeit zuweist und den Computer veranlaßt, nach Deutungen von höherem Wahrscheinlichkeitsgrad zu suchen. Siehe da: Der Mond ist ausgegangen. Die Grammatik verbessert die Erkennung und verkürzt die Rechenzeit. Angesichts dieser haarsträubenden Schwierigkeiten ist es verwunderlich, daß es, wenn auch in ihrer Leistung stark begrenzt, überhaupt schon automatische Spracherkennung gibt. In den Forschungslabors der IBM ist der Prototyp eines Diktiergeräts besonderer Art fertig: Man spricht, die Maschine schreibt – und zu 80 bis 95 Prozent sogar das Richtige. Es heißt nach einem Weltmeister im Schreibmaschineschreiben TANGORA und versteht 20 000 isoliert gesprochene englische Wortformen. Auf jeden neu192
en Sprecher muß es sich in einer zwanzigminütigen Trainingssitzung eigens einstellen. In Italien (wo Olivetti an einem ähnlichen Gerät arbeitet) ist eine ebenso große italienische Fassung entstanden. Eine deutsche (mit dem Namen SPRING) ist seit 1986 in Arbeit und inzwischen bei einem Wortschatz von 1300 angelangt. Das Deutsche wirft gewaltige zusätzliche Probleme auf – vor allem wegen der vielen meist nur undeutlich ausgesprochenen Endungen und der hohen Zahl der Wortzusammensetzungen und Flexionsformen, die alle als eigene Wörter zählen und insgesamt ein viel größeres Vokabular erforderlich machen. Noch erstaunlicher ist es, daß manche sogar schon einen Schritt weiterdenken: an den Computer, der gesprochene Sprache nicht nur erkennt und in Schrift umsetzt, sondern der sie in Maßen auch versteht; dem man also mündlich oder schrift lich etwas mitteilt, und der einem mündlich oder schrift lich eine Antwort daraufgibt, und zwar eine sinnvolle Antwort, nicht nur ein paar schematisierte Scheinantworten wie Joseph Weizenbaums berühmter maschineller Psychotherapeut ELIZA, ein Programm, das die schrift lichen Aussagen des »Klienten« nach ein paar Merkmalen, das heißt im wesentlichen nach bestimmten Schlüsselwörtern absuchte und daraufhin einen von etlichen vorgefertigten Antwortsätzen auswählte, an seinen Leerstellen die vom Klienten benutzten Wörter in grammatisch richtiger Form eintrug und auf den Bildschirm schrieb. Ein Dialog mit ELIZA mochte sich so abspielen: Klientin (K): Alle Männer sind gleich. Maschine (M): Wie das? K: Sie nerven uns im193
mer. M: Könnten Sie ein bestimmtes Beispiel nennen? K: Naja, mein Freund hat mich hergeschickt. M: Ihr Freund hat Sie hergeschickt. K: Er sagt, ich bin meistens deprimiert. M: Es tut mir leid, daß Sie deprimiert sind. K: Es stimmt. Ich bin unglücklich. M: Glauben Sie, daß Ihre Depression besser wird, wenn Sie herkommen? K: Ich brauche Hilfe, so viel ist sicher. M: Was würde es für Sie bedeuten, Hilfe zu bekommen? K: Vielleicht würde ich mich mit meiner Mutter besser vertragen. M: Erzählen Sie mir mehr von Ihrer Familie …« Daß ELIZA seinerzeit so überzeugend wirkte, war weniger ein Beweis für ihre hohe artifizielle Intelligenz als für die monotone Schemahaftigkeit mancher Psychotherapie. ELIZA war eine Parodie auf Psychotherapie. Der Prototyp für eine Maschine, die Sprache wirklich zu verstehen scheint, ist bereits recht weit gediehen: das Projekt SPICOS, in das die Firmen Siemens, Philips und IPO bisher etwa sechzig Mannjahre investiert haben. SPICOS soll den mündlichen Dialog mit einer beliebigen Datenbank ermöglichen. »Hat das Institut X unsere Anfrage beantwortet?« – »Ja, das Institut hat die Anfrage brieflich beantwortet.« – »Wann war das?« – »Der Brief wurde am 29. Februar geschrieben.« – »Zeig ihn mir mal. . .« SPICOS muß zunächst wie TANGORA Sprache erkennen – und hat heute ein Vokabular von etwa 1000 Wortformen, ist sprecherabhängig, besteht aber nicht darauf, daß die Wörter durch Pausen getrennt werden. Es geht dann jedoch wesentlich weiter: Es versucht, den Sätzen ihren logischen Sinn abzugewinnen. Dazu muß es untersuchen, in welcher grammatischen Beziehung die Wör194
ter zueinander stehen: etwa, daß das Institut die Anfrage beantwortet haben soll und nicht die Anfrage das Institut. Relativsätze und nebenordnende Konjunktionen (und, oder) duldet es bei dieser semantischen Analyse bisher noch nicht. Dafür denkt es über die Satzgrenzen hinaus: Was in dem obigen Beispiel das, ihn und mir bedeuten, ergibt sich aus den Sätzen selber, in denen diese Wörter vorkommen, nicht. Es sind Anaphern, die sich nur erschließen, wenn das System die vorausgegangenen Sätze des Dialogs mit in seine Rechnung einbezieht. Am Ende der Analyse steht eine logische Formel, ein Ausdruck der Prädikatenlogik. Dieser geht in die Datenbank. Sie antwortet mit einem, den sie selber erzeugt. SPICOS verwandelt ihn mit seiner Grammatik, seinem Vokabular und allerlei pragmatischen Regeln über die Führung eines Dialogs in menschliche Sätze zurück. Ein Ausgabegerät synthetisiert daraus menschliche Sprache. Das alles vollzieht sich in Bruchteilen von Sekunden. Bei einfacheren Aufgaben antwortet SPICOS wie aus der Pistole geschossen, in »Echtzeit«. Seine Grammatik ist ebenfalls eine Wahrscheinlichkeitsgrammatik, aber mit einer Variante: Sie enthält Wissen nicht über die Häufigkeit von Wortpaaren, sie hält fest, wie häufig einzelne Klassen von Wörtern hintereinander vorkommen. SPICOS arbeitet mit 64 solcher Wortkategorien. Eine Grammatik dieser Art braucht nicht viele Millionen von Wörtern. Sie kommt mit einem sehr viel geringeren Korpus aus. Dafür kann der Computer sie nicht allein machen. Alle Wörter des Korpus müssen »von Hand« einzelnen lexikalischen, syntaktischen 195
und semantischen Klassen zugewiesen, müssen »gelabelt« werden: Briefs zum Beispiel als »Nomen, Singular, Genitiv, Ding das nicht selber handelt« und so fort. Die letzte Stufe, die Sprachausgabe, ist bisher am besten gelöst. Längst schnarrt der Computer nicht mehr so computerhaft. Die Erkenntnis, daß gesprochene Sprache keine Kette von aneinandermontierten Phonemen ist, daß man sie also auch nicht glaubhaft aus Phonemen zusammensetzen kann, sondern deren jeweilige Nachbarschaft mit in den Laut eingehen lassen muß, hat die Qualität stark verbessert. Heute wird dem Computer sogar eine Satzmelodie beigebracht. Niemand könnte ein Sprachausgabegerät wie das SAMT der Bundespost mit einem Menschen verwechseln; aber mit einem musealen Bilderbuchcomputer auch nicht mehr. Ray Kurzweil hat unlängst eine Prognose riskiert. Heute, schrieb er, leiste die automatische Spracherkennung nur eins von dreien: entweder die Erkennung eines größeren Wortschatzes oder kontinuierlicher Rede oder Sprecherunabhängigkeit. In der ersten Hälft der neunziger Jahre werde man es schaffen, zwei dieser Attribute zu verbinden. Wann der »heilige Gral der Spracherkennung« erreicht sein könnte, die Verbindung aller drei Attribute, dazu machte er keine Prognose. In Japan hat man für das Ende dieses Jahrtausends das Übersetzungstelefon prophezeit, das erstens Spracherkennung und zweitens maschinelle Übersetzung beherrschen müßte: Man spricht Deutsch hinein, am anderen Ende schallt es Japanisch heraus. Nicht nur in Anbetracht des unfreiwilligen Humors, der noch heute, bloße zehn Jahre vorm Ziel, aus 196
vielen japanischen Produkten beiliegenden Gebrauchsanweisungen spricht, dürfte das übertrieben sein. Daß es eines Tages recht und schlecht Wirklichkeit wird, ist jedoch nicht auszuschließen. Der besser als ein Mensch beliebige Sprache erkennende, verstehende, produzierende Computer aber, HAL also, steht heute noch genau dort, wo er 1968 stand: in den Sternen.
Automatische Spracherkennung, praktisch Anfang der neunziger Jahre hat die automatische Spracherkennung gerade einen Stand erreicht, der erste kommerzielle Anwendungen gestattet. Sie alle haben noch etwas Tastendes und Vorläufiges; für den großen Durchbruch ist es zu früh. Gleichwohl, es gibt einiges und wird in naher Zukunft mehr geben. Ein Bedarf ist vorhanden – nämlich bei allen jenen, die die Hände nicht zum Schreiben freihaben: bei Lagerarbeitern, die nicht gleichzeitig mit Gegenständen hantieren und sie irgendwo eintragen können, bei Laboranten, die ihre Beobachtungen diktieren wollen, noch während ihre Augen und Hände am Mikroskop sind, und natürlich auch bei jenen Behinderten, die ihre Hände nicht gebrauchen können und denen es mit Hilfe der ASR möglich würde, einen Computer zu »fahren« und auf ihm dann etwa auch zu schreiben. 197
Im Ersatzteillager von Ford in Köln funktioniert seit Jahren der Spracherkenner 1210 der Siemens-Tochter Computer Gesellschaft Konstanz (CGK). Er könnte im Prinzip 500 einzeln gesprochene Wörter erkennen, kommt aber hier mit 60 aus. Die jedoch identifiziert er auch in fremderen Aussprachevarianten. Wer seinen Heim-PC mit mündlichen Befehlen traktieren möchte, kann dies schon für 400 Mark tun. Zu diesem Preis wird auch in der Bundesrepublik ein amerikanisches Spracherkennungssystem der Firma Covox mit dem Namen Voice Master Key vertrieben. Man kann ihm bis zu 56 mündliche Befehle in einer beliebigen Sprache beibringen; und wenn man ihm ein wenig entgegenkommt und möglichst verschieden lautende wählt, befolgt er sie aufs Wort. »Briefkopf!« – und schon steht der Briefkopf auf dem Bildschirm. Dem gleichen Zweck dient der Voice Controller desselben Herstellers; bei ihm entfällt die Begrenzung – er kann beliebig viele Sprachmuster erkennen, jeweils 64 gleichzeitig, kostet dafür aber auch das Doppelte. Für 3 50 Dollar gibt es in Amerika das VoiceLink SRB-LC II von International Voice Products, das vornehmlich dazu da ist, gesprochene Telefonnummern zu wählen. 1990 stellte Philips ein Autotelefon mit Spracherkennung vor, mit dem man Nummern wählen kann, ohne den Blick von der Straße und die Hand vom Lenkrad zu nehmen. Man schaltet es ein – und sagt ihm dann die Namen oder Nummern der Teilnehmer, die es anwählen soll; alles weitere besorgt es allein. Ein Problem bei dieser Anwendung ist der hohe Geräuschpegel im fahrenden Wagen; es soll aber auch noch 198
bei höheren Geschwindigkeiten funktionieren. – Für die Sprachtherapie und das Sprachenlernen ist Say and see von Emerson and Stern gedacht. Der Monitor zeigt einen idealisierten Querschnitt durch die Mundhöhle; und wenn man ins Mikrophon spricht, bewegen sich auf dem Bildschirm synchron Zunge, Lippen, Zähne. Man sieht also, welche Bewegungen bei der Artikulation gemacht werden, kann die Bewegungen des Sprachlehrers verfolgen und nachzumachen versuchen. Fujitsu bietet eine Voice Recognition Unit (VCU) an, die bis zu 4000 isoliert gesprochene englische Wörter und Wendungen erkennt und als ASCII-Code an den Computer weitergibt, sozusagen die Vorstudie zu einer Diktiermaschine. Für jeden Sprecher muß sie angelernt werden. Sie kostet 10 000 DM. Seit 1990 gibt es auch ein Produkt dieser Art, das Deutsch versteht, allerdings nur ein sorgfältig artikuliertes, mit kurzen Pausen zwischen den Wörtern: Gerdes Voice Recognition (GVR). Jeder neue Sprecher muß dem Gerät in einer halbstündigen Trainingssitzung eine Wörterliste vorsprechen und so die Eigenheiten seiner Aussprache beibringen. Dann schreibt es – in Echtzeit – auf den Bildschirm, was man ihm diktiert. Hat es etwas falsch verstanden, kann man es dort korrigieren; es zeigt einem auch einige andere Interpretationen des betreffenden Sprachmusters. Das Lexikon, aus dem GVR bezieht, was es für erlaubte Wörter hält, ist 10 000 Wortformen (etwa 2000 Lexeme) stark, also nicht eben mächtig. Man kann es selber ergänzen; man kann ihm unbekannte Wörter auch vorbuchstabieren. Der Preis: 1498 DM. 199
Sprachspektrogramme der Firma Phillips
Das Wort »Null«, gesprochen von einem Mann
Das Wort »Null«, gesprochen von einer Frau
Das Wort »Eins«, gesprochen von einem Mann
Das Wort »Eins«, gesprochen von einer Frau
Das Pionierprodukt auf diesem Gebiet aber stammt von einer kleinen Firma in Massachusetts namens Dragon Systems. Es heißt DragonDictate und kommt in Gestalt einer Steckkarte für den PC-AT. Seinem Lexikon sind 16 000 englische Wortformen (das sind über 8000 Lexeme) bekannt; im Dialog mit ihm läßt sich sein aktiver Wortschatz auf 30 000 erhöhen. Man spricht ihm ein Wort vor, und es schreibt auf den Bildschirm, was es erkannt hat. Hatte es recht, geht man weiter zum nächsten Wort; sonst wählt man aus den weiteren Möglichkeiten, die es einem anzeigt, die zutreffende. Aus diesem Hin und Her lernt es von selber; es braucht kein vorhergehendes Training. Identifiziert es ein Wort partout nicht, so kann man es ihm buchstabieren. Ein Diktat mit dem Gerät dauert länger, als ein geübter Typist für den Text brauchte, geht aber schneller, als man ihn mit der Hand schreiben könnte. Wer es erstmals mit DragonDictate versucht, schafft 15 Wörter pro Minute, ein Könner bringt es auf bis zu 60. (Zum Vergleich: Im gesprochenen Englisch liegt die Wörterzahl pro Minute bei 170, im gesprochenen Deutsch mit seinen wesentlich längeren Wörtern bei 120; mit kurzen Pausen dazwischen sinkt im Englischen die Wörterzahl auf 70, im Deutschen auf unter 60.) Der Preis von DragonDictate: 9000 Dollar. Ein ganz anderes Ziel visiert die Firma Kurzweil Applied Intelligence auf diesem Gebiet an. Sie hat Maschinen zu bieten, die standardisierte Arztberichte generieren. Dazu mußte Kurzweil nicht nur einen Spracherkenner konstruieren, sondern wiederum eine Menge Wissen einbauen. Er mußte analysieren, welches Vokabular in 202
solchen Arztberichten benutzt wird (im Englischen etwa 10 000 Wortformen), wie diese strukturiert sind, was in ihnen vorkommen muß und was nur vorkommen kann und unter welchen Bedingungen sie entstehen. Die Geräte bieten dem Arzt eine Art Formularmaske, in die er eine Reihe von Schlüsselbegriffen hineinspricht. Aus diesen macht dann die Maschine richtige, ausgewachsene Sätze. In Berichtsbereichen, die weniger standardisiert sind, diktiert der Arzt den Text Wort für Wort. Der Röntgenarzt, der einen Krankenhauspatienten untersucht, ruft normalerweise nach der Untersuchung den Kollegen an, der auf seinen Befund wartet, und teilt ihm das Wichtigste mit. Irgendwann später setzt er sich hin, nimmt sich alle Aufnahmen noch einmal vor und diktiert seine Berichte. Die Sekretärin tippt sie, der Arzt sieht sie durch und korrigiert sie, und ein paar Tage später treffen sie in der Station des Patienten ein. Mit Kurzweils ASR-Maschinen entstehen die endgültigen Berichte, noch während der Röntgenarzt die Aufnahmen zum ersten Mal durchsieht. Auf dem Drucker oder dem Bildschirm des Stationsarztes erscheinen sie fi x und fertig, noch ehe der Patient wieder zurück ist. Solche Geräte gibt es für drei medizinische Bereiche: VoiceEM für Notarztberichte, VoicePATH für allgemeine Pathologie, VoiceRAD für Radiologen. Alle sind sie auf die englische Sprache und amerikanische Krankenhausroutinen zugeschnitten. Jedes kostet 18 900 Dollar.
AU S E I N E M K Ü H L E N GRU N DE Die Maschine als Übersetzerin
I Erst dachte man: Aber natürlich geht es! Dann hieß es: Nie und nimmer! Und nun geht es doch, vorerst zwar eher schlecht als recht, aber immerhin. Als Ende der vierziger Jahre die ersten klobigen Computer gebaut waren und man sich überlegte, wofür ihre verblüffenden Rechenfertigkeiten alles eingesetzt werden könnten, kam der eine oder andere bald auf die Idee, daß sie sich doch eigentlich auch fürs Dolmetschen natürlicher Sprachen eignen müßten. 1949 ermutigte Warren Weaver, einer der Pioniere der Computerwissenschaft, in einem Rundbrief einige hundert Kollegen, die Sache anzupacken. Es traf sich, daß amerikanische Behörden – vor allem das Pentagon und die CIA – solche Zukunftsmusik mit Interesse hörten; gerne hätten sie zum Beispiel technische Literatur aus der Sowjetunion am laufenden Meter übersetzt. So wurde die fünfziger Jahre über viel Geld in die Erforschung der »MT« oder »MÜ« – der machine translation, der maschinellen Übersetzung – gesteckt. Aber es wollte und wollte nichts Brauchbares dabei herauskommen. Schließlich setzte die Akademie der Wissenschaften einen Ausschuß ein, der ergründen sollte, ob sich weitere Zuschüsse lohnten. Das Jahr, in dem er seinen Bericht vorlegte, 1966, wurde zum schwarzen Datum der MT. Denn der Schluß, zu dem dieser sogenannte ALPACBericht (Automatic Language Processing Advisory Com207
mittee) damals kam, lautete grob: Es lohnt sich nicht. Die bisherigen Ergebnisse seien so überaus dürftig, daß keine Hoffnung bestehe, die Übersetzerei in absehbarer Zeit auf Rechenmaschinen zu verlagern. Passable Ergebnisse lieferten sie erst bei einem solchen Aufwand an menschlicher Nachredaktion, daß es billiger komme, wenn die Arbeit wie gewohnt gleich von Menschen verrichtet werde. Aber weiter forschen, möge man ruhig. Da nun aber die Gelder nicht mehr flossen, wurde auch kaum noch geforscht. Die MT hatte einen denkbar schlechten Ruf weg, und ganz hat sie sich davon bis heute nicht erholt. Die Sache galt als nicht machbar, als unseriös. Erst seit einigen Jahren beginnt man sich zu der Ansicht zu bekehren, daß sie wohl sehr viel schwieriger ist, als es im Überschwang der Gründerjahre des Computerzeitalters schien, aber ganz aussichtslos nun doch nicht. Was unmöglich schien, in bescheidenem Maß ist es heute hier und da Realität. Seit 1970 verwendet die amerikanische Luftwaffe ein von Peter Toma entwickeltes System namens SYSTRAN für russisch-englische Übersetzungen. Seit 1975 übersetzt in Hongkong ein System namens CULT chinesische Fachzeitschriften auf den Gebieten Mathematik und Physik ins Englische. Seit 1977 werden in Kanada mit einem System namens TAUM-METEO englische Wetterberichte vollautomatisch ins Französische übersetzt (allerdings ist nur eine kleine Zahl von Satzbauplänen zugelassen). Seit 1980 benutzt die Panamerikanische Gesundheitsorganisation in Washington ein System namens SPANAM für Übersetzungen aus dem 208
Spanischen ins Englische, seit 1984 ein zweites (ENGSPAN) für die umgekehrte Richtung. Und 1990 steht in manchem Fachübersetzungsbüro, in mancher Behörde, in manchem Industrie- oder Dienstleistungskonzern überall auf der Welt ein MT-System, das dabei hilft, die unabsehbare Flut zu übersetzender Texte rascher und billiger in die eine oder andere Zielsprache zu befördern. Was gewiß keiner von uns und vielleicht nie ein Mensch erleben wird, ist FAHQT. Mit diesem Kürzel wird benannt, was vielen Computerleuten das einzige würdige Ziel für ein solches Projekt schien und scheint, die Fully Automatic High Quality Translation (die vollautomatische Qualitätsübersetzung): Man füttert einen beliebigen Text in die Maschine, und sie tut, was jeder »Humanübersetzer«, der seinem Beruf gewachsen ist, ganz selbstverständlich tut – sie gibt ihn nicht nur verständlich, sondern in jeder relevanten Hinsicht verständig in eine andere Sprache übersetzt wieder heraus. Das, so viel ist heute klar, ist zuviel verlangt. Ein Computerprogramm, welches mit jeder Art von Text fertig würde, und das auch noch ohne jede menschliche Hilfestellung, steht nicht ins Haus, und bei Realisten wird es auf absehbare Zeit nicht einmal mehr zur Debatte stehen. Wäre die FAHQT das einzige sinnvolle Ziel, so könnte das ganze Projekt MT nur abgeblasen werden. Nach und nach aber hat es sich herausgestellt, daß auch weit unterhalb der FAHQT durchaus Verwendung für Übersetzungsautomaten besteht. Es muß ja nicht jede Übersetzung jedem denkbaren Anspruch gewachsen sein. Die Großabnehmer der Übersetzungsdienste 209
verlangen diesen nicht durcheinander eine Zahlungsaufforderung, einen Predigttext, eine Gebrauchsanweisung und ein Stück Proust ab. Auch stilistische Glätte oder gar, Eleganz ist oft gar nicht gefragt, schon darum, weil die zu übersetzenden Schriftstücke selber ihrer durchaus entraten. Oft wird es reichen, daß etwas einigermaßen Verständliches herauskommt, und das auch nur auf dem einen oder anderen Sachgebiet. In diesem und nur in diesem Fall hat der Computer als Dolmetsch eine Chance. Wie kann ich je dem Radiowecker trauen, der sich so vorstellt? »Bevor dieses Gerät spielen lassen, versichern Sie die örtliche Wechselstromspannung. Das Gerät ist ohne Spannungswähler ausgestattet. Stecke das Wechselstromkabel in eine Sockel, und der Uhrzeiger wird sich bewegen.« Selbst jene kleine Digitaluhr, deren »Schaller mu dern Finger gedrllchi warden hdnnan«, muß mir ein Rätsel bleiben, obwohl in ihrem Fall offensichtlich nur ein Setzer in Fernost die europäische Handschrift nicht entziffern konnte. Das ist der Unterschied. Wenn ein literarischer Übersetzer beharrlich subtile sprachliche Valeurs verkennt, so ist das schlimmer als ein richtiger Fehler dann und wann. Es wäre selbstverständlich eine ärgerliche kulturelle Untat, aber sie hätte weiter keine Folgen. Eine juristische Übersetzung jedoch darf ruhig unschön sein; aber wenn ein Fehler drin ist, wird vielleicht ein Unschuldiger geschädigt oder bestraft. Wer aufgrund eines Übersetzungsfehlers ein Ventil links statt rechtsherum montiert, dem fliegt vielleicht die ganze Anlage um die Ohren. 210
Ein für sich genommen winziger Übersetzungsfehler auf dem Beipackzettel zu einem Medikament kann tödliche Folgen haben. Auf Schönheit kommt es bei derlei Texten herzlich wenig an: Sachlich richtig müssen sie ausfallen, und das Gemeinte muß sich ohne weiteres verstehen lassen. Man spricht manchmal von »Informativübersetzungen«, um ja keine Verwechslung mit dem aufkommen zu lassen, was man von einem menschlichen Übersetzer erwartet. Die Informativübersetzung (anspruchslos, aber richtig) immerhin ist ein Ziel, dem ein Übersetzungscomputer eher gewachsen ist als auch nur der notdürftigsten Übertragung des bescheidensten Gedichts. Einigen Übersetzungscomputern hatte ich einen kleinen Satz von einer Art mitgebracht, auf die keiner von ihnen eingerichtet ist. »In einem kühlen Grunde da geht ein Mühlenrad.« Der eine rückte heraus mit »in a cool reason since a mill wheel goes«. Ein anderer schlug »in a kuehlen reason a mill wheel goes there« vor. Schwer zu sagen, wieviel heute übersetzt wird – jedenfalls sehr viel. Beim Volkswagenkonzern fallen jährlich etwa 250 000 Seiten an (vorwiegend technische Anleitungen und Stücklisten). Die etwa 600 literarischen Übersetzer und die vielen Gelegenheitstäter – sie sind die einzigen, deren Arbeit von der Öffentlichkeit ab und an, vorwiegend mißbilligend, zur Kenntnis genommen wird – zeichnen für etwa 3500 Bücher (das sind 800 000 Seiten) im Jahr verantwortlich. Insgesamt wurden in der Bundesrepublik 13 000 »Dolmetscher und Übersetzer« gezählt; ihr Bundesverband hat 3200 Mitglieder (und ist der Meinung, daß das Gros derjenigen, die es nicht zur 211
Mitgliedschaft gebracht haben, absolut unqualifiziert sei). Wenn man annimmt, daß zwei Drittel von ihnen schriftlich übersetzen und daß jeder ein Durchschnittspensum von sechs Seiten pro Arbeitstag schafft, kommt man auf eine Jahresproduktion von 12 Millionen Seiten. Der Output der »Gebrauchsübersetzer« überträfe also den der werter geschätzten und unwerter bezahlten literarischen Übersetzer um das Fünfzehnfache. Denn die zunehmende Verflechtung der Staaten – wirtschaft lich, politisch, kulturell, touristisch – ist darauf angewiesen, daß still im Hintergrund Übersetzer ihre Arbeit tun. Träten sie – kuriose Vorstellung – einmal in Streik, so wären die internationalen Beziehungen auf längere Sicht gröblicher beeinträchtigt als durch jeden Streik etwa im Luft verkehr. Jede förmlichere internationale Begegnung braucht ihre übersetzten Arbeitspapiere und produziert ihre zu übersetzenden Sitzungsprotokolle. Jedes im- oder exportierte Gerät ist nur brauchbar, wenn es von einer Montage- und Bedienungsanleitung in der Landessprache begleitet wird, und diese »Manuale« erreichen oft stattliche Umfange und müssen überdies ständig dem neuesten Stand angepaßt werden. (Die vollständige Dokumentation zu einem PC, auf die eine ServiceWerkstatt zurückgreifen können muß, kann leicht um die 10 000 Seiten betragen – die Jahresarbeit von sechs Fachübersetzern. Zu einem der Bundesmarine gelieferten amerikanischen Zerstörer gehörte eine Gebrauchsanweisung von 300 000 Seiten, eine Jahresarbeit für 190 Übersetzer. Man witzelte: »Wenn er die Manuale an Bord nimmt, sinkt er.«) Oft gibt es ein neues Produkt längst 212
und gibt es doch nicht, weil die Handbücher in der betreffenden Sprache nicht fertig werden wollen. Innerhalb der Europäischen Gemeinschaft, so schätzt man, werden heute hundert Millionen Seiten im Jahr übersetzt. Weltweit beträgt der Wert der Fachübersetzungen jährlich über 50 Milliarden Mark; bei einem durchschnittlichen Seitenpreis von 50 Mark entspricht das einer Milliarde Seiten. Und die Menge wächst: um 15 Prozent jedes Jahr. Die europäische Gemeinschaft hat entschieden, daß die Sprache jedes ihrer Mitgliedsländer Amtssprache sein soll. Eine kluge Entscheidung, da man heute zu ahnen beginnt, welch ganz unersetzlichen Besitz für den Einzelnen wie für ein Volk die Sprache darstellt, in die man als Kind hineinwächst; und daß Plansprachen wie Esperanto schon darum keine Chance haben und trotz aller hochgemuten Verbrüderungseuphorie nie eine hatten. Aber nun hat man die Bescherung. Theoretisch müßte jedes Arbeitsdokument in jede der anderen Amtssprachen übersetzt werden. Die sechs Amtssprachen bis zum Beitritt Griechenlands ergaben schon 30 Sprachrichtungen; der Beitritt von Spanien und Portugal hat die Zahl der Amtssprachen auf neun und damit die der Sprachrichtungen auf 72 erhöht, darunter so ausgefallene wie Dänisch-Portugiesisch, für die es auch dann nicht genügend Übersetzer gäbe, wenn das Geld da wäre, sie einzustellen. Allein bei der Europäischen Kommission in Luxemburg werden jährlich etwa 850 000 Seiten übersetzt (bei den übrigen EG-Institutionen sind es noch einmal so viele). Ihr Sprachendienst hat 1100 Stellen. Beim Eu213
ropäischen Parlament in Straßburg sind mehr als die Hälfte der Beamten mit dem Übersetzen beschäftigt. Die Übersetzungsdienste verschlingen ein Drittel des Verwaltungsbudgets der EG. Das Sprachenproblem ist für die EG wahrhaftig längst keine Lappalie mehr. Es ist ihr über den Kopf gewachsen, und ihre Übersetzer sind überfordert. »Wenn aus der Europäischen Gemeinschaft ein bei den meisten Bürgern unbeliebter technokratischer Moloch geworden ist«, schrieb Hermann Kusterer, der Leiter des Sprachendienstes im Auswärtigen Amt, »dann nicht zuletzt wegen ihres für den Nichteingeweihten immer unverständlicheren Kauderwelsch: EUROSPEAK (oder auch FRUTSCH). Die Loslösung der sprachlichen von der sachlichen Arbeit hat daran nicht geringen Anteil.« Falls der Computer bei dem Sisyphus-Job auch nur ein wenig helfen kann, ist er hoch willkommen.
II Der Computer tut auch beim Übersetzen nichts anderes als das, was er immer tut, nämlich aufgrund einer Folge eindeutiger Rechenregeln (eines Algorithmus) eine Folge von Zeichen in eine andere Folge von Zeichen zu verwandeln, ein Symbol in ein anderes Symbol. Wir können uns in seine Lage versetzen, wenn wir uns vorstellen, wir müßten eine für uns sinnlose Zeichenkette – sagen wir en ymmärra teitä – rechnend so abändern, daß dar214
aus haargenau ne razunijem und nichts anderes wird. (Dann hätten wir ahnungslos einen finnischen Satz, der für verstehende Menschen ich verstehe Sie nicht bedeutet, in sein serbokroatisches Gegenstück übersetzt.) Und was eigentlich tut der Mensch, der übersetzt? Im Endeffekt verwandelt auch er Zeichenketten; aber als Ersetzung einzelner Buchstaben durch andere ist seine Arbeit offenbar nicht gerade treffend beschrieben. Es klingt wie die bare Selbstverständlichkeit: Wenn der Mensch etwas übersetzt, »versteht« er es zunächst, was immer im einzelnen hinter diesem Verstehen stecken mag. Er entnimmt dem Ausgangstext seine Bedeutung, vergegenwärtigt sie sich bewußt und formuliert sie in der Zielsprache neu, und zwar möglichst unter Verwendung gleichbedeutender Wörter und ähnlicher Satzstrukturen, aber wenn sich die Quellbedeutung so nicht realisieren läßt, auch mit ganz anderen sprachlichen Mitteln. Weil er den Satz versteht, »weiß« er, daß jener kühle Grund nie und nimmer eine kühle Ursache sein kann, und er weiß es selbst dann, wenn er das Wort Grund in der Bedeutung, die es hier hat, gar nicht kennt (wenn es also in seinem persönlichen »Lexikon« bisher nicht enthalten war). Er weiß es nicht kraft überlegener linguistischer Analysefähigkeit, sondern weil er eine Menge über die Welt weiß; zum Beispiel, daß Ursachen keine Temperatur zu haben pflegen, daß Mühlen mit einem Rad wahrscheinlich Wassermühlen sind, daß Wassermühlen am Bach stehen, daß Bäche auf dem Talgrund fließen, daß Räder, wenn sie gehen, nicht laufen, sondern sich drehen … Dies Sammelsurium von Kenntnissen und man215
che mehr, überhaupt jeden beliebigen Fingerzeig zieht er zu Rate, wenn er jenen Satz hört und versteht und dabei seine mehrdeutigen Wörter, die vieles bedeuten könnten (Grund, gehen), eindeutig macht. Und genau betrachtet, sind sie fast alle mehrdeutig: da, kühl, in … Wenn wir uns an die Grammatikstunden in der Schule erinnern, dann schwant uns wohl, daß Sprache etwas Kompliziertes sein muß. Da sie uns aber normalerweise ausnehmend leicht von der Zunge geht, entgeht uns ganz, was unser Geistorgan tatsächlich alles leistet, wenn es Sprache versteht oder hervorbringt. Erst die Versuche, den Computer zur Nachahmung des übersetzenden Menschen zu bewegen, haben uns zum Beispiel daraufgestoßen, wie vieldeutig alle natürliche Sprache ist, im Gegensatz zu Computersprachen. Was unser Sprachverständnis ganz ohne Aufhebens erledigt, ja ohne daß man es auch nur merkte, ist für den Computer eine rechnerische Kraftanstrengung sondergleichen, die auch größere Exemplare an den Rand ihrer Kräfte bringt: die »Disambiguierung«, die Vereindeutigung. So zeigt uns erst der Rechner, was wir können. Die maschinelle Übersetzung geht normalerweise in drei Schritten vor sich: Analyse, Transfer, Synthese. Der schwierigste und aufwendigste Teil ist der erste, die Analyse; er macht etwa vier Fünftel der Arbeit aus. Am Anfang also steht die Analyse. Normalerweise nimmt sich der Computer Satz für Satz vor. Nur in ganz fortgeschrittenen Systemen sieht er unter Umständen auch über die Satzgrenzen hinaus. Aber was ist ein Satz? Einfache Sache, denkt man: Ein Satz reicht von 216
Punkt zu Punkt. Die F.D.P. tagt zum 3. Mal am 6.1. Mit der Satzdefinition »von Punkt zu Punkt« käme der Computer nicht weit. Also braucht er auch noch ein Verzeichnis der Fälle (Abkürzungen und Ordnungszahlen), in denen der Punkt möglicherweise kein Satzende bedeutet, möglicherweise aber doch. Dann muß er sich an die Wörter machen. Er nimmt also jede der Zeichenketten zwischen den Zwischenräumen und vergleicht, ob er so etwas in seinem Lexikon hat. Dabei muß er flektierte Formen erkennen (und sich merken). Und um Flexionsformen zu erkennen, muß er die Wörter in Basis-und Flexionsmorphem zerlegen können (also etwa die Zeichenkette Leitungen in die Morpheme /leitung/ und /en/, vielleicht sogar zu /leit/, /ung/ und \en\). Hat er eine Zeichenkette nicht im Lexikon, so könnte das auch daran liegen, daß es sich um eine der im Deutschen so beliebten Wortzusammensetzungen handelt. Für die nunmehr also fällige Komposita-Analyse muß er einzelne Buchstabengruppen im Innern der Wörter mit seinem Lexikon abgleichen. Bei den ersten Versuchen mit der maschinellen Übersetzung gab man sich noch dem Glauben hin, es würde schon etwas Brauchbares herauskommen, wenn nur jedes Wort der Quellsprache durch das entsprechende Wort der Zielsprache ersetzt wird. Es war naiv. Man nehme einen simplen Satz: He is trying on his pants. Klar doch: Er probiert die Hose an. Aber nun ersetze man Wort für Wort: Er, ist, mühsam, auf, sein, keucht. Ganz offenbar kommt man auf diese Weise nicht nur zu keiner brauchbaren Übersetzung, sondern überhaupt nur zu sinnlo217
sem Wortsalat. Eben auf diese Weise radebrechen die anspruchslosen Übersetzungsprogramme für den PC, die heute verschiedentlich angeboten werden. Manchmal, selten, kommt zufällig das Richtige heraus, öfter aber nur »Lübke-Englisch« à la equal goes it loose. Darum reicht die morphologische Analyse (also die Suche nach Morphemen, die Untersuchung der Wörterstruktur) nicht aus. Der Computer muß die Wortebene hinter sich lassen und sich an die syntaktische Analyse machen. Er muß tun, was wir in der Schule so ungern taten: Satzglieder grammatisch bestimmen. Ihm aber fällt es noch schwerer, eben weil er gar nichts versteht und darum viel mehr zu tun hat. Die Tätigkeit heißt bei ihm »Parsen« (von lateinisch pars, Teil); in der Schule hieß sie »Sätze zerlegen«. (Das Gegenstück zum Parser ist der Generator: die Komponente, die Wörter zu grammatikalischen Sätzen zusammenbaut.) Denn die Bedeutung eines Satzes ist natürlich etwas ganz anderes als die Summe der Bedeutungen seiner Wörter, und die Bedeutung seiner Wörter ergibt sich zum Teil erst aus ihrer Stellung im Satz. Den Wörtern Atem Wangen spüren ich ihr noch auf die entnimmt man irgendeinen Sinn, und gar den gemeinten, höchstens dann, wenn man sich an den Anfangssatz eines berühmten Hofmannsthal-Gedichts erinnert, der sich aus ihnen zusammensetzt, wenn man also die richtige Reihenfolge kennt. Die Bedeutung eines Satzes ergibt sich erst aus den Beziehungen seiner Wörter zueinander. Das Regelsystem, das beschreibt, wie sich die Wörter einer Sprache zu richtigen Sätzen zusammenstellen lassen, heißt Syntax. Damit 218
der Sinn eines Satzes verstanden werden kann, muß der Satz also nicht nur Wort für Wort, sondern auch noch syntaktisch analysiert werden. Zur syntaktischen Analyse untersucht der Computer, welche Wortgruppen innerhalb eines Satzes zusammengehören – er spürt auf, was die Linguisten Konstituenten oder »Phrasen« nennen. Schließlich entwirft er einen baumförmigen Satzbauplan, der angibt, wie alle seine Wörter voneinander abhängen. In dem Satz Immer sind die Leitungen alle besetzt etwa erkennt er eine Nominalphrase (alle die Leitungen) und eine Verbalphrase (sind besetzt, immer); in der Nominalphrase ein Nomen und einen Determinator; in diesem ein Pronomen und einen Artikel und so fort. So wie oben auf der nächsten Seite könnte ein Strukturbaum (oder Graph oder Phrase Marker) dieses Satzes aussehen; er gibt wie üblich nur die logische Struktur des Satzes wieder, nicht die Zwänge und Freiheiten der deutschen Wortstellung (die zu etlichen teils obligatorischen, teils fakultativen Kreuzungen der Äste führten). Ein solcher Baum läßt sich auch als eine syntaktische Anweisung für den Bau eines erlaubten – also grammatikalischen – Satzes lesen, nämlich als eine Phrasen-Struktur-Grammatik für einen bestimmten Satztyp. Etwa so: Mache einen grammatisch richtigen Satz [oberste Zeile]; was für Sätze grammatikalisch sind, entnimmst du diesem Graph – anders gebaute Sätze sind nicht erlaubt. Er soll eine Nominal- und eine Verbalphrase enthalten [zweite Zeile]. Die Nominalphrase soll sich aus einem Determinator und einem Nomen zusammensetzen; die 219
Satz Nominalphrase
Verbalphrase
Determinator Nomen
Adverb Verbformen
Pronomen Artikel
alle
Hilfsverb Vollverb
die Leitungen immer sind
besetzt
Verbalphrase aus Adverb und Verb. Der Determinator wiederum soll aus Pronomen und Artikel bestehen; das Verb aus Hilfsverb und Vollverb. Wie man sieht, käme man nie an ein Ende, wenn man sämtliche möglichen Satzbaupläne einer natürlichen Sprache auf diese Weise beschreiben wollte. Darum hat die Linguistik in den letzten Jahrzehnten wenig so sehr beschäftigt wie die Bemühung, Abkürzungswege ausfindig zu machen, kürzere Formeln, mit deren Hilfe sich eine große Zahl grammatikalischer Sätze beschreiben, beziehungsweise erzeugen ließe. Ist die Satzstruktur bestimmt – und dies ist dann der zweite Schritt, der Transfer – wird sie in eine analoge Baumstruktur der Zielsprache abgebildet. Und schließlich wird der neue Satz generiert, indem die Wörter der Zielsprache, die der Transfer der Basismorpheme ergeben hat, mit den durch die syntaktische Struktur der Zielsprache bedingten Affi xen an den Baum geheftet wer220
den: All the lines are always busy. Die schlichte Wort-fürWort-Übersetzung hätte nur zu so etwas wie always are the cables all taken oder forever are the managements all occupied geführt. Die syntaktische Analyse hat nicht nur eine grammatikalische Wortfolge in der Zielsprache ermöglicht. Sie hat (wenn sie funktioniert) auch sind besetzt als Prädikat zu Leitungen erkannt und war so imstande, die richtigeren Wörter zu wählen. Der Computer ist immer und bei allem auf Eindeutigkeit angewiesen. Manchmal wird er schon bei der Untersuchung der Wörter auf Mehrdeutigkeiten stoßen, die er nicht auflösen kann. So wird er zum Beispiel nie wissen, ob er das Seherleben als visual experience oder als life of a prophet zu übersetzen hat: Seh-Erleben oder Seher-Leben. Seziert er das Kompositum falsch, so produziert er Abfall – etwa wenn er das Gesundheitsamt mit health velvet wiedergibt. Auf der nächsten, der syntaktischen Ebene stößt er auf neue Mehrdeutigkeiten, ohne deren Auflösung er scheitern muß. Sie trägt eine enge Hose und Bluse: Bezieht sich das enge auch auf Bluse? Bei der Übersetzung ins Englische kann sich der Computer um die Entscheidung drücken, da dieses die gleiche Ambiguität zuläßt: She wears tight slacks and blouse. Nicht bei der Übersetzung ins Französische: Elle porte un pantalon collant et une blouse – collante? Ein weiteres Problem besteht darin, daß nicht jede Sprache gleich viel Information in einen Satz steckt. Das Russische etwa hat keine Artikel. Es ist in dieser Hinsicht »unterspezifiziert«. Slutschainost heißt Zufall – aber der Zufall oder ein Zufall oder nur (etwa in einem Titel oder 221
als Ausruf) ein bares Zufall? Nichts in der Ursprungssprache gibt dem Computer den mindesten Hinweis. Er braucht eine Heuristik, die es ihm erlaubt, in solchen Fällen selber eine Entscheidung zu treffen. Solange er, wie fast alle heutigen Systeme, Satz für Satz vorgeht und größere Zusammenhänge ignoriert, ist für ihn auch ein Problem schlechterdings unlösbar, welches wir beim Sprachverstehen gar nicht bemerken und darum für winzig zu halten geneigt sind: das der anaphorischen Pronomen, jener also, deren Bedeutung sich nur aus den Sätzen davor ergibt. Sie sind unausstehlich: allein aufgrund dieses Satzes können weder Mensch noch Computer entscheiden, ob you oder they gemeint ist. Hier muß der Computer passen. Einige der heute eingesetzten Maschinenübersetzungsprogramme begnügen sich mit oberflächlichen syntaktischen Analysen. Sie suchen nach Nominal- und Verbalgruppen und versuchen dann ihr Glück, oft durchaus mit Erfolg. Andere treten erst in Aktion, wenn der ganze Satz bis hin zu seinem letzten Bestandteil analysiert ist. Das macht sie im Prinzip mächtiger. Aber je länger und komplexer der Satz, desto mehr Rechenzeit ist nötig, und desto mehr Gelegenheiten gibt es, falsche Beziehungen zu konstruieren. Praktisch läßt die vollständige Analyse die Maschine oft ratlos, oder sie verleitet sie zu Nonsens-Sätzen. Je mehr Erfahrungen man mit der syntaktischen Analyse sammelte, desto klarer stellte sich heraus, daß auch sie noch nicht genügt. Unrecht hatte die Maschine ja nicht, als sie Grund mit reason übersetzte. Beiden Tex222
ten, auf die sie eingerichtet ist, hätte sie damit meist das Richtige getroffen. Aber wie soll sie feststellen, daß in diesem Fall ein anderes Wort zu stehen hätte? Man könnte ihre syntaktischen Analysefähigkeiten verfeinern, etwa indem man sie instruiert, daß für Grund dann, wenn ein aus vorausgeht, reason zu nehmen ist, nach auf aber bottom und nach in das Wort Valley. Dann hätte sie die Verszeile richtig übersetzt (wenn auch noch alles andere als gut). Aber die Zahl der nötigen syntaktischen Regeln stiege so schnell ins Unermeßliche. Trotzdem wäre die Maschine irgendwann wieder am Ende ihres Lateins, nämlich bei Sätzen wie aus einem kühlen Grunde da floh ein Müllerbursch oder im Grunde war sein Herz nicht schwer. Also müßten die syntaktischen Feinregeln weiter verfeinert werden. Und einmal wäre die syntaktische Analyse doch ausgeschöpft, ohne daß alle Mehrdeutigkeiten beseitigt wären. Wie also weiter? Indem man der Maschine auch noch semantische Kenntnisse beibringt? Man nehme einen simplen Satz (und die Probleme des Unternehmens zeigen sich nicht erst an Thomas-Mannschen Perioden, sondern schon an einfachsten Sprachbruchstücken), wie er in den technischen und kaufmännischen Texten, mit denen die Übersetzungscomputer fertig werden sollen, dauernd vorkommen könnte: Die Einkaufsabteilung bestellt die Ersatzteile. Er könnte auch umgestellt auftreten: Die Ersatzteile bestellt die Einkaufsabteilung. Eine syntaktische Analyse reicht, um festzustellen, daß nur die Einkaufsabteilung das Subjekt sein kann – sonst müßte ja bestellen und nicht bestellt dastehen. 223
Aber nun laute der Satz: Die Schaufeln besorgen die Außenbüros. Die Maschine kann syntaktisch nicht entscheiden, wer hier was besorgt und somit Subjekt ist. Aber wenn sie »wüßte«, daß das Verb besorgen nur bei einem belebten, menschlichen Handelnden stehen kann und daß ein Außenbüro solch ein handlungsfähiges Subjekt ist, dann käme sie ein Stück weiter. Jedes Wort, das man dem Lexikon der Maschine hinzufügt, braucht also eine Vielzahl von semantischen Etiketts oder Fähnchen oder Marken, neben den Marken, die festhalten, wie es zu flektieren ist. Diese Marken sind hierarchisch organisiert. Das Wort Schaufel etwa trägt bei SYSTRAN die Marke »Bauwerkzeug« und damit automatisch die höherrangigen Marken »Gerät«, »konkreter Gegenstand«, »unbelebt«, »wahrnehmbar« und »Ding« – und im Fall des Falles »weiß« der Computer dann, daß ein solches Symbol nicht an Stellen gehört, die für menschliche Handelnde reserviert sind. Bis zu 150 solcher Marken trägt jedes Wort bei SYSTRAN. Jedes neu aufgenommene Wort muß anhand langer Abfragelisten »gelabelt« werden. Je fremder sich die Sprachen sind, die ineinander übersetzt werden sollen, um so mehr Semantik wird der Computer nötig haben. Bei den nahe verwandten indoeuropäischen Sprachen kann er immerhin davon ausgehen, daß er die Sätze ungefähr so erhalten kann, wie sie sind, und jedes Wort und jede Wendung durch ein anderes Wort oder eine andere Wendung ersetzen darf. Wenn zwei Sprachen eine bestimmte Bedeutung jedoch mit völlig verschiedenen lexikalischen und syntaktischen Mitteln 224
ausdrücken, kommt er nicht umhin, die Analyse bis in die Tiefen der Bedeutung voranzutreiben. Außerdem benötigt er immer eine auf den jeweiligen Zweck zugeschnittene Sammlung von pragmatischen Regeln, die sich sozusagen an allen lexikalischen, syntaktischen und semantischen Transferregeln vorbeidrängeln müssen. Soll das System zum Beispiel Geschäftsbriefe übersetzen, so muß es »wissen«, wie Briefpartner in den Übersetzungssprachen einander anreden und grüßen, wie sie Wünsche und Dank ausdrücken, welche Höflichkeitsformen sie einfließen lassen. Der Imperativ Ziehen Sie den Nippel durch die Lasche in einer Gebrauchsanweisung wäre im Französischen rüde; hier müßte der Computer wissen, daß er den Infinitiv zu setzen hat (tirer s.v.p.). Selbst manche höchst simplen Sätze lassen sich nur mit der in ihnen steckenden lexikalischen, syntaktischen, semantischen Information sowie mit pragmatischer Information über ihren Gebrauch schlechterdings nicht übersetzen. Übersetzbar werden sie erst, wenn allgemeines Wissen hinzukommt und sie disambiguiert: das, was bei den Adepten der Künstlichen Intelligenz »Weltwissen« heißt. Eins der allerhäufigsten englischen Verben zum Beispiel führt regelmäßig und unentrinnbar zu solchen Schwierigkeiten – to put. Es kann setzen, stellen, legen und noch manches mehr heißen. Wann aber soll der Übersetzungsautomat setzen, wann stellen, wann legen dafür einsetzen? He puts the letter on the table: Nur legen wäre richtig – aber warum? Weil ein Brief flach ist und darum gemeinhin nicht aufrecht steht und ein Tisch eben ist 225
und keine Hülle. Genau dies müßte der Computer wissen, um das richtige deutsche Verb zu wählen. Da die Analyse jeder einzelnen Sprache ein so langwieriger und mühseliger Prozeß ist, wäre es natürlich wünschenswert, ihn nicht für jede Sprachrichtung wiederholen zu müssen. Innerhalb der EG zum Beispiel gibt es zweiundsiebzig Sprachrichtungen; die ganze Arbeit wäre also zweiundsiebzig Mal zu machen – von vornherein ein Ding der Unmöglichkeit. In solchen Fällen ist ein anderer Ansatz nötig: Man braucht eine gemeinsame Zwischensprache, eine Interlingua, in die und aus der alle Einzelsprachen übersetzt werden. Was sonst für jede Sprache achtmal gemacht werden müßte, muß dann nur noch ein Mal gemacht werden: Analyse, Transfer in die Interlingua und zurück aus der Interlingua, Synthese. Das Ganze muß sich modular zusammensetzen und jederzeit um weitere Sprachen erweitern lassen. Ein solches Interlingua-System übersetzt immer doppelt: erst aus der Quellin die Zwischensprache, dann aus dieser in die Zielsprache. Was aber einmal in die Zwischensprache übersetzt wurde, läßt sich jederzeit in jeder der angeschlossenen Zielsprachen abrufen. Es kommt nur darauf an, daß die Interlingua von vornherein tragfähig genug konzipiert ist. Sie muß aus den Quellsprachen sämtliche Informationen aufnehmen können, die für die Übersetzung in irgendeine der Zielsprachen gebraucht werden. Was die Europäische Gemeinschaft seit 1982 entwikkelt und wofür sie schon 45 Millionen ECU (etwa 97 Millionen Mark) aufgewendet hat, ist eine Art Airbus, einer allerdings, der zwar auch ein Stück High-Tech ist, den 226
man aber nicht sehen und nicht anfassen kann, ein geistiger Airbus sozusagen. In acht Mitgliedsländern arbeiten etwa zwanzigköpfige Forschungsteams an dem Mammutprojekt eines Übersetzungssystems, das eines Tages alle Amtssprachen der EG ineinander verwandeln können soll, zunächst allgemeine Verwaltungstexte ohne jede syntaktische Beschränkung, später auch andere: EUROTRA. Die Pointe von EUROTRA besteht darin, daß es ein Interlingua-Projekt ist, und zwar das mit Abstand größte auf der Welt. Das heißt, die Analyse der Quellsprachen wird nach einheitlichen Kriterien tief genug vorangetrieben, um sie in eine abstrakte Zwischensprache umzusetzen, die dann in sämtliche acht Zielsprachen übertragen werden kann. Jede Eingabe produziert eine bis zu achtfache Übersetzung. Man hat sich ausgerechnet, daß sich EUROTRA schon rentieren wird, wenn es die Übersetzer der EG nur um 10 Prozent produktiver macht. Gelegentlich ist darüber gespottet worden, daß seine vielen Mitarbeiter im endlosen Theoretisieren viel besser sind als im praktischen Übersetzen. Bis EUROTRA tatsächlich für irgendeine praktische Aufgabe eingesetzt werden kann, wird es sicherlich 1995 werden. Von jedem praktischen Nutzen für die EG-Bürokratie abgesehen, wird aber schon die Tatsache, daß viele europäische Universitäten durch EUROTRA tief in die Probleme der Sprachformalisierung eindringen konnten, nicht ohne Folgen bleiben. Die entsprechenden Kenntnisse werden dann nicht nur in Japan gehortet worden sein. 227
Bei dem EUROTRA-Projekt der EG hat die verwendete Interlingua keine sichtbare Ähnlichkeit mit irgendeiner natürlichen Sprache. Jeder Satz der natürlichen Quellsprachen wird in eine abstrakte logische Formel umgewandelt, die nur noch seine Bedeutung repräsentiert; und diesem dürren Skelett mathematischer Formeln in seinem Innern läßt das System dann vielsprachig wieder natürliches Fleisch wachsen. Einen anderen Weg geht die niederländische Softwarefirma BSO mit ihrem von dem Softwareingenieur Toon Witkam 1979 auf den Weg gebrachten Projekt DTL (Distributed Language Translation). Das Ziel ist ein vielsprachiges und leicht ausbaufähiges MT-System für den normalen – einsprachigen – PC-Benutzer, das kein Nachredigieren erfordert und alle eventuellen Mehrdeutigkeiten schon während des Übersetzens durch Rückfragen an den Eingeber, also »interaktiv« auflöst. Bis 1988 wurden zwei Prototypen (Englisch-Französisch, FranzösischEnglisch) fertig; jetzt soll daraus ein verkäufliches Produkt werden. Das Interessanteste an ihm ist die verwendete Zwischensprache: keine prädikatenlogische Notation, sondern schlicht die Kunstsprache Esperanto. Von der Ingenieurswarte aus gesehen, ist jede natürliche Sprache »schmutzig«: Sie läßt sich nicht restlos formalisieren, und voll ist der Bedeutungsinhalt keines Satzes auszuschöpfen – das eben macht ja aus, was uns als ihr Reichtum erscheint. Die Zwischensprache des Computers hingegen muß garantiert »sauber« sein; sie darf nur eine begrenzte Zahl von Bedeutungen notieren, diese aber vollständig und eindeutig. Darum auch gebricht es ihr not228
wendig an Ausdrucksfähigkeit. Von Esperanto erhofft man sich einen Kompromiß, nämlich »die inhaltliche Ausdrucksfähigkeit einer menschlichen Sprache [vereint] mit einer besonders übersetzungsfreundlichen Struktur« (Klaus Schubert, der zu DLT unter anderem ein eigenes Grammatikmodell beigesteuert hat). Anderen Kunstsprachen, schreibt Schubert, habe Esperanto etwas Wichtiges voraus: daß es seit über hundert Jahren draußen im Leben erprobt und fortentwickelt wurde. »Eine Zwischensprache muß über intersubjektiv feststehende Bedeutungen verfügen. Diese entstehen nur im konkreten Sprachgebrauch in einer Gemeinschaft. Sie lassen sich nicht am grünen Tisch festlegen.«
III Der bekannteste Witz auf dem Gebiet der MT ist die angebliche Fehlleistung eines Computers, der den Bibelsatz The spirit is willing, but the flesh is weak (Der Geist ist willig …) so ins Russische übersetzte, daß er sinngemäß als Das Steak ist in Ordnung, aber der Wodka läßt zu wünschen übrig herauskam. Der zweitberühmteste Beispielsatz lautet einfach: The box is in the pen. Er stammt von dem Jerusalemer Philosophen Yehoshua Bar-Hillel. Der wollte mit ihm in den sechziger Jahren demonstrieren, daß es FAHQT – die vollkommene automatische Übersetzung – nie geben kann. Wie nämlich sollte der Computer je daraufkommen, 229
daß pen hier kein Federhalter sein kann, weil eine Schachtel schlecht in den Federhalter paßt? Man könnte den Wörtern zwar auch noch Marken beigeben, die die Größe des Bezeichneten festhalten – dann »wüßte« er, daß der größere Gegenstand sich nicht in dem kleineren befinden kann, und nähme eine der anderen Bedeutungen von pen, vielleicht zu Unrecht, denn der Kleinheit einer Schachtel ist keine absolute Grenze gesetzt, und vielleicht ist ja gerade von dem präparierten Federhalter eines Spions die Rede. Meist aber lieferte das Größenkriterium in diesem Fall das richtige Ergebnis. Aber auch wenn sie mit seiner Hilfe den Federhalter verwirft – welches Wort soll die Maschine dann nehmen? Pferch? Laufstall? Kittchen? Was müßte sie alles wissen, um zwischen ihnen zu unterscheiden? Und gar um zu merken, daß der Satz entgegen allen semantischen Kriterien in einer bestimmten Weise übersetzt werden muß, weil er Ironien oder Wortspiele enthält oder ein Nonsens-Satz sein sollte? Man sage nicht, dergleichen komme so selten vor, daß man es vergessen könne. In Gebrauchsanweisungen und Stücklisten wohl, in der normalen Sprache aber keineswegs; dieser Absatz hier etwa wäre nur von einer meta-semantischen Ebene her zu übersetzen. Sprachliches Wissen reicht dazu nicht. Damit die Maschine einem solchen Satz gewachsen wäre, müßte sie alles »wissen«, was jeder Mensch weiß. Bar-Hillel: »Es läuft darauf hinaus, daß jede Übersetzungsmaschine nicht nur mit einem Lexikon, sondern auch mit einer Universalenzyklopädie ausgestattet werden müßte. Das ist sicher total schimärisch.« 230
Zu widerlegen ist das nicht. Aber es hat sich gezeigt, und Bar-Hillel hat es später auch erkannt, daß die Maschine oft auch ohne jenes Universalwissen zu passablen Ergebnissen kommen kann. Aber das größte praktische Problem ist tatsächlich die Polysemie der Wörter: daß ein und dieselbe Zeichenfolge ganz verschiedene Bedeutungen haben kann, daß etwa Ton bald die Erde, bald den Schall bezeichnet. Das MT-System TITUS fragt seinen Benutzer, ob er mit dem Wort Arbeiter einen Arbeitnehmer oder das so genannte Teil der Spinnmaschine meint. Im MT-System METAL aktiviert man jeweils das Speziallexikon des Fachgebiets, auf dem man gerade übersetzt. Befindet man sich im allgemeinen Grundwortschatz, übersetzt es Fehler mit mistake. Ist das allgemein-technische Modul aktiv, nimmt es statt dessen defect. Das Modul Datentechnik wiederum wählt fault, wenn es sich im Unterbereich Hardware befindet, aber error im Unterbereich Software. Jedesmal ist es die auf dem betreffenden Gebiet wahrscheinlichste Lösung, und damit wird es in der größten Zahl der Fälle recht haben. Aber natürlich könnte auch in einem Text über Software mistake oder defect angebracht sein oder etwas ganz anderes, das im System gar nicht vorgesehen ist, slip oder blunder oder misprint oder misunderstanding oder vieles mehr, und um auch dann noch das Richtige wählen zu können, müßte das System jederzeit den gesamten Text im Auge haben, nicht nur den jeweiligen Satz, und es müßte all das »Weltwissen« auf ihn anwenden können, mit dem ein Mensch und also auch ein »Humantranslator« an ihn heranginge. SYSTRAN kann 231
sich – in Grenzen – selber ausrechnen, mit welchem Sachgebiet es zu tun hat und welches Lexikon es also anzapfen muß. Aber man macht von dieser Fertigkeit ungern Gebrauch, denn sie muß immer wieder zu groben Irrtümern führen. Wenn etwa der Computer merkt, daß es sich um Elektrotechnik handelt, wird er brush immer mit Abnehmerbürste wiedergeben. Falls nun aber der Elektrotechniker im selben Text aufgefordert wird, die Reparaturtour nicht ohne brush anzutreten, damit aber ein ordinärer Staubpinsel gemeint ist, wird die Übersetzungsmaschine ihn vernagelt zum Einpacken einer Abnehmerbürste anhalten, und an Ort und Stelle sind ihm Flüche sicher. Vor Sätzen wie Auf unserm Stand auf der Messe informiert man sie aus dem Stand über den neuesten Stand der Technik oder Die Anlage der Anlage finden Sie in der Anlage muß jeder Computer die Fahne streichen. Zwar haben sich Geschwindigkeit und Kernspeicher der Rechner seit dem pessimistischen ALPAC-Bericht von 1966 beide um etwa das Hundertfache gesteigert. Ein umfangreicheres Wörterbuch, eine komplexe Grammatik und eine tiefe semantische Analyse verlangen aber auch heutigen Rechnern noch viel ab. Darum versuchen die in der Praxis eingesetzten Systeme gar nicht mehr, auch noch die letzte Mehrdeutigkeit aufzulösen. »Es erscheint legitim«, schreibt der Saarbrücker Computerlinguist Harald H. Zimmermann, »ein Prinzip zu tolerieren, das in der Textverarbeitung längst bekannt ist: die Einbringung von wahrscheinlichen Lösungen anstelle von langatmigen (und häufig letztendlich erfolglosen) wei232
teren Analysen oder auch Regelausweitungen für Indiosynkrasien, das heißt einmal vorkommende Fälle.« Es »scheint legitim«, und es bleibt auch gar nichts anderes übrig. Die Übersetzungsmaschine heute hantiert mit einer lexikalisch und grammatisch eingeschränkten Sprache, und sie liefert dafür die wahrscheinlichste Übersetzung, die leider des öfteren nicht die richtige ist und die man darum besser nur für eine Rohübersetzung hält. Bestenfalls kommt ein verständlicher Text ohne eklatante Sinnfehler heraus. Thomas Schneider, Computerlinguist bei der Firma Siemens und einer der Entwickler des MTSystems METAL: »Nein, In einem kühlen Grunde ist kein Fall für die MT, und es ist eigentlich unfair, sie mit dergleichen zu testen. Sie eignet sich nicht für literarische Texte, bei denen es auf Bedeutungsnuancen ankommt, nicht für Umgangssprache, wie man sie im mündlichen Gespräch formuliert, nicht für Vertragstexte, die rechtsverbindlich sind und auch absolut eindeutig und richtig sein müssen, nicht für Werbung, wo frappierende Formulierungen zählen. Maschinenübersetzung ist allein dafür gedacht, Informationstexte in spezifischen Fachgebieten zu übersetzen.« Bei der Maschinenübersetzung gilt wie in der ganzen Computerwelt das Gesetz »GIGO« – garbage in, garbage out (Müll rein, Müll raus). Müll aber kommt oft auch heraus, wenn hineingetan wurde, was der sprechende Mensch völlig in Ordnung findet. Lebende Sprache ist zwar »müllig«; aber das Prinzip »Quick & Dirty« (Schnell & Schmutzig) läßt sich vielen Texten, vielen Lesern nicht zumuten. 233
IV Keiner wird je eine Übersetzungsmaschine »erfinden«. Dem Tüftler, der beim Patentamt vorspräche und erklärte »ich hab’s!«, könnte man auf den Kopf zusagen, daß sie nicht funktioniert. Maschinelle Übersetzungssysteme können nur in jahre- und jahrzehntelanger Engelsgeduld entwickelt und langsam verbessert werden. Am Anfang müssen vielversprechende Analyseverfahren ersonnen werden. Dann muß man nach und nach das Lexikon vergrößern – und probieren und noch einmal probieren, was für Sätze sich damit erzeugen lassen. Denn was die Anwendung von Tausenden von Regeln im konkreten Fall bewirkt, kann kein Mensch übersehen. Welche Folgen eine Eingabe in ein komplexes System haben wird, kann selbst der nicht wissen, der es entworfen hat. Und wenn es sich im Laufe der Erprobung herausstellt, daß die grundlegenden Ideen doch nicht so gut waren, oder wenn die Geldgeber die Geduld verlieren, dann war die ganze Arbeit für die Katz, und zurück bleibt eine der bei der MT zahlreichen Entwicklungsruinen. In Europa steht die größte an der Universität Grenoble: die Systeme CETA und GETA, in einer Assemblersprache geschrieben, die sich zu spät als zu unflexibel erwies. Die deutsche Textilindustrie leistet sich eine Dokumentationsstelle, die die gesamte technische Fachliteratur dieses Sektors sichtet und zu Abstracts verarbeitet. Es geschieht in internationaler Zusammenarbeit zwischen Deutschland, England, Frankreich und Spanien. Schon seit 1971 wurde dabei ein in Frankreich entwik234
kelter Übersetzungsautomat verwendet: TITUS. TITUS funktioniert, ohne Wenn und Aber. Es enttäuscht seine Benutzer fast nie. Aber es kann auch nur wenig. Von vornherein ist es nur einem kleinen Sprachausschnitt gewachsen. Der Dokumentar hat den Artikel gelesen, den er »abstrahieren« will, und setzt sich vor den Bildschirm, um die Zusammenfassung einzugeben. Er kann sie nicht formulieren, wie er will. Von den etwa dreißig grundlegenden Satzbauplänen des Deutschen beherrscht TITUS nur einen: Subjekt-Prädikat-Objekt. Diese drei Glieder lassen sich allerdings stark erweitern, und am Ende dürfen sogar bis zu drei Nebensätze stehen. So tippt er: »Die Materialeinsparung und die verbesserte Nahtfestigkeit (15–20%) der Bekleidung im Vergleich mit dem klassischen Verfahren werden untersucht.« Oder: »Der Pullover aus Baumwolle aus den USA besteht nur aus 50 000 Maschen; weil das Strickgarn grob ist.« Dann schickt er das Ganze per Telefonleitung nach Paris. Dort steht der Übersetzungscomputer. Er prüft, ob der Satz dem Schema entspricht, und sieht in seinem Lexikon (10 000 fachliche und 4000 allgemeine Wörter) nach, ob er alle seine Wörter kennt und eindeutig übersetzen kann. Kann er es nicht, fragt er zurück: ›»Maschen‹ ist polysemisch: 1. Element der Maschenware, 2. Aktion, 3. Netze, Gitter usw. Welches?« Der Dokumentär antwortet »1« – und da nunmehr alle Mehrdeutigkeiten beseitigt sind, sind sofort auch schon die drei Übersetzungen fertig, eingeschlossen sogar die richtige Wiedergabe der beiden verschiedenen aus (aus Baumwolle, aus den USA): »Le pull-over en coton en provenance 235
de USA consiste seulement en 50 000 mailles parce que le fil de bonneterie est gros.« – »Cotton. pull-over from the USA consists only of 50 000 stitches because knitting yarn is coarse.« – »El chaleco de punto de algodon procedente de los USA consiste solamente en 50 000 mallas de punto por que el hilo para tejido de punto es grueso.« Und was mehr wollte man wünschen? TITUS übersetzerische Kunstfertigkeit aber reichte nur, weil die Dokumentare die Texte ohnehin neu schreiben und eingeben mußten. Hätte es die Texte schon gegeben, und hätte sie erst noch jemand mundgerecht für TITUS aufbereiten müssen, so wäre jeder Vorteil dahin gewesen und die »Humanübersetzung« rationeller. TITUS’ durchaus eindrucksvolles, aber sehr beschränktes Können war also auf diesen einen Verwendungszweck zugeschnitten. Auf freie – nicht »kontrollierte« – Sprache in all ihrer Fülle angesetzt, hätte er scheitern müssen. Und da der Aufwand für die Eingabe in der TITUS-eigenen Syntax hoch war und viele potentielle Kunden den Stil der Abstracts barbarisch fanden, verzichtete man 1990 auf die Dienste dieses maschinellen Dolmetschs. MT-Systeme für derart stark kontrollierte Sprache haben keine Zukunft. Bei etlichen privaten Firmen werden inzwischen Übersetzungssysteme eingesetzt. Zwei der heute kommerziell vertriebenen Systeme (ALPS und WEIDNER) gingen aus den missionarischen Anstrengungen der Mormonen hervor, die sich damals von dem ALPAC-Bericht nicht einschüchtern ließen; beide laufen auf Mikrocomputern. So gut wie alle großen japanischen Elektronikkonzerne haben MT-Systeme entweder schon in ihrem Programm 236
oder arbeiten daran, in erster Linie zum Dolmetschen zwischen Japanisch und Englisch; einer, Fujitsu, entwikkelt zur Zeit auch eine deutsche Variante (ATLAS II). Die in Europa zur Zeit verbreitetsten Systeme sind SYSTRAN, das ebenfalls amerikanische LOGOS und das deutsche METAL . SYSTRAN, für die amerikanische Luft waffe entwickelt, ist das mit Abstand älteste MT-System, das heute irgendwo läuft, geradezu schon ein Veteran seiner Spezies. 1976 kaufte die Europäische Gemeinschaft für 300 000 Dollar die Nutzungsrechte, und 35 Mitarbeiter sind dort mit seiner Weiterentwicklung befaßt. Sechs Sprachrichtungen hält man heute für funktionstüchtig; an weiteren wird gearbeitet. »Zuerst waren wir lange in der Steinzeit, da kam jede Menge völlig unverständlicher Unsinn heraus«, sagt eine Linguistin aus Luxemburg, deren Arbeit darin besteht, auf Fehler hin durchzusehen, was SYSTRAN produziert, und fehlende Vokabeln und Grammatikregeln mitsamt all ihren »Marken« in Formulare einzutragen, von denen ein Programmierer sie dann dem in Dublin stehenden EG-Computer einverleiben wird. Gerade hat sie diesen dabei erwischt, daß er he is prepared to nach seiner Logik richtig, nach der seiner menschlichen Erbauer falsch mit er wird vorbereitet (statt er ist bereit) übersetzt. »Bei den Sprachrichtungen, an denen wir jetzt seit zehn Jahren ständig herumbessern, Englisch-Französisch und umgekehrt, haben wir 74 000 Wortstämme mit 92 000 Übersetzungsmöglichkeiten im Lexikon und sind nun immerhin im Mittelalter angekommen. Aber jede neue versetzt uns erst einmal zurück in die Steinzeit.« 237
Im Kernforschungszentrum Karlsruhe übersetzt man mit dem SYSTRAN der EG seit fünf Jahren französische Forschungsberichte über den Schnellen Brüter und die Kernfusion ins Englische, etwa 5000 Seiten im Jahr, ohne jede menschliche Nachbesserung. Man ist nicht unzufrieden: Was der Computer liefert, sei zu über 98 Prozent »verständlich«. Mehr ist nicht verlangt – man will hier nur »den Sinn erschließen« können. Zu 5 Prozent kommt zwar Verständliches, aber Falsches heraus, etwa wenn der Computer fatalerweise eine der schwierigen französischen Verneinungen übersieht oder mißversteht. Die Leser werden gewarnt, daß es sich um das fehlbare Werk einer Maschine handelt. Die privaten Nutzungsrechte besitzt seit 1987 die französische Firma Gachot. SYSTRAN kann man nicht kaufen oder mieten; man kann sich aber von Gachot mit ihm maschinelle Rohübersetzungen machen lassen, und zwar sehr schnell, nämlich über Minitel, eine Art französischer Bildschirmtext mit drei Millionen Abonnenten; der SYSTRAN-Großcomputer bei Paris bewältigt eine halbe Million Wörter (1500 Seiten) pro Stunde. Ein MT-System, das seit über einem Jahrzehnt jedermann mieten oder kaufen kann, ist das amerikanische LOGOS. Seit 1980 hat es auch die Sprachrichtung DeutschEnglisch. Ihr Grundlexikon zählt 130 000 Einträge; ihre Syntax nicht weniger als 30 000 Regeln. Eine Firma, die es seit Jahren einsetzt, ist zum Beispiel die Firma Eppendorf in Hamburg. Sie stellt medizinische Geräte her, von schlichten Plastikpipetten zu elektronischen Analyseautomaten. Viele davon werden exportiert. 238
In der Exportindustrie weiß man, daß ein Produkt ohne fremdsprachige Bedienungsanweisungen im Ausland unverkäuflich ist. Eppendorf läßt seine englischen Informationstexte von einer kleinen eigenen Übersetzungsabteilung machen, einer Deutschen, einer Amerikanerin, einem Engländer. Dreiviertel ihres Pensums, nämlich etwa 1500 Seiten im Jahr, erledigen sie seit 1983 mit LOGOS. Für ihre Zwecke haben sie sich seitdem ein eigenes Lexikon mit etwa 19 000 Einträgen aufgebaut. Jede Computerübersetzung (mit Ausnahme des Wetterbericht-Systems TAUM-METEO, das es nur mit stark stereotypisierten Floskeln zu tun hat) braucht heute menschliche Hilfe, davor oder während oder danach, Preediting oder interaktives Editing oder Postediting genannt. Auch LOGOS-Übersetzungen müssen nachgebessert werden. Vor dem LOGOS-Bildschirm wird der Übersetzer zum Nachredakteur. Trotzdem möchten die drei auf die maschinelle Hilfe nicht mehr verzichten. Es geht schneller so. Und sie finden, ihre Übersetzungen seien seitdem auch besser. Vor allem, weil sie dank der Sturheit der Maschine ein Problem ausgeräumt haben, um dessentwillen größere Firmen heute eigene Terminologen beschäftigen: daß das gleiche höchst spezielle Schräubchen mal so und mal so genannt wird und darum nicht mehr aufzufinden ist. Der Computer vereinheitlicht die Terminologie. Das Abflußsieb heißt immer so und nicht aus Vergeßlichkeit oder Unentschlossenheit oder sprachschöpferischem Ehrgeiz zwischendurch immer wieder einmal auch Auslaßlochblech. Die Produktivität der Übersetzer bei Eppendorf hat 239
LOGOS etwa verdoppelt. Ein Übersetzer übersetzt pro
Stunde höchstens eine Seite; aber wenn er Übung hat, kann er drei bis vier nachredigieren. Kaufmännisch ist die Sache darum klar. Eine ganz von Menschenhand vollbrachte technische Übersetzung kostet die Firma um die 50 Mark pro Seite (und mindestens 90, wenn ein Übersetzungsbüro sie macht), eine LOGOS-Seite aber 17. Redigiert der »Humantranslator« pro Stunde drei von ihnen nach, so sinken die Seitenkosten also von 50 auf 34 Mark – und außerdem wird die Sache auch noch dreimal so schnell fertig. Wo viel zu übersetzen ist, sind also selbst geringe Produktivitätssteigerungen rentabel. Das muß man sehen, wenn man begreifen will, warum heute vielerorts so intensiv an der automatischen Übersetzung gearbeitet wird. Sie kann ruhig ziemlich schlecht ausfallen und eine Menge Nachredaktion erfordern – wo die Voraussetzungen gegeben sind, lohnt sie sich allemal. Christian Rohrer, Computerlinguist in Stuttgart und einer der führenden deutschen Fachleute auf dem Gebiet der maschinellen Übersetzung, berichtet über Leistungssteigerungen von über 50 Prozent, sobald die Einarbeitungsphase abgeschlossen und das Terminologielexikon aufgebaut ist. Das kommerzielle MT-System, dem die esoterische Fachzeitschrift ›Electric Word‹ 1989 das Prädikat »State ofthe Art« verlieh – das sie also für das Fortgeschrittenste hält, was die Technologie derzeit zu bieten hat –, ist indessen ein Neuankömmling, nämlich METAL. Der Name klingt unpassenderweise nach Schwerindustrie, ist aber nur ein Akronym für Machine Evaluation and Trans240
lator of Natural Languages; es paßt nicht ganz, und als METAL noch eine Idee der Computerwissenschaft ler der Universität Texas war, stand es auch nur für Machine Edited Text Aspiring to Legibility (computeredierter Text, der gern für lesbar gehalten würde). Es ist seit 1989 auf dem Markt, die Firma Siemens und die Universität in Austin, Texas, haben fünfhundert Mannjahre darein investiert. Bisher gibt es nur eine Sprachrichtung, DeutschEnglisch. Noch 1990 werden Deutsch-Spanisch und Englisch-Deutsch dazukommen; weitere Sprachmodule sind anvisiert oder schon weit gediehen. Verglichen mit SYSTRAN und LOGOS, wirkt METAL geradezu schlank und sehr zielbewußt: Es hat sich nichts anderes vorgenommen und verspricht auch nichts anderes, als technische Rohübersetzungen zu liefern, diese aber mit einem hohen Grad an Verläßlichkeit und »Benutzerfreundlichkeit«. Es arbeitet mit drei getrennten Wörterbüchern: einem Funktionswortschatz mit nicht mehr als 800 Einträgen, einem allgemeinen Grundwortschatz mit 35 000 Wortstämmen sowie einem technischen Grundlexikon, alles in allem 50 000 wohlüberlegte Einträge. Jedes Wort trägt nach Bedarf lexikalische, syntaktische, semantische und pragmatische »Marken«. Ein solches Lexikon gibt es für die Quell- wie für die Zielsprache; dazu ein unsichtbares Transferlexikon, dem das System entnimmt, in welchem Kontext ein bestimmtes Wort der Quellsprache durch eins der Zielsprache wiederzugeben ist. Diese Ersetzungsregeln kann der Benutzer selber verändern oder ergänzen. Bei Bedarf kann er auch verschiedene Spe241
zialterminologien hinzuschalten (Medizin, Telekommunikation, Datentechnik). Die Fähigkeiten der morphologischen Analyse sind verblüffend und haben nicht ihresgleichen. METAL zerlegt auch die längsten deutschen Komposita in ihre Bestandteile, und zwar zu 70 Prozent auf Anhieb richtig. Welches neue Wort auch immer man ihm unterbreitet, fast immer erkennt es, in welche Wortklasse es gehört, und sofort erzeugt es automatisch sämtliche möglichen Beugungsformen. Auch die Syntax von METAL ist vergleichsweise schlank: Es ist eine Phrasen-Struktur-Grammatik mit nicht mehr als 550 rekursiven Regeln. Rekursiv heißt, daß ein und dieselbe Regel auf eine Satzkonstituente immer wieder von neuem angewendet werden kann. Die Phrase der große alte Mann zum Beispiel braucht keine andere Regel als der alte Mann, und der große alte böse Mann braucht keine dritte: es reicht die rekursive Regel, daß ein adjektivisches Attribut aus mehreren Adjektiven bestehen kann. Besonders Augenmerk schenkt METAL einer Äußerlichkeit, dem Format des zu übersetzenden Textes. Es »merkt sich«, welche Textstellen kursiv oder fett oder unterstrichen waren; und auch, wie sie auf der Seite anzuordnen sind. So kann es auch Tabellen übersetzen und den Schrecken der Fachübersetzer, die endlosen Stücklisten, bei denen es im Grunde gar nichts zu übersetzen, sondern nur zu ersetzen gibt: einen normierten Fachterminus durch einen anderen – genau das richtige Betätigungsfeld für einen Computer. 242
METAL schafft achttausend Wörter (fünfundzwanzig
Seiten) die Stunde. Zu etwa 50 Prozent sollen seine Übersetzungen völlig korrekt ausfallen, zu weiteren 30 bis 40 Prozent brauchbar, wenn auch redigierbedürftig, und zu 10 bis 20 so falsch, daß sie völlig neu übersetzt werden müssen. Damit aber erhöht sich die Produktivität der Fachübersetzer, die sich seiner Vorarbeit bedienen, auf das Drei- bis Vierfache. An den 100 000 Seiten Begleitliteratur, die etwa ein ins Ausland verkauftes Telekommunikationssystem mit sich bringt, hätte ein zehnköpfiges Übersetzungsbüro fünf Jahre zu tun; METAL wäre damit schon in anderthalb Jahren fertig. Wenn – so der Plan – bis 1992 die meisten EG-Sprachen vorliegen, werden andere MT-Systeme es schwer haben, es ihm gleichzutun oder es gar zu übertreffen. Aber die Übersetzer? Sind sie nun arm dran? Wird dann auch sie der Computer verdrängen? Solange der Berg des zu Übersetzenden so groß bleibt wie heute oder sich sogar noch aussichtsloser türmt, sind ihre Arbeitsplätze nicht im mindesten in Gefahr. Aber verändern werden sie sich. Es ist nicht nach jedermanns Geschmack, statt zu übersetzen Computerpatzer auszubügeln. Zumutbar ist es überhaupt nur dem, der die Vorteile der Textverarbeitung am Bildschirm kennt und sowieso nutzt. So sind die einen strikt dagegen, die anderen emphatisch dafür. Und am striktesten dagegen sind die, sagt Ian Pigott, der bei der Europäischen Kommission die SYSTRAN-Entwicklung leitet, die am wenigsten davon wissen. Aber es muß auch nicht überall gleich MT sein. CAT (Computer Aided Translation, computerunterstützte Über243
setzung) wäre auch schon ein Ziel – die »humane« Übersetzung, bei der sich der Mensch jedoch in verschiedener Hinsicht und in verschiedenem Maß von der Maschine helfen läßt. Vorausgesetzt, der Übersetzer arbeitet am Textcomputer – dann empfindet er es vielleicht als Erleichterung, wenn er keine Wörterbücher wälzen muß, sondern die unbekannten Wörter »im System« nachschlagen oder gar auf Tastendruck gleich an der richtigen Stelle einfügen kann; oder wenn er sich bei Fachtexten gar in eine terminologische Datenbank einklinken kann, die ihm die betreffende Terminologie online ins Haus liefert. Der mühsamste und langwierigste Teil seiner Arbeit, die Terminologiesuche, wäre damit enorm abgekürzt. Vor allem an der Universität Saarbrücken macht man sich Gedanken darüber, wie ein solcher Fachübersetzerarbeitsplatz der Zukunft aussehen könnte. Die Firma von Harald H. Zimmermann, Softex, hat erste elektronische Wörterbücher in ihrem Programm, das Software-Paket LC-TOP. Auf der anderen Seite gibt es Pläne, die über MT hinausführen. In Japan, wo man das Problem in den letzten Jahren still, aber intensiv angepackt hat und wo eine ganze Reihe kommerzieller Übersetzungssysteme entwickelt wurden, vorwiegend für das Sprachpaar Japanisch-Englisch, beschäftigt man sich in Gedanken schon mit dem netten kleinen tragbaren Gerät, in das man zum Beispiel auf Japanisch hineinspricht, und am andern Ende kommt es zum Beispiel auf Deutsch heraus. Die japanische Post denkt an die automatische Simultanübersetzung von Te244
lefongesprächen. Wann? Bald nach der Jahrtausendwende vielleicht, heißt es. Aber auch wenn jene Dolmetsch-Walkmen noch des längeren auf sich warten lassen sollten: alle Hürden, auf die die Forscher auf dem Weg dahin stoßen, verraten uns etwas über unser eigenes Geistorgan. Das ganze Experiment Maschinenübersetzung demonstriert beides: in welchem Maß auch unser Sprachvermögen auf rein mechanischer Arbeit des Gehirns beruht; und wie überaus nützlich unsere Fähigkeit des bewußten Verstehens ist, über die die Maschine nicht gebietet. Das alte »Erkenne dich selbst!« könnte heute lauten: »Versuche deine geistigen Betätigungen zu simulieren!« (Und du wirst staunen, denn du wußtest gar nicht, was du immer geleistet hast, als wäre es nichts.)
MR. SEARLE IM CHINESISCHEN ZIMMER Über Computer, Gehirne und Geist
1 Eine Provokation feiert Geburtstag. Vor nunmehr zehn Jahren löste sie eine kontroverse Debatte aus, die anders als die meisten wissenschaft lichen Debatten nach dem Austausch der Argumente und Daten nicht im Nu erledigt war. Sie zieht sich bis heute hin und macht keinerlei Anstalten, sich zu legen. Vordergründig geht es um Chinesische Zimmer und Chinesische Turnhallen, um Schnellrestaurants, um sprechende Maschinen, um Computer und wieviel Intelligenz sie eines Tages ihr eigen nennen könnten – und in Wahrheit bei alledem um die Letzten Dinge; jene, die Leidenschaften wecken: Was ist der menschliche Geist? Kann es eines Tages eine Maschine geben, die Geist hat? Was die Kontroverse in Gang setzte, war eine Herausforderung an die junge Disziplin der Künstlichen Intelligenz. Das menschliche Geistorgan, so lautete sie, funktioniere nicht wie ein Computer, und folglich könne ein Computer es auch nie und nimmer duplizieren. Der Provokateur war John Searle, seit 1959 Philosophieprofessor an der Universität Kalifornien in Berkeley und heute 57 Jahre alt. Seine Provokation bestand in einem Aufsatz, den er – nach jahrelanger Erprobung seiner Argumente – in der hervorragenden wissenschaftlichen Zeitschrift ›The Behavioral and Brain Sciences‹ erscheinen ließ. Dieses Journal 249
sieht sein Ziel darin, prominente wissenschaftliche Theorien sachverständiger Kritik auszusetzen; es druckt Aufsätze nicht pur, sondern zusammen mit Dutzenden von ausführlichen Kommentaren aus der Fachszene, die nicht selten eigene Forschungsbeiträge sind. Schon damals war auszumachen, daß Searles Aufsatz eingeschlagen hatte. Seitdem hat es zustimmende Elaborationen und Widerlegungsversuche zuhauf gegeben; alles zusammen würde Bände füllen. Im März 1990 brach die Debatte in der Zeitschrift ›Spektrum der Wissenschaft‹ noch einmal auf, und alles war wie am ersten Tag – keine Seite hatte im mindesten zurückgesteckt. Die Künstliche Intelligenz (international meist AI genannt, Artifizielle Intelligenz) ist jener Teil der Informatik, der – nicht ohne praktische Erfolge – den Computer dazu zu bringen sucht, gewisse menschliche Leistungen nachzuahmen, die wir, wenn ein Mensch aus Fleisch und Blut sie vollbrächte, »intelligent« zu nennen uns nicht genieren würden. Wie Searle es sieht, kommt der Anspruch der AI in einer schwachen und einer starken Form. Die »schwache AI« behauptet nur, daß der Computer ein brauchbares Instrument zur Erforschung menschlichen Denkvermögens darstelle. Ob er dazu taugt, ist längst keine Frage mehr. Vor allem zwingt er, vollkommen explizit zu machen, welche Teilleistungen in eine sonst eher global betrachtete Intelligenzleistung eingehen. (»Lesen« ist schön und gut; aber was muß im einzelnen geschehen, und in welcher Reihenfolge muß es geschehen, bis die Schriftzeichen auf dem Papier zu einer Bedeutung im Kopf ge250
worden sind?) Auch Searle hatte und hat keinen Zweifel daran, daß sich manche geistige Tat auf dem Computer simulieren läßt; und daß man auf dem Weg zu einer perfekten Simulation viel darüber lernen kann, wie der menschliche Geist funktionieren muß. Er warnt nur davor, solche Simulationen ohne weiteres schon für das Eigentliche zu halten, the real thing: So wenig, wie ein simuliertes Unwetter naß mache oder die Simulation eines Verdauungssystems irgend etwas verdaue, so wenig sei ein simulierter Denkprozeß dasselbe wie menschliches Denken. Damit aber legte er sich mit dem weitergehenden Anspruch mancher AI-Forscher an, der ihre Disziplin auf Trab hält: daß der Computer, wenn man ihn nur mit den richtigen Programmen füttere, Geist nicht nur simuliere, sondern ihn ohne Wenn und Aber besitze. Die Implikation dieser starken AI«: »Geist«, »Verstand«, »Denkvermögen«, »bewußte Intelligenz« und so weiter sei nichts anderes als ein Computerprogramm, das wie alle Computerprogramme an keine bestimmte Hardware gebunden ist und folglich auf Digitalrechnern, auf Computern aus alten Bierdosen, auf den unvorstellbaren Denkapparaten extraterrestrischer Wesen laufen kann, wie es auf biologischen Gehirnen läuft. In den bewegten Worten von Douglas Hofstadter: »Der Geist existiert in Gehirnen und eines Tages vielleicht auch in programmierten Maschinen. Wenn es zu solchen Maschinen kommen sollte, dann werden sich ihre kausalen Kräfte nicht aus dem Material ergeben, aus dem sie bestehen, sondern aus ihrem Design und aus den Programmen, die in ihnen lau251
fen. Und daß sie jene kausalen Kräfte besitzen, werden wir daher wissen, daß wir mit ihnen sprechen und uns sorgfältig anhören, was sie zu sagen haben.« Ob man einer Maschine zugestehen muß, sie besitze menschliche Intelligenz, dafür hat der Computertheoretiker Alan Turing einst einen berühmten Test ersonnen. Ein Mensch sitzt in einem Zimmer, im Nebenzimmer steht ein Computer. Der Mensch weiß aber nicht, ob es ein Computer ist oder ein Mensch. Um es zu entscheiden, stellt er dem Nebenzimmer – über eine Schreibkonsole – Fragen über Fragen. Und wenn der Mensch an den Antworten nicht zu erkennen vermag, daß deren Urheber eine Maschine war, dann hat sie den Turing-Test bestanden. Sie besitze menschliche Intelligenz! Natürlich gab es zu Turings Zeiten keine Maschine, der man alle Fragen stellen konnte, die sich einem Menschen stellen lassen, und auch heute ist sie nicht in Sicht. Dennoch ist dieser Test gar nicht so utopisch. Einige spezielle Denkleistungen, die einmal dem Menschen vorbehalten schienen, hat der Computer inzwischen tatsächlich gemeistert. Wer heute beim Schachspiel im unklaren gelassen würde, ob ein Mensch oder ein Computer die Gegenzüge ersinnt, hätte größte Mühe, den Computer zu identifizieren. Aber es ist ein rein behavioristischer Test. Der Behaviorismus war jene einstmals mächtige psychologische Schule, die sich programmatisch nur für das interessierte, was in die Seele an »Reizen« eingeht und an »Verhalten« herauskommt, aber nicht für das, was in ihr vorgeht. Das Innere schien dem Behaviorismus ein für allemal unzugänglich und sollte darum ganz aus dem Spiel 252
bleiben: eine Black Box. Innere Dispositionen ließen sich als Dispositionen zu bestimmtem Verhalten beschreiben, und schon wäre man die unbequeme, objektiver Beobachtung verschlossene Domäne des subjektiven Erlebens los. Der Mensch sei sein Verhalten, basta. Genau das ist auch die Prämisse des Turing-Tests. Ob sich im Computer, wenn er Verstand simuliert, etwas Ähnliches abspielt wie im Menschen, interessiert ihn nicht. Nur auf den Output kommt es ihm an. Wenn der Output eines Computers sich nicht von dem eines Menschen unterscheiden läßt, dann spricht er dem Computer menschlichen Verstand zu. Oder wie der Philosoph Paul Churchland es formulierte: »Wenn Maschinen es schaffen, alle unsere inneren kognitiven Tätigkeiten bis ins letzte Detail zu simulieren, dann wäre es geradezu ein neuer Rassismus, ihnen den Status echter Personen vorzuenthalten.« Searle nun erdachte ein Gedankenexperiment, das listig an den Turing-Test anknüpft. Es gibt AI-Programme, die menschliches Sprachverstehen simulieren. Am bekanntesten ist SAM von Roger Schank, einem AI-Forscher der Universität Princeton. Man erzählt SAM (vorerst schrift lich) kurze Geschichten, und er beantwortet Fragen über sie. Besonderen Wert legte Schank darauf, daß SAM nicht nur »mechanisch« irgendwelche Schlüsselworte aufgreift und zu Sätzen eigener Fabrikation verwendet. Er soll auch dann sinnvolle Antworten geben, wenn das, wonach gefragt wird, in der Geschichte gar nicht ausdrücklich vorkam. Die Geschichte geht zum Beispiel so: »Ein Mann betritt ein Schnellrestaurant, 253
bestellt einen Hamburger und verläßt das Lokal ohne zu zahlen.« Frage: »Hat er den Hamburger gegessen?« SAM: »Hat er nicht.« Er kann diese Antwort geben, weil er ein »Skript« normaler Restaurantsituationen besitzt, mit dem er die Geschichte vergleicht. Es sieht, vereinfacht, die Folge Bestellen-Essen-Zahlen vor; wird nicht gezahlt, so »folgert« er, dann wird auch nicht gegessen worden sein. SAM scheint also den nur impliziten Sinn der Geschichte verstanden zu haben. (Und möglicherweise ziehen auch Menschen Schlüsse dieser Art, weil sie »Skripte« vieler Normalsituationen parat haben und bei Bedarf heranziehen.) Searles Test, mit dem er den »starken« Anspruch der AI ein für allemal niedergeschmettert zu haben glaubt, ist eine imaginäre Variante von SAM: ein Computer, der Chinesisch versteht. Und Searle selber spielt ihn. »Nehmen Sie eine Sprache, die Sie nicht verstehen. Ich persönlich verstehe kein Chinesisch; für mich sind chinesische Schriftzeichen nur sinnlose Krakel. Stellen Sie sich nun vor, ich würde in ein Zimmer gesetzt, das Körbe voller Kärtchen mit chinesischen Symbolen enthält. Nehmen wir ferner an, man hätte mir ein Buch in meiner Muttersprache Englisch in die Hand gedrückt, das angibt, nach welchen Regeln chinesische Zeichen miteinander kombiniert werden. Dabei werden die Symbole nur anhand ihrer Form identifiziert, ohne daß man irgendeines verstehen müßte. Eine Regel könnte also sagen: ›Nimm ein Krakel-Krakel-Zeichen aus dem Korb Nummer 1 und lege es neben ein Schnörkel-Schnörkel-Zeichen aus dem Korb Nummer 2.‹ Angenommen, von außerhalb des Zim254
mers würden mir Menschen, die Chinesisch verstehen, kleine Stöße von Kärtchen mit Symbolen hereinreichen, die ich nach den Regeln aus dem Buch manipuliere; als Ergebnis reiche ich dann meinerseits kleine Kartenstöße hinaus. In die Computersprache übersetzt wäre also das Regelbuch das Computerprogramm, sein Autor der Programmierer und ich der Computer; die Körbe voller Symbole wären die Daten, die kleinen mir ausgehändigten Stöße die Fragen und die von mir hinausgereichten Stöße die Antworten. Nehmen wir nun an, das Regelbuch sei so verfaßt, daß meine Antworten auf die Fragen von denen eines gebürtigen Chinesen nicht zu unterscheiden sind. Beispielsweise könnten mit die Leute draußen eine Handvoll Symbole hereinreichen, die – ohne daß ich das weiß – bedeuten: ›Welches ist Ihre Lieblingsfarbe?‹ Nach Durcharbeiten der Regeln würde ich dann einen Stoß Symbole zurückgeben, die – was ich ebensowenig weiß – beispielsweise hießen: ›Meine Lieblingsfarbe ist blau, aber grün mag ich auch sehr.‹ Also hätte ich den Turing-Test für Chinesisch bestanden. Gleichwohl habe ich nicht die geringste Ahnung von dieser Sprache. Und ich hätte auch keine Chance, in dem beschriebenen System Chinesisch zu lernen, weil es mir keine Möglichkeit bietet, die Bedeutung irgendeines Symbols in Erfahrung zu bringen. Wie ein Computer hantiere ich mit Symbolen, aber verbinde keine Bedeutung mit ihnen. Der Punkt des Gedankenexperiments ist der: Wenn ich durch die bloße Ausführung eines Computerprogramms zum Verstehen von Chinesisch kein Chinesisch verstehe, dann tut das auch kein Digitalcomputer … Das bloße Hantieren 255
mit Symbolen genügt nicht für Fähigkeiten wie Einsicht, Wahrnehmung, Verständnis oder Denken. Und da Computer ihrem Wesen nach Geräte zur Manipulation von Symbolen sind, erfüllt das bloße Ausführen eines Computerprogramms auch nicht die Voraussetzungen einer geistigen Tätigkeit.« Nebenbei: Als Computer dieser Bauart wäre Searle ein Versager. In seinem Chinesischen Zimmer könnte er zwar grammatisch richtige Antworten geben, aber eine sinnvolle Antwort wäre höchstens durch Zufall einmal darunter. Denn das Regelbuch, nach dem er die chinesischen Schriftzeichen manipuliert, ist ja wohl eine Syntax. Sie besagt also lediglich, welche Klasse von Zeichen vor und hinter welchen anderen Klassen von Zeichen stehen darf. Seine Antworten überzeugten niemanden, denn sie klängen eher wie »Meine Farbe ist schief, aber ärmlich kannst du auch stark«. Um nicht nur richtige Zeichenklassen, sondern aus jeder Klasse das richtige einzelne Zeichen zu wählen, brauchte er ein Regelbuch, das mehr enthielte als eine Syntax, nämlich eine Semantik. Im Grunde aber ändert das an seinem Arguinent nichts. Denn die semantischen »Marken«, die die Wörter in einem Computerlexikon tragen (»belebt«, »menschlich« und so weiter) sind ihrerseits abstrakte Symbole, die in sich keinen Verweis auf irgend etwas außerhalb ihrer selbst tragen. Sähe aber der Mensch im Chinesischen Zimmer all diese Marken, und lernte er es, flüssig mit ihnen umzugehen, so könnte er es kaum vermeiden, langsam auch die Bedeutung der Schriftsymbole zu erraten. Searles Kritik zielt sehr viel tiefer als die seines Kollegen 256
Hubert Dreyfus, des anderen beharrlichen Feindes vom Dienst. Dreyfus hält der AI im wesentlichen entgegen, daß es mit der Intelligenz heutiger Computerprogramme entgegen manchen Versprechungen noch nicht sehr weit her sei. Searle dagegen behauptet, menschliche Intelligenz sei überhaupt etwas anderes als ein Computerprogramm. Er schließt nicht aus, daß es eines Tages eine Maschine geben könnte, die sie besitzt. Er sagt aber: Eine Maschine, die nur das tut, was heutige Computer tun, nämlich nach einer Syntax mit (unverstandenen) Symbolen hantieren, wird sie mit Sicherheit nie besitzen. Die wenigsten Verteidiger der AI in ihrer starken Fassung haben das intuitiv sofort Einleuchtende abzustreiten versucht: daß Searle in der Rolle des Computers zwar den Eindruck erzeuge, er verstehe Chinesisch, tatsächlich aber kein Wort versteht. (Nur wenige meinten, auf eine ihm selber nicht einsichtige Weise verstehe er es im Chinesischen Zimmer vielleicht doch.) Die meisten Einwände liefen auf etwas anderes hinaus. Sie variierten den Gedanken, daß Searles auf Anhieb so einleuchtende Allegorie die Ebenen verwechselt habe. Gewiß, er erwecke den Anschein, Chinesisch zu können, verstehe aber gar keins – die Neuronen im Schädel eines echten Chinesen verstünden es indessen genauso wenig. Der ganze Chinese sei es, der Chinesisch könne – und so könne man auch von dem ganzen Chinesischen Zimmer sagen, es verstehe Chinesisch. Verstehen sei ein Attribut des ganzen Systems, nicht seiner mechanischen Einzelteile. Worauf Searle erwidert: »Stellen Sie sich vor, ich hätte den Inhalt der Körbe und das Regelwerk auswendig 257
gelernt und würde alle Berechnungen in meinem Kopf durchführen; Sie dürfen sich sogar vorstellen, daß ich unter freiem Himmel arbeite. Es gibt dann nichts an diesem ›System‹, das sich nicht in mir befände – und da ich kein Chinesisch verstehe, versteht es auch das System nicht.« Eine andere Gruppe beliebter Einwände stößt sich sozusagen an den Größenverhältnissen in Searles Allegorie: Das Chinesische Zimmer mit seinem einen mit Symbolen hantierenden Element, Mr. Searle, sei keine Abbildung des Gehirns, in dem fünfundzwanzig Milliarden Neuronen Signale miteinander tauschen. Dem setzt Searle seine Chinesische Turnhalle entgegen – eine ganze Schar von Leuten, die mit chinesischen Symbolen hantieren, ohne Chinesisch zu verstehen. Eine solche Turnhalle, sagt Searle, verstehe genauso wenig Chinesisch wie das Zimmer. Sie sei, so sagt die andere Seite, aber auch ebenfalls keine angemessene Abbildung des Gehirns. Wenn nämlich jedes Hirnneuron von einer Person gespielt werden soll, müßte sie die menschliche Bevölkerung von mehr als zehntausend Erden fassen – und das ergäbe möglicherweise dann doch ein denkendes Gehirn, »monströs, langsam, merkwürdig konstruiert, aber dennoch vielleicht funktionstüchtig« (die Philosophen Paul und Patricia Churchland). Der Einwand entspricht einer Stimmung, die in den Kreisen der AI und der Kognitionswissenschaft heute weit verbreitet ist: Höhere geistige Funktionen seien eine Folge schierer Größe – man mache ein System nur komplex genug, und zwangsläufig müßten sie sich alle mit258
einander einstellen, müßten »emergieren« (wörtlich: auftauchen). Solcher »Emergentismus« schimmert auch bei Douglas Hofstadter durch. »Die Tatsache, daß Intelligenz, Verstand, Geist, Bewußtsein, Seele und all das einer unwahrscheinlichen Quelle entstammen – einem enormen Gewirr von Zellkörpern, Axonen, Synapsen und Dendriten –, ist absurd und dennoch unbestreitbar. Wie dergleichen ein ›Ich‹ hervorbringen kann, ist schwer zu verstehen, aber wenn wir diese fundamentale, seltsame, beunruhigende Tatsache einmal akzeptiert haben, dann sollte es nicht sonderbarer sein, ein ›Ich‹ aus Wasserrohren zu akzeptieren.« Eine verwegene Zuversicht. Komplexität ist sicher eine notwendige Vorbedingung für höhere geistige Funktionen; aber daß sie auch eine ausreichende sei, das ist keineswegs ausgemacht und eher unwahrscheinlich. Kein Einzelteile eines Radioempfängers hat alle Eigenschaften eines Radios, nur in geringerem Maße. Ein Radio ist nicht die Summe der Eigenschaften seiner Komponenten. Als Radio »emergiert« es erst, wenn die Einzelteile zu einem ganz speziellen System zusammengeschaltet sind. Es nützte nicht das mindeste, sie alle irgendwie zusammenzuwerfen und, wenn die Sache noch nicht funktioniert, weitere Komponenten hinzuzutun und das Gebilde immer komplexer zu machen. So etwas wie Rundfunkempfang ließe sich durch ein wenig komplexes System wahrscheinlich nicht realisieren; aber Komplexität selber hülfe noch gar nicht – auf das Wie käme es an. Und auch das allerenormste Gewirr von Zellkörpern, Axonen, Synapsen und Dendriten machte selbst noch kein verständiges Gehirn. 259
An Searles Argument geht der Einwand, seine Denkmodelle seien einfach nicht komplex genug, völlig vorbei. Er sagt nämlich sehr deutlich, was seiner Meinung nach den Computer vom denkenden Menschen unterscheidet: Es fehlt seinen Operationen die Intensionalität. Das heute vielstrapazierte Wort ist wenig glücklich, denn es stiftet Verwirrung und beschwört endlose Mißverständnisse herauf. Mit den »Intentionen«, den Absichten der Umgangssprache und der Volkspsychologie hat es jedenfalls nichts zu tun. Aber die »intentionality« der heutigen angelsächsischen Philosophie ist auch nicht völlig identisch mit dem, was in der Logik »Intension« heißt: der Begriffsinhalt eines Ausdrucks, sein Sinn, das, was er uns zu verstehen gibt – im Unterschied zu seiner »Extension«, die nur angibt, welchen Gegenständen er zukommt, also seinen Bedeutungsumfang. (Die beiden Aussagen »Der Abendstern steht am Himmel« und »Der Morgenstern steht am Himmel« sind extensional gleichbedeutend, denn es sind gleiche Aussagen über den gleichen Gegenstand, den Planeten Venus. Der Unterschied besteht allein in der Intension der Begriffe ›Abendstern‹ und ›Morgenstern‹, das, was wir ihnen als Sinn entnehmen.) Trotzdem schimmern bei vielen Erörterungen der »intentionality« die Bedeutungen ›Absicht‹ oder ›Begriffsinhalt‹ hindurch. Was also ist »Intensionalität«? Mag einer der Hauptexponenten der heutigen Debatte sie selber definieren, der amerikanische Philosoph Daniel Dennett: »Intensionalität ist Bezogenheit (aboutness). Manche Dinge sind auf andere Dinge bezogen: Eine Meinung kann man über 260
Eisberge haben, aber ein Eisberg ist nicht über etwas anderes, ist auf nichts anderes bezogen; … ein Buch oder Film kann über Paris sein, aber Paris handelt von nichts.« Intensional in diesem Sinn also heißt schlicht: auf etwas außerhalb seiner selbst bezogen, auf etwas anderes »hingerichtet« (mit dem Wort des Philosophen Franz Brentano, der in dieser Art von Intensionalität das Kennzeichen alles Geistigen sah). Das Gegenteil wäre etwa »formal«. Etwas sei »formal richtig« heißt: Es ist logisch in sich konsistent, ohne Rücksicht darauf, ob es eine Entsprechung zu etwas außerhalb hat. Was tut der Computer? Nach außen wirkt er, als verarbeite er auf vielfältige Weise die ihm eingegebenen »Daten«; im Innersten manipuliert er Zahlen, indem er sie den Grundrechenarten und einer kleinen Handvoll von Operationen der Prädikatenlogik unterwirft (»und«, »oder«, »entweder-oder«, »nicht« sowie das Boolesche »wahr / falsch«); und noch tiefer drinnen ist er ein Schaltkreis, der elektrische Potentiale verteilt. Die Zahlen sind Symbole: für Zahlen, für Buchstaben, für was auch immer der Programmierer wollte. Welche Operationen er in welcher Reihenfolge an ihnen ausführt, schreibt ihm das »Programm« vor. Das Programm ist eine Liste aufeinander bezogener Befehle: eine »Syntax«. Eine Syntax ist eine Sammlung formaler Regeln. Sie hat nichts Intensionales, ist auf nichts außer sich selber bezogen. Genauer besehen sind nicht nur die Symbole, an denen der Computer sich zu schaffen macht, für ihn selber gar keine, sondern nur für seinen Benutzer; auch die Syntax wird ihm erst eingeflüstert. »So wie der Syntax keine 261
Semantik innewohnt, so wohnt der Physik keine Syntax inne.« Beides, Semantik wie Syntax, wird der Maschine erst vom Menschen zugewiesen. Der menschliche Geist, sagt Searle, habe aber zur Syntax auch eine Semantik: Die Symbole, mit denen er hantiert, beziehen sich auf etwas außerhalb ihrer selbst, bedeuten etwas. Was ihn vom Computer trennt, sei also die Intensionalität seines Geistes. Nie werde die bloß formale Syntax eines Computerprogramms Geist ergeben. So formuliert, leuchtet Searles These aber gleich sehr viel weniger ein. Auf der untersten Signalebene hantiert der Computer mit elektrischen Ladungen, das Gehirn mit den Entladungsfrequenzen seiner Neuronen. Auf dieser Ebene »wissen« beide nicht, daß es sich um Symbole für irgend etwas handelt, daß sie eine Syntax exekutieren, ganz zu schweigen von irgendeiner Semantik. Irgend etwas im Gehirn weist ihnen Symbolwert zu. Aber warum sollte das dem Computer unmöglich sein? Versteht man »intensional« strikt als »über« oder »auf etwas anderes bezogen«, so handeln auch die endlosen Einsen und Nullen des Computers sehr wohl von etwas außerhalb ihrer selbst. Nur ist der Computer nicht von selber drauf gekommen; die Zuweisungen nehmen seine Programmierer und Benutzer vor. In diesem Sinn besitzt der Computer durchaus auch Intensionalität. Wer sagt, die Intensionalität des menschlichen Verstandes sei jedenfalls kein von außen eingespeistes Programm, sondern stellte sich nur darum ein, weil sich der ganze Mensch ständig aktiv mit seiner Umwelt auseinandersetze, dem tritt sofort ein einstweilen nur virtuel262
ler Roboter entgegen. Er ist eine denkbare Maschine, die sich ebenfalls selber aktiv mit ihrer Umwelt auseinandersetzt: mit allerlei Technik bestückt, die Sinnesorgane imitiert, mit »Augen« und »Ohren« und Tastsensoren und Temperaturfühlern, und so programmiert, daß er die einlaufenden Daten in irgendein Verhalten umsetzt und dabei aus Erfolgen und Mißerfolgen lernt. Schlechterdings wäre auch er ein intensionales System, das außerdem noch auf eine dem Menschen ähnliche Art zu seiner Intensionalität gekommen wäre. Begriffe wie »Geist« und »Verstand« sind undefinierbar. Jeder ist frei, etwas anderes darunter zu verstehen, und so reden meist alle babylonisch aneinander vorbei. Ein gewisser Gewinn an Präzision stellt sich ein, sobald man statt des allgemeinen Begriffs bestimmte Fähigkeiten ins Auge faßt, durch die der ungreifbare »Geist« sich auszeichnet: Er nimmt wahr, er denkt, er versteht, er sieht ein, er fühlt, er meint, er verfolgt Ziele, er lenkt intelligent das Verhalten. Davon läßt sich dann schon eher ohne Verwirrung reden: von Wahrnehmungen, Gefühlen, Absichten, Schlußfolgerungen. Es sind alles intensionale Fähigkeiten. »Denken«, »meinen«, »fühlen« kann man nicht schlechthin; immer denkt man, daß (der Turm schief ist), meint man, daß (das Wetter morgen besser wird), fühlt man, daß (der Kopf wehtut). Daß der Computer viele dieser Fähigkeiten hat oder jedenfalls eines Tages haben könnte, ist gar keine Frage mehr. Er verarbeitet von außen kommende Daten, nimmt also wahr. Wenn ich seine Schachzüge ersinnen müßte, müßte ich denken; und wenn er mich schlägt, hat er bes263
ser gedacht. Eine computergesteuerte Rakete verfolgt allerdings ein Ziel. Ein Autopilot steuert das Verhalten des Flugzeugs, und er simuliert das Fliegen nicht nur, sondern fliegt es »in echt«, und wir vertrauen ihm unser Leben an. Selbst Gefühle ließen sich ihm beibringen. Wenn er einerseits voraussieht, daß eine Berechnung lange dauern wird, andererseits registriert, daß sein Benutzer mehrmals ungeduldig auf die Eingabetaste schlägt, könnte er den Bildschirm rosa einfärben und rasch wirre Zahlen herunterhaspeln – so als schämte er sich und wäre nervös. (Wohlgemerkt, es handelte sich um gefühlsmäßiges Verhalten; daß er dabei selber etwas empfindet, ist nicht gesagt, und wer würde es glauben?) Solange man in behavioristischer Tradition nur auf den Output sieht, dürfte es wohl keine Fähigkeit geben, die ihm grundsätzlich verwehrt ist. Er erarbeitet, wozu der Mensch seinen Verstand braucht; er ist eine »ratiomorphe« Maschine. Und da der Begriff Intelligenz sich mehr an äußeren Leistungen orientiert als an den inneren Prozessen, aus denen diese hervorgehen, wird man Computern eines Tages auch das Attribut intelligent sicher nicht mehr absprechen wollen.
2 Gehirn und Computer: oft ist hervorgehoben worden, was sie gemeinsam haben – und als Reaktion darauf dann auch, was sie trennt. Sind es Abgründe? 264
Auf die Gemeinsamkeiten gründet sich der produktivste Zweig der heutigen Psychologie, die Kognitionspsychologie, die untersucht, wie »Wissen« in den Kopf kommt, wie es dort gespeichert, verwaltet, abgerufen wird – die Welt als Repräsentation im Zentralnervensystem, das Geistorgan als informationsverarbeitende Maschine. Und so, wie man das Gehirn als eine Art biologischen Computer sieht, sieht man den Computer gern als eine Art maschinelles Gehirn, ein »Elektronengehirn« eben. Zwar hat es nicht den Anschein, als käme die Kognitionspsychologie ins Stocken oder als ginge ihr in absehbarer Zukunft die Arbeit aus; aber ob sie das Gehirn restlos als eine Art von Computer erklären kann, steht einstweilen völlig dahin. Auff ällig, geradezu verdächtig wenig interessiert sie sich bisher für subjektive Erlebnisqualitäten – für das Eigentümliche eines Schmerzgefühls etwa oder für Wahrnehmungsqualitäten wie »grün« oder »heiß«. Rein funktionalistisch mag sie eines Tages beschreiben können, wie das Gehirn eine Farbe wie »grün« repräsentiert und welchen Zwecken es dient, überhaupt Farben unterscheiden zu können; aber wie »grün« aussieht, ja auch nur, ob das »Grün« des einen tatsächlich wie das »Grün« des anderen oder vielmehr wie dessen »Rot« oder auch völlig anders aussieht – das läßt sie auf sich beruhen. Funktional gleich nämlich wäre auch ein umgekehrtes Spektrum: Es ließe exakt die gleichen Unterscheidungen zu; und aus der Aktivität bestimmter Neuronenbahnen in der Sehrinde läßt sich nicht im mindesten schließen, wie etwa eine Farbe subjektiv erlebt wird. Welches sind die offenkundigen Gemeinsamkeiten von 265
Gehirn und Computer? Wenn manche Begriffe auf beide zutreffen, dann nicht nur in einem ungefähren metaphorischen Sinn, sondern weil sie tatsächlich Gleiches beim Namen nennen. Beide gehen mit »Wissen« um: erhalten von außen verschiedenerlei Nachrichten über Sachverhalte (über Gegenstände oder Vorgänge oder Beziehungen), das Gehirn mittels der Sinnesorgane, der Computer mittels Tastatur, Scanner, Mikrophon, Touchpad, und »verarbeiten« diese »Information«: speichern sie, manipulieren sie, indem sie sie ordnen, nach bestimmten Regeln verändern, Schlüsse aus ihr ziehen, geben sie bearbeitet auf verschiedene Weise wieder heraus und können damit »Verhalten« steuern (die Bewegungen einer schreibenden Hand, die Bewegungen der Tintendüsen eines Druckers). Beide besitzen mit diesen Informationen ein inneres »Bild«, eine innere Repräsentation bestimmter Sachverhalte der äußeren Welt. Beide sind lernfähig: imstande, neue Informationen aufzunehmen und ältere in ihrem Licht zu revidieren. Beide sind imstande, Ziele zu verfolgen. Beide »kodieren« die Informationen, mit denen sie hantieren, auf eine spezifische Weise, und zwar eine Weise, die keinerlei Ähnlichkeit mit dem Abgebildeten hat: Im Gehirn befindet sich kein sichtbares Abbild dessen, was die Augen gerade sehen, es riecht in ihm auch nicht, wenn es gerade einen Ammoniakgeruch wahrnimmt – so wie die Bitmap, die der Computer von einer gescannten Seite anlegt, selber kein sichtbares Abbild dieser Seite ist, sondern kodierte Information darüber, wie diese 266
Seite aussieht, also eine Folge von abstrakten Zeichen, von Signalen. Beide, Gehirn wie Computer, arbeiten mit elektrischen Signalen. Beide haben die Fähigkeit der zeitlichen Integration: Sie besitzen ein »Gedächtnis«, das frühere Informationen verwahrt, vergleichen den aktuellen Input mit dem Inhalt dieses »Speichers« und können aus diesen Vergleichen Schlüsse auf Zukünftiges ziehen. Und welches sind die offenkundigen Unterschiede? Das Gehirn mit seinen fünfundzwanzig Milliarden Nervenzellen, von denen jede Signale mit bis zu zehntausend anderen austauscht, ist um Größenordnungen komplexer als selbst der größte heutige Computer. Die elektrischen Signale werden im Gehirn nicht wie im Computer durch Leitung weitergegeben, sondern auf elektrochemischem Weg: indem an den Kontaktstellen zwischen den Neuronen Chemikalien ausgeschüttet werden, die im anderen Neuron elektrische Potentiale erzeugen. Informationen kodieren beide auf verschiedene Weise: der Computer letztlich durch Sequenzen von 0 und 1, dargestellt durch Sequenzen von elektrischer Ladung und Nicht-Ladung; das Gehirn durch die Zeitintervalle zwischen den uniformen Signalen seiner Neuronen, also durch die Frequenzen seiner Signale. Der normale Computer hat einen einzigen Prozessor für die Manipulation der Signale oder höchstens ein paar; im Gehirn ist jedes Neuron ein spezialisierter Prozessor, der die ankommenden Signale summiert (und die hem267
menden subtrahiert), um selber aktiv zu werden, wenn eine bestimmte Summe erreicht ist. Infolgedessen arbeitet das Gehirn »parallel«, der Computer »seriell«. Das heißt, im Gehirn finden Millionen einzelner Signaltransformationen gleichzeitig statt, im gewöhnlichen Computer immer nur eine nach der anderen. Dafür ist die Signalübermittlung im Computer millionenmal schneller. Wo es um die monotone Wiederholung ein und derselben Operation geht, die auch das Gehirn nur seriell abarbeiten kann (also etwa von eins bis hunderttausend hochzuzählen und dabei jeweils drei zu überspringen), ist darum der Computer ungleich fixer; wo jedoch parallele Techniken zum Zuge kommen können (etwa wenn ein Bild auf ein paar relevante Merkmale zu analysieren ist), ist das Gehirn weit überlegen. Das Gehirn besitzt, was heutige Computer nicht haben: die Fähigkeit der Selbstorganisation – es entwirft sich aus dem Erfolg oder Mißerfolg früherer »Programme« neue eigene Handlungsstrategien. Der Computer kann eine Reihe logischer Operationen an Symbolen vornehmen, weiß aber »von Hause« aus nicht, welche Informationen er wie zu bearbeiten hat; dies teilt ihm erst das jeweils aktive Programm mit. Das Gehirn ist »von Natur« aus zu einem erheblichen Teil vorprogrammiert, »weiß« also etwa von vornherein, wie es Farbinformationen aus den Botschaften der Augen extrahiert und Klanginformationen aus den Bewegungen der Zilien im Innenohr. Diese Vorprogrammierung besteht in der topologischen Gestalt seiner Neuronennetze, also in den Kontakten, die zwischen spezifischen Zellen 268
eingerichtet sind. In den Wachstumsjahren knüpfen die Nervenzellen ihre Verbindungen: Chemische Lockstoffe lassen die Fortsätze in bestimmte Zielgebiete hineinwachsen; aber nur jene Kontakte, die dann wirklich benutzt und durch die Benutzung stabilisiert werden, bleiben bestehen. Der Computer tritt immer nur dann in Aktion, wenn er dazu eigens aufgefordert wird, das Gehirn auch von sich aus, »spontan«. Das Gehirn hat ein biologisches Schicksal: Es wird geboren, wächst, reift, sammelt Information, erkrankt möglicherweise, altert und stirbt. Sein Zweck bei allem ist es, ein biologisches Wesen sicher durch das Leben zu lotsen. Der Computer hat das Schicksal einer von einem biologischen Gehirn gebauten Maschine; sein Zweck ist es, genau das zu tun, was biologische Gehirne ihm auftragen. Ob die Ähnlichkeiten oder die Unterschiede größeres Gewicht haben, läßt sich schwer sagen. Falls sich unter den Unterschieden, den genannten wie den ungenannten und vielleicht bis heute unbekannten, nicht einer findet, der einen unüberwindbaren kategoriellen Unterschied bedeutet, möchte ich meinen: die Ähnlichkeiten. Jedoch dürfen die Unterschiede nie aus dem Auge verloren werden. Im einzelnen Fall, bei jeder konkreten Frage (etwa: wie werden Erinnerungen gespeichert, wie wieder aufgefunden?) könnten sie die beiden informationsverarbeitenden Systeme nämlich dann doch unvergleichbar machen. Daß sie aber überhaupt je in irgendeiner Hinsicht vergleichbar sind, daß gewisse geistige Aktivitäten auf dem Computer simuliert werden können und daß das, was 269
der Computer tut, sich mit mentalistischen Begriffen beschreiben läßt – das hängt sozusagen vom Ausgang einer Wette ab, die eine Mehrzahl heutiger Wissenschaft ler gegen die geballte abendländische Tradition abgeschlossen hat: der Wette, daß geistige Phänomene eine Hervorbringung der materiellen, der physikalischen Welt sind und nichts ganz Andersartiges, auf das deren Gesetze nicht zutreffen; der Wette, daß Geist keiner anderen Welt zugehörig ist als die ganze übrige Natur. Es ist die monistische Wette. Das ganze westliche Denken aber war immer zutiefst dualistisch und ist es bis heute. Hier der Körper, dort der Geist; hier der Leib, dort die Seele. Dualismus heißt in dieser Sache: zu meinen, daß geistig-seelische Phänomene (also das, was die Volkspsychologie mit Begriffen wie Verstand, Vernunft, Denken, Wahrnehmung, Erinnerung, Gefühl, Empfindung, Wille, Bewußtsein, Motivation, Seele und so fort belegt) eine autonome, von der materiellen Welt unabhängige Wirklichkeit besitzen, auf die die Naturgesetze nicht zutreffen und die mit ihrer Hilfe folglich auch nie erklärt werden kann. Ein großer Dualist stand am Anfang der Philosophie der Neuzeit: René Descartes, der die ausgedehnte Welt der Materie (die res extensa) von der ausdehnungslosen, unkörperlichen Welt des mathematischen und sprachlichen menschlichen Denkens schied (der res cogitans). Auch er schon stand vor einer unbequemen Frage, der sich kein rational denkender Dualist entziehen kann: Wie und wo verkehren die beiden so grundverschiedenen res miteinander? Ihretwegen erfand sich Descartes 270
»animalische Geister«, die von der Zirbeldrüse aus (einer Gehirnstruktur, die ihm wegen ihrer Unpaarigkeit aufgefallen war) durch den Körper geschwemmt werden und überall in ihm auf die ausgedehnte Materie einwirken sollen. Descartes’ dualistische Position hatte Folgen, die bis heute nicht abgetragen sind. Da Tiere nicht rechnen und sprechen, verwies er sie in die dumpfe Welt der Materie; auf ihn berief sich seither (wenn auch nicht ganz zu Recht) die Ansicht, Tiere seien bloße Automaten, die man dann auch als solche behandeln dürfe – die Eiermaschinen in ihren Batterien wüßten ihm wenig Dank. Ein Erzdualist aber war natürlich auch schon Plato, als er in die abendländische Tradition die mystische orphische Lehre einspeiste, die Seele sei etwas Besseres als der Körper, etwas Immaterielles und Unvergängliches, das beim Tode aus dem körperlichen Gefängnis befreit werde. Im Grunde aber ist die Fahndung nach bestimmten Urhebern des Leib-Seele-Dualismus müßig. Alle Unsterblichkeitsreligionen setzen ihn voraus und haben bis heute Interesse an seinem Wohlergehen. Und schon in der engen, unverstandenen und bedrohlichen – also wahrhaft unheimlichen – Welt des vorgeschichtlichen Menschen dürften körperlose Geister in großer Zahl gespukt haben. Etwas wurde bewirkt, und man wußte nicht, wodurch: Eine Wolke krachte, ein Fluß versiegte, ein Berg spie Feuer – da konnten nur unkörperliche, weil unsichtbare Wesen am Werk gewesen sein. Aber auch ohne jede ideologische Beihilfe wären wir 271
vermutlich alle Dualisten. Unsere eigene innere Erfahrung – unsere Introspektion – machte uns dazu. Wir erleben nicht nur unseren Geist als geisterhaft: als etwas, das keine Ausdehnung und keinen Ort und keine Masse hat – es führt in unserer Innenschau auch kein Weg zu etwaigen körperlichen Substraten des Denkens. Selbst daß es das Gehirn ist, welches denkt, wissen wir nicht aus eigenem Erleben, und frühere Zeiten haben ganz andere Organe für den Sitz des Denkens gehalten. Überall in der Natur können wir dadurch, daß wir dichter herangehen, mehr erkennen, auch Dinge, deren Existenz der distanziertere Blick nicht einmal ahnen ließ. Von weitem ist ein Blatt nur eine grüne Fläche, aus größerer Nähe bemerken wir seine Strukturen, mit einem Mikroskop erschließen sich seine Zellen, mit einem Elektronenmikroskop deren Membranen und die größeren Moleküle, und dieser Zoom ist so wunderbar aufschlußreich und schlüssig, daß wir keine Schwierigkeit mehr haben, den Physikern zu glauben, daß die Moleküle aus Atomen und diese aus Elementarteilchen bestehen. Unsere Introspektion aber können wir anstrengen, so viel wir wollen – sie erkennt kein Nervengewebe, keine Neuronen, keine elektrischen Ladungen an den Synapsen, obwohl doch auch die entsprechende geistige Anstrengung selber mit einer solchen Aktivität einhergeht. Unser bewußtes Erleben reicht nicht bis zu seinen Wurzeln hinab. Es bleibt an seine eigene Ebene gefesselt. Da wir unser Denken und Fühlen als etwas Immaterielles erleben, neigen wir dazu, es auch für einen immateriellen Vorgang zu halten. Und selbst eingefleischte Mo272
nisten kommen nicht umhin, von geistigen Prozessen in dualistischen Begriffen zu sprechen, denn es gibt gar keine anderen. Die Sprache ist durchtränkt von Dualismus. Da sind nicht nur feierliche poetische Sinnsprüche wie »Stark am Geist, am Leibe schwach«, die Dualismus predigen. Die Alltagssprache tut es immerfort: »Seine Angst trieb ihn um«, »Sie tanzte vor Freude«, »Er ekelte sich so, daß er sich übergeben mußte« – immer ist es etwas Psychisches, das dem Körper Beine macht. Wir erleben die Psyche nicht als einen Bestandteil des körperlichen Lebens, sondern als etwas, das ihm gegenübersteht und das sie beherrscht oder doch beherrschen sollte, denn als guten Platonikern und Christen erscheint uns die Psyche allemal auch vornehmer als der vermeintlich niedere Körper, und so drücken wir uns denn auch aus. So verführerisch und geradezu unentrinnbar aber das Argument der Introspektion auch zu sein scheint, stichhaltig ist es nicht. Auf allen Gebieten haben wir zur Kenntnis nehmen müssen, daß man seinen Augen nicht immer trauen darf, daß der naive Blick nicht unbedingt auch richtige Erkenntnisse liefert. Die Erde war denn doch keine Scheibe, über der sich ein Himmelsgewölbe drehte; nicht Gestank rief Krankheiten hervor, sondern Mikroben, die mit bloßem Auge bei bestem Willen nicht auszumachen waren. Hinter der Wirklichkeit, die wir ohne Hilfsmittel wahrnehmen, stecken allerenden andere, unglaublich reiche und zuweilen geradezu konterintuitive Wirklichkeiten. In dem Maße, in dem wir dahinterkamen, ist auch klar geworden, daß uns unsere Wahrnehmungen keineswegs ein Bild der Welt als sol273
cher liefern, der Welt »an sich«. Wie sie an sich beschaffen ist, könnten wir unmöglich sagen; wir erleben immer nur eine artspezifisch interpretierte Wirklichkeit. Wir sind nämlich ganz auf die uns genetisch einprogrammierten Anschauungsformen unserer paar Sinne angewiesen, die schnelle Luftdruckschwankungen zu »Tönen« machen, die Anwesenheit bestimmter Aerosole zu »Gerüchen«, die reflektierte elektromagnetische Strahlung mit einer Wellenlänge von 500 bis 550 Nanometer zur »Farbe grün«. Die Evolution hat uns mit ein paar Wahrnehmungen ausgestattet, die es unseren Ahnen ermöglicht haben, sich erfolgreich in der Biosphäre dieses Planeten zu bewegen und zu behaupten; ein direkter Zugang zur Wirklichkeit der Atome und Galaxien, zu Mikrokosmos und Makrokosmos war nicht nötig und ist uns darum auch nicht gegeben. Und es reichte in all den Jahrmillionen, daß wir eine Furcht empfanden, eine Kontur sahen, einen Schmerz fühlten, eine Bewegung ausführen wollten. Zu verfolgen, wie das alles zustande kam, war nicht überlebenswichtig, und so entzieht es sich offenbar der unmittelbaren Einsicht und läßt sich nur mittelbar mit den Methoden der Wissenschaft erschließen wie irgend etwas völlig Fremdes. Unserer Introspektion sind also natürliche Grenzen gesetzt. Auch was sie niemals bestätigt, kann sehr wohl der Fall sein. Was aber spricht gegen den Dualismus? Was spricht dafür, daß mentale Phänomene nicht zu einer separaten Welt gehören? Jeder Dualismus verträgt sich schlecht mit unserem von 274
Tag zu Tag wachsenden Wissen über die tatsächlichen Beziehungen, die zwischen dem Gehirn und dem psychischen Geschehen bestehen. Hirnverletzungen und operative Eingriffe haben immer wieder demonstriert, daß bestimmte Läsionen bestimmte geistige Funktionen verändern und beeinträchtigen. Daß Geisteskranke von Dämonen besessen seien, wurde immer unglaubhafter; heute ist klar, daß Geisteskrankheiten hirnorganische Funktionsstörungen sind. Mit einer Vielzahl von chemischen Substanzen lassen sich geistig-seelische Vorgänge dämpfen, verstärken, verändern, verzerren, ausschalten. Wenn der bewußte Geist etwas Andersartiges ist, letztlich nicht abhängig von irgendeinem materiellen Geschehen – warum verwirren ihn dann Lysergsäurediäthylamidmoleküle (gemeinhin als LSD bekannt) so schön und schrecklich? Warum läßt er sich von Diäthyläthermolekülen oder einem primitiven Knüppelhieb ganz in die Flucht schlagen? – Jeder Dualismus verstößt gegen die Annahme, daß es in der Natur durchweg mit natürlichen Dingen zugeht. Sie hat sich seit Anbeginn der Wissenschaftsgeschichte als wie man weiß ziemlich erfolgreich und bisher an keiner Stelle als ungültig erwiesen. Für vieles in der Welt wurden einmal über- oder außernatürliche Gründe angenommen, die sich unter dem wissenschaft lichen Blick in nichts auflösten. Blitze sind keine göttlichen Zornbekundungen, das Leben ist nicht Produkt einer übernatürlichen Lebenskraft. Da steht die Wette nicht schlecht, daß es auch im Schädelinneren keine zweite Welt neben oder in oder hinter der ersten gibt. Letztlich muß jeder Dualismus der Erkenntnis wider275
sprechen, daß das Universum ein geschlossenes System ist, in dem Energie weder verloren gehen noch neu entstehen kann. Wenn Geist – ein Wunsch, ein Wille, ein Entschluß – den Körper bewegen kann, dann sickerte an dieser Stelle Energie ins Universum ein; und wenn ein körperlicher Reiz vom Geist unterdrückt wird, dann würde Energie vernichtet. Dem wird nicht so sein. Das Universum wird keine Ritze, kein Leck haben, und schon gar nicht ausgerechnet im Kopf des Menschen. Daß Geist viel, sehr viel mit Gehirnaktivität zu tun hat, können heute auch Dualisten kaum noch bestreiten. Sie stehen damit vor der Frage, wie das Immaterielle mit dem Materiellen interagiert. Der australische Hirnforscher und Nobelpreisträger John C. Eccles, zusammen mit dem Philosophen Karl Popper einer der letzten standhaften Dualisten, offeriert in seinem neuen Buch »Die Evolution des Gehirns« dazu eine wissenschaft liche Hypothese. Ein »Psychon« (wie er eine angeblich völlig autonom existierende mentale Einheit nennt), sagt er, »durchdringe« jeweils ein »Dendron«, nämlich ein Bündel von Dendriten in der Großhirnrinde (Dendriten sind die »Empfangsantennen« der Neuronen), und löse damit ein neurales Ereignis aus. Wie soll das möglich sein ohne Verstoß gegen das Energieerhaltungsgesetz? Weil das Psychon zu einem »Feld im herkömmlichen physikalischen Wortsinne« gehört, aber einem immateriellen Feld, das einem quantenmechanischen Wahrscheinlichkeitsfeld analog ist; im quantenphysikalischen Maßstab lasse sich Energie borgen. Physiker werden wahrscheinlich sofort abwehrend die Hände heben: Das allerkleinste wirksa276
me neurale Ereignis, die Öffnung eines einzigen Neurotransmitterbläschens am Ende eines Axons, ist immer noch eine Sache von etwa zehntausend Molekülen, und in diesem Maßstab gelten keine quantenphysikalischen Begründungen. Aber ob quantenphysikalische Ereignisse im Gehirn berücksichtigt werden müssen oder nicht, ist in diesem Zusammenhang auch gleichgültig; Eccles spricht ja nicht von ihnen, sondern nur von etwas ihnen Analogem – und bleibt jede Auskunft über dessen Natur schuldig. Auch Laien werden jede Aussage über die Existenzform dieses angeblich autonomen Geistes vermissen (außer daß er ein »Geschenk Gottes« sei). Zur Ontologie: Wie ist er in sich beschaffen? Wo kommt er her? Wo geht er hin? Zur Funktion: Warum gibt es ihn? Wie kommt er in den Kopf? Wie arbeitet er mit ihm zusammen? Zur Genese: Ist er wie der Organismus ein Produkt der Evolution? Reift und altert auch er? Da hat ein Wissenschaft ler den weißen Kittel gegen einen Talar getauscht. Aber wenn der Dualismus die schwierigen Fragen auch vervielfacht – der Monismus hat sie keineswegs gelöst. Einige seiner Spielarten, die nicht minder zahlreich sind als die des Dualismus, sind schon im Ansatz völlig ungenügend, und es ist eine Freude, wie der kanadische Wissenschaftstheoretiker Mario Bunge (in seinem Buch »The Mind-Body Problem«, 1980) nicht nur mit den verschiedenen Dualismen, sondern auch mit ihnen umspringt, daß die Fetzen fliegen. Der »eliminative Materialismus« in seiner radikalen Form bestreitet rundweg die Existenz aller mentalen Phänomene. »Er bietet keine Lösung für das Leib-Seele-Pro277
blem; nein, er behauptet, es gebe ein solches Problem gar nicht. Darum können wir den eliminativen Materialismus selber eliminieren.« (In seiner mildesten Form besagt er nur, daß die Begriffe der Volkspsychologie [Zartgefühl, Willenskraft und so fort] unverläßlich sind und daß eine wissenschaft liche Beschreibung des Mentalen im Lichte der Hirnphysiologie möglicherweise zu ganz anderen begrifflichen Unterscheidungen käme. Das ist gut möglich. Vielleicht wissen wir eines Tages, daß es »die Angst« gar nicht gibt, sondern eine Reihe ganz verschiedener angstvoller Zustände; und auch, welche Maschinerie diese hervorbringt. Dann sagen wir vielleicht nicht mehr »Ich habe Angst«, sondern »Ich befinde mich in Zustand 17c, gekennzeichnet durch Neurotransmitterabundanz Soundso im kaudalen Hypothalamus«. Vielleicht aber auch lieber nicht.) Der Physikalismus, auch als reduktiver Materialismus bekannt, sagt: Geistige Zustände sind nichts anderes als physische Zustände des Gehirns, beides ist ein und dasselbe; wenn eines Tages das Gehirn vollständig beschrieben sei, werde alles Psychische automatisch miterklärt sein. Bunge: »Diese reduktionistische These ist falsch. Zu sagen, das Gehirn bestehe aus einer Menge Zellen, heißt nicht, das Gehirn sei nichts als eine Menge Zellen … Ein System ist nicht dasselbe wie die Menge seiner Komponenten.« Nein, sagt Bunge (und mich überzeugt er damit), auch eine materialistische Theorie darf das Geistige – also das, was sie erklären sollte – nicht einfach wegeskamotieren. Es bleibe nur eine Denkmöglichkeit: der »emergentisti278
sche Materialismus«. »Er behauptet, daß das Zentralnervensystem weit davon entfernt ist, ein physikalisches Etwas – insbesondere eine Maschine – zu sein; vielmehr ist es ein Biosystem, das heißt ein komplexes Ding mit Eigenschaften und Gesetzen, wie sie nur lebenden Wesen eigen sind; sehr besonderen Eigenschaften und Gesetzen sogar, die nicht alle Biosysteme gleichermaßen besitzen. Die für das Geistige reklamierte ›Emergenz‹ ist eine doppelte: Die einzelnen Zellen besitzen die mentalen Eigenschaften eines Zentralnervensystems nicht; diese sind vielmehr systemische Eigenschaften, und darüber hinaus solche, die sich nicht von selbst ergeben; und sie sind im Laufe eines langen Evolutionsprozesses zu einem bestimmten Zeitpunkt ›emergiert‹ (aufgetaucht). Folglich sind Physik und Chemie zwar nötig, um die Funktionen des Zentralnervensystems zu erklären, aber sie reichen nicht aus. Auch reicht die allgemeine Biologie nicht aus. Wir müssen vielmehr die spezifischen emergenten Eigenschaften des Zentralnervensystems und die zugrundeliegenden Gesetze erkennen.« Der Begriff »Emergenz« ist selber noch keine Erklärung; aber er bezeichnet die Richtung, in der die Erklärung gesucht werden muß. Auch John Searle ist ausdrücklich Monist. Er meint sogar, das logische Rätsel gelöst zu haben, wie Psychisches körperliche Vorgänge bewirken kann: indem es eben nicht, als etwas im Wesen Anderes, in den Körper hineinwirkt, sondern indem es selber etwas Körperliches ist, nur auf einer anderen, höheren Beschreibungsebene betrachtet – so wie Nässe oder Trockenheit keine Eigenschaften sind, die einzelne Wassermoleküle besitzen, son279
dern erst zutage treten, wo viele Wassermoleküle zusammenkommen; die Struktur dieses Molekülhaufens »verursache« die Nässe oder Flüssigkeit des Wassers nicht; beide seien vielmehr Eigenschaften der Molekülstruktur selber. Ob das Wasser irgendwohin fließt oder Wirbel bildet, läßt sich nicht auf der Ebene seiner Moleküle erklären und von der molekularen Ebene aus vorhersagen. Dennoch beruht es natürlich auf den Eigenschaften seiner Moleküle, wie diese auf ihren atomaren Eigenschaften beruhen. Die Makro-Eigenschaft Nässe geht auf die Mikro-Eigenschaft Molekülstruktur zurück. Einige Phänomene sind nur auf der Makro-Ebene sinnvoll zu beschreiben, andere auf den verschiedenen Mikro-Ebenen. Auf vergleichbare Weise, meint Searle, ergebe sich auch die Makro-Eigenschaft »Psyche« aus den hirnphysiologischen Mikro-Eigenschaften der Gehirnmaschinerie. Ein schöneres Bild als das des Wassers ist vielleicht das der Wolke. Schon der Oxforder Psychologe Ullian T. Place hat es gebraucht, der 1956 Bewußtsein als einen Gehirnprozeß erklärte und damit jenen Paradigmen Wechsel einleitete, der die Mehrzahl der Wissenschaftler inzwischen zu Monisten gemacht hat. Wenn man an die Wolke näher herangeht, verliert sie alles Wolkenhafte und wird zu einem Nebel. Faßt man diesen näher ins Auge, so erkennt man, daß er aus Wassertröpfchen besteht, und die wiederum bestehen aus Wassermolekülen. Einem H2O-Molekül aber läßt sich nicht entnehmen, wie sich Wassertropfen verhalten, und einem Wassertropfen nicht, was eine Wolke ist. Wie sich eine Wolke türmt und wie sie abschmilzt und wandert, ist nur auf ihrer Makro280
Ebene zu erkennen; die reduktionistische Sicht ist nicht direkt falsch, übersieht aber das Wesentliche. Ein häufiger Einwand gegen die Möglichkeit, irgendwelche Maschinen mit Psyche auszustatten, lautet: Psychisches sei an das biologische Gehirn gebunden und könne nicht entstehen ohne ein biologisches Schicksal, ohne eine individuelle Lebensgeschichte. So sieht es zum Beispiel der Computerwissenschaft ler und -kritiker Joseph Weizenbaum: »Jeder [wurde] von einer Mutter geboren, [hatte] primitive biologische Bedürfnisse …, [besitzt] einen menschlichen Körper, der beim Verstehen und Wissen zwangsläufig eine Rolle spielt … Kein Organismus, der keinen menschlichen Körper besitzt, kann diese Dinge in der gleichen Weise wissen wie ein Mensch.« Richtig daran ist, daß so etwas wie Geist oder Verstand bisher ausschließlich an biologischen Gehirnen beobachtet wurde; und daß diese allesamt in Körpern untergebracht sind, die eine Lebensgeschichte haben. Daß es vielleicht auch anders ginge, ist damit aber keineswegs ausgeschlossen. Träumereien wie die des AIForschers Hans Moravec, daß der Computer dem Menschen eines Tages Unsterblichkeit bescheren könnte, weil nämlich die individuelle Psyche – das Programm, das von ihr verkörpert wird – auch nach dem Tode des Körpers auf irgendeiner Maschine weiterlaufen könnte, sind heute und gewiß noch auf sehr lange Sicht nichts anderes als Science Fiction, und zwar reichlich gewagte. Aber daß sie eine prinzipielle Unmöglichkeit seien: auch das ist bisher nur eine weitere Behauptung. Ist jemand wie Moravec ein schwarzer Schimmel, ein 281
materialistischer Dualist? In der Tat ist die Kluft zwischen Dualismus und Monismus gar nicht so unüberbrückbar weit, wie die Radikalsten unter ihnen, Physikalisten oder Substanzdualisten, sie erscheinen lassen. Wenn Geistiges zwar aus Materiellem hervorgeht und an keiner Stelle in Widerspruch zu ihm tritt, aber sich aus Materiellem doch nicht restlos erklären läßt, sondern nur auf seiner eigenen Ebene, dann ist es in gewisser Weise doch eine Sache für sich. Ob der Computer nun eines Tages »Geist« nachmachen kann oder nicht – im Augenblick taugt er auf jeden Fall wie nichts anderes dazu, sich die fast unausdenkbare Beziehung zwischen Körper und Geist andeutungsweise klarzumachen. Was ist ein Computerprogramm? Es braucht einen materiellen Träger, irgendeinen: einen Streifen gelochten Papiers, eine Scheibe magnetisierter Metallmoleküle. Aber man kann nicht sagen, ein Programm sei nichts als Löcher. Ein Programm ist »Information«, eine materielle Repräsentation materieller Sachverhalte (Gegenstände, Vorgänge, Beziehungen). Das Entscheidende daran ist etwas Immaterielles, nämlich eine Ordnung, und wer es nicht auch auf dieser Ebene erfaßt, verfehlt das Eigentliche. Und eben dieses »Immaterielle« steht in Wechselwirkung mit dem Materiellen, »befiehlt« ihm, nimmt Botschaften aus ihm entgegen. An irgendeiner Stelle kommt mein laufendes Computerprogramm, das eine Sequenz elektrischer Signale ist, aber nicht »nur«, darauf, daß es die Quadratwurzel aus 26 ziehen oder bestimmen muß, ob eine Zeichenfolge ein Satzprädikat ist. Es »weiß« sel282
ber nichts davon, tut es aber, ratiomorph. Auf der Ebene von Siliziummolekülen oder Stromstößen läßt sich nur unbeholfen beschreiben und gar nicht erklären, was es da tut, obwohl es dem Charakter von Siliziummolekülen und Stromstößen nirgends widerspricht oder zuwiderhandelt, sondern ganz und gar darauf aufbaut. Es scheint die Moleküle herumzukommandieren. Und nun denke man sich noch Spontaneität in den Kasten, eigene Aktivität um eigener Ziele willen, kurz: Leben! Trägt das Bild ein Stück Wegs, so kann man sagen: Geistige Phänomene beruhen auf Materiellem und verschwinden, wenn die Materie zerfällt, auf der sie beruhen. Aber sie sind nicht nur Materie, sondern eine bestimmte, eine dynamische Ordnung, die sich nicht ungestraft reduzieren läßt.
3 Intelligent verhalten werden sich die Computer der Zukunft: ratiomorphe Maschinen. Aber selbst der Computer, dessen Intelligenz die des Menschen weit hinter sich ließe, wäre, so meine ich, genauso geistlos wie ein Bügeleisen. Er wäre es, weil ihm noch immer eine bestimmte innere Fähigkeit abginge: das Bewußtsein. Bewußtsein – »die offensichtlichste und zugleich geheimnisvollste Tatsache unseres Lebens« (Daniel Dennett) – scheint uns das Selbstverständlichste der Welt, so selbstverständlich, daß wir kaum imstande sind, es aus 283
irgendeinem Leben wegzudenken, dem der eigenen Gattung und dem der eigenen Person schon gar nicht. Dennoch ist jedem geläufig, daß es dasein, aber auch nicht dasein kann. Im Schlaf ist es gedämpft. In der Narkose ist es mutmaßlich völlig ausgeschaltet – wir »merken« nichts mehr, obwohl der Körper und auch seine Leitstelle Gehirn im übrigen weiter funktionieren. Bestimmte Chemikalien trüben und verzerren es. Jeden Morgen geht die Sonne auf, und wenn wir bei Bewußtsein sind, wird es auch im Innern hell. Wir reagieren nicht nur auf irgendwelche elektromagnetischen Schwingungen, wir erleben das Licht. Eigentlich dürfte man nicht sagen: Draußen wird es hell. Draußen nimmt die elektromagnetische Strahlung mit einer Wellenlänge von 400 bis 700 Nanometer zu, die selber gar nicht »aussieht«; erst unser Gehirn ist es, das sie in das subjektive Erlebnis »Licht« übersetzt. Während das Gehirn Millionen von Operationen gleichzeitig ausführt, wirkt das innere Erleben völlig einheitlich; wir verfolgen die Außenwelt nicht über viele verschiedene Monitore, alles geht in einen einzigen multimodalen Monitor ein. Das innere Erleben weckt auch durchaus das Gefühl, man selber sei eine Einheit, ein »Ich«, das sich sozusagen das Theater der Welt ansieht, welches ihm die Sinne ins Innere des Kopfes übertragen. Diese integrierende Funktion mag sogar den Hauptvorteil des Bewußtseins ausmachen, den Zweck, um dessentwillen die Evolution es geschaffen hat: Es erzeugt ein einheitliches inneres Modell der Außenwelt, das von einem scheinbar einheitlichen »Ich« erlebt wird. Die tausenderlei visuellen Signale, die ein auf mich zufliegen284
der Ball in meinem Kopf auslöst, werden zusammengefaßt zum Anblick der Flugbahn; und »ich« muß dann nicht Hunderten von Muskeln auf die Millisekunde genau einzelne Bewegungsbefehle zukommen lassendes genügt, wenn ich mir in meinem Bewußtsein vorstelle, wie ich mich relativ zu dem Ball bewegen muß, damit ihn mein Schläger trifft; die Umsetzung der Vorstellung in die Befehlssequenz erledigt eine unterbewußte Funktionsschicht des Gehirns. Man muß sich nur davor hüten, in die alte Homunculus-Falle zu gehen: vor dem Schluß, im Schädel hause eine kleine Person, die sich die Gehirnaktivität betrachte wie ein Kinobesucher die Leinwand. Denn sofort erhöbe sich die Frage, wie die das macht. Weil auch in der eine noch kleinere Person hause … und so weiter ad infinitum. Solche Homunculi erklären nichts. Im Kopf gibt es keinen Homunculus. Bewußtsein kann nichts jenseits der Gehirnaktivität sein. Es muß eine besondere Dimension dieser Gehirnaktivität selbst sein. Starrt man einen Begriff wie »Bewußtsein« lange genug an, so zerfließt auch er. Dann wird einem klar, daß man auf verschiedenerlei Weise bewußt sein kann, daß es »das« Bewußtsein vielleicht gar nicht gibt, daß es zumindest in Graden kommt. Wer eine Wolke einfach nur sieht, ist ihrer auf eine andere Weise gewahr als einer, der seine Aufmerksamkeit auf sie richtet; und wer über sie spricht oder gar etwas über Wolken weiß, in wieder einem anderen Grad. Und sicher die höchste Stufe des Bewußtseins ist, was Selbstbewußtsein heißt und (um Verwechslungen mit dem »gesunden Selbstbewußtsein« der 285
Umgangssprache zu vermeiden) vielleicht besser Eigenbewußtsein hieße, das Bewußtsein der eigenen Person, das Bewußtsein: das bin ich, der dies erlebt. Allen Bewußtseinsmodi aber ist eins, das Entscheidende gemeinsam: das Gewahrsein, das innere Erleben. Der heutigen Wissenschaft ist das Phänomen Bewußtsein gar nicht geheuer. Auch in der ganzen Debatte über Computer und Geist kommt es kaum jemals vor. Wenn einer es einmal kurz streift, dann geht er eilig darüber hinweg, als handle es sich nur um eine weitere höhere Hirnfunktion unter vielen, an der ganz und gar nichts Besonderes ist. – Auch John Searle hat erst in einem Aufsatz zum zehnten Geburtstag der von ihm ausgelösten Kontroverse diese seltsame Abstinenz bemerkt: »Nähert man sich der Kognitionswissenschaft und der Psychologie, auch der philosophischen, mit naivem Blick, so fällt einem als erstes auf, wie wenig Beachtung dem Bewußtsein geschenkt wird. In der Kognitionswissenschaft glauben nur wenige, daß die Erforschung des Geistes im wesentlichen oder zu einem Großteil in der Erforschung von Bewußtseinsphänomenen bestehen müßte; Bewußtsein ist nur ein ›Problem‹, eine Schwierigkeit, mit der funktionalistische oder computationalistische Theorien irgendwie fertig zu werden haben. Wie aber sind wir in diese Bredouille geraten? Wie können ausgerechnet die Disziplinen, die sich offiziell der Erforschung des Geistes widmen, sein wichtigstes Merkmal übersehen? Dafür gibt es komplizierte historische Gründe, aber der Hauptgrund ist der, daß wir seit Descartes meist gemeint haben, daß für eine seriöse Wissenschaft oder philosophische Psy286
chologie Bewußtsein keinen geeigneten Gegenstand bilde. Wenn man noch vor wenigen Jahren in einer Diskussion der Kognitionswissenschaften die Rede auf das Bewußtsein brachte, wurde das allgemein als ein Zeichen schlechten Geschmacks gewertet, und die höheren Semester, immer auf die gesellschaft lichen Mores ihrer Disziplinen ausgerichtet, verdrehten die Augen zur Decke und nahmen eine Miene milden Angewidertseins an.« In einem später konzipierten Vortrag wurde er noch deutlicher: »Die wichtigste Eigenschaft des Gehirns ist es, Bewußtsein hervorzubringen und aufrechtzuerhalten. Es ist der Skandal der Kognitionswissenschaft, gerade sie links liegen gelassen zu haben.« Einerseits liegt diese Aversion sicher daran, daß die Wissenschaften, auch die behavioral and brain sciences, sich sehr viel lieber an objektive Tatsachen halten als an subjektive Erlebnisse; das eine liefert »harte« Daten, das andere solche, für die »weich« noch gar kein Wort ist. Und daß auch subjektives Erleben eine objektive Tatsache darstellt, diese Einsicht ist darum so überaus unbequem, weil bis heute niemand auch nur die allergeringste Ahnung hat, wie es zustande kommt: wie das Gehirn es fertigbringt, einem kleinen Teil seiner Operationen diese innere Erlebnisqualität zu verleihen, deren gemeinsamen Nenner wir Bewußtsein nennen. Wir wissen mehr über das entfernteste Schwarze Loch als über die elementarste Tatsache unseres Lebens. Man weiß: Bewußtsein ist an ein entwickeltes Zentralnervensystem gebunden; wahrscheinlich ist es also nicht auf den Menschen beschränkt, möglicherweise beginnt 287
es schon beim Plattwurm heraufzudämmern. Ob auch eine ganz andere Maschinerie etwas Vergleichbares hervorbringen kann, wissen wir schlechterdings nicht. Man weiß: Bewußtseinsfähig sind nur wenige Körperfunktionen und auch die Hirnfunktionen, die doch Bewußtsein erzeugen, nur zu einem kleinen Teil. Keinem würde noch soviel introspektive Anstrengung dazu verhelfen, sich bewußt zu werden, wie sich die eigenen Pupillen bei einem erfreulichen Anblick weiten, wie das Gehirn Sprachlaute seziert, wie es das Artikulationsprogramm erzeugt, das es an die etwa hundert Muskeln des Stimmtrakts schickt, wenn es beschließt, einen Satz auszusprechen. Es ist einem nicht einmal bewußt, wie man einen bewußten Beschluß faßt; denn das Bewußtsein, daß man etwas beschließt (etwa die Hand zu heben), stellt sich erst etwa eine Drittelsekunde nach dem gefaßten Beschluß ein. Man weiß: Menschliches Bewußtsein setzt die Tätigkeit der Großhirnrinde voraus. Es gibt einseitige Läsionen der Sehrinde, die eine Hälfte des Gesichtsfeldes auslöschen; dort sehen die Kranken nichts mehr – trotzdem reagieren sie weiter auf Dinge, die ihnen auf dieser Seite gezeigt werden. Die Reize also verarbeitet ihr Gehirn weiterhin – nur bewußt wird es ihm nicht. Man weiß: Wenn der Hirnstamm die Hirnrinde nicht mehr elektrisch aktiviert, erlischt das Bewußtsein. Das Koma ist jener Zustand, bei dem die Retikularformation des Hirnstamms ihre bewußtseinsweckenden Aktivierungen nicht mehr in die Hirnrinde schickt; alle Körperfunktionen, auch die nicht von Bewußtheit ab288
hängigen Hirnfunktionen gehen weiter, nur eben das Bewußtsein fehlt. Man kann trefflich darüber spekulieren, warum die Natur das Phänomen Bewußtsein hervorgebracht hat, welche Vorteile es den Lebewesen bringt, einen inneren obersten Monitor zu besitzen, wo sie doch als bewußtlose Reflexautomaten auch funktionierten, allenfalls vielleicht nicht so gut. Nur wie das Gehirn den Trick zuwege bringt, das weiß man nicht, und solange dieses Geheimnis nicht gelüftet ist, kann man nicht einmal darüber nachzudenken beginnen, ob und wie einem Digitalcomputer Bewußtsein mitzuteilen wäre. Einer der wenigen, denen aufgefallen ist, daß das Phänomen Bewußtsein ein ernstes Problem für die AI darstellt, ist der Philosoph Daniel Dennett. Aber wie er der AI das Problem vom Hals schafft, ist wenig befriedigend. Er sieht ab von der inneren Erlebnisqualität und definiert das Bewußtsein wiederum als ein äußeres Verhalten: als die Fähigkeit, über seine inneren Zustände zu sprechen. Aber wenn ich – über die so nett sprachverständige Benutzeroberfläche DOS-MAN – meinen Computer frage: »Wieviel Arbeitsspeicher hast du«, er darauf in sein Inneres schaut und mir in korrektem Deutsch mitteilt: »29 Dateien belegen 1,2 Megabyte. Frei sind noch 11,6« – dann ist das natürlich kein Beweis für Bewußtsein. (Wie DOS-MAN das macht? Sehr einfach: für all die reichlich abstrakten und trockenen Systembefehle, die sich die Firma Microsoft einst ausgedacht hat, erlaubt DOS-MAN die Definition von Synonymen. Will man sich zum Beispiel ein Verzeichnis aller Dateien auf einem Laufwerk ansehen, so 289
muß man, unter der Standard-Benutzeroberfläche von MS-DOS, den Befehl DIR eingeben. DOS-MAN erlaubt es, diesen wahlweise durch den Befehl ZEIGE DATEIEN oder jede andere Zeichenfolge, die einem zusagt, zu ersetzen. Hinfort zeigt der Computer seinen Inhalt auch dann, wenn man statt DIR, ZEIGE DATEIEN tippt; und wenn man will, auch so etwas wie ZEIGE MIR BITTE SOFORT ALLE HEUTIGEN DATEIEN MIT DER ENDUNG TXT. Die Antworten, die er einem gibt, sind alle vorfor-
muliert; der Computer trägt nur gegebenenfalls die aktuellen Werte ein. DOS-MAN »versteht« gar nichts und hat natürlich keinerlei Bewußtsein; im Kern ist es nur ein – sinnreich ausgedachter – Mechanismus zum Vergleichen von Zeichenketten. So einfach ist es, Dennetts Kriterium für Bewußtsein zu genügen.) Fast als einziger sieht John Haugeland, Philosophieprofessor an der Universität Pittsburgh, daß da eine große beunruhigende Unbekannte ihr Wesen treibt; »Bewußtsein – das ist ein Thema, welches in der Fachliteratur der Kognitionswissenschaft auff ällig abwesend ist. Es liegt nahe, daß solch ein dröhnendes Schweigen ein häßliches kleines Geheimnis birgt … Könnte das Bewußtsein eine theoretische Zeitbombe sein, die im Schoß der KI tickt? Wer weiß?« Ich meine also: Searle im Chinesischen Zimmer hat völlig recht und völlig unrecht. Recht hat er, wenn er sagt, daß der Computer nur dann so etwas wie menschlichen Geist haben könnte, wenn er genau jene Eigenschaften besäße, die dessen wesentliche Attribute verursachen. Unrecht hat er, wenn er in der Intensionalität sein wesent290
lichstes – und zur Zeit unnachahmbares – Attribut sieht. Nicht die Intensionalität seines Geistorgans trennt den Menschen vom Computer, sondern seine Bewußtseinsfähigkeit. Wenn das nicht allgemein klar ist, dann nur, weil manch einer sich Intensionalität stillschweigend so zurechtdefiniert, daß sie Bewußtsein einschließt, da er einen intensionalen Akt gar nicht anders als bewußt denken kann. Das kann er aber sehr wohl sein: Die meisten Funktionen des Zentralnervensystems – etwa der automatische Abzug von Blau vom Morgen- und Rot vom Abendlicht oder die automatische gegenläufige Augenbewegung zum Ausgleich der Kopfbewegungen – sind intensional, gelangen aber nicht zu Bewußtsein. Inzwischen sieht wohl auch Searle, daß das Entscheidende nicht die Intensionalität, sondern das bewußte innere Erleben ist. Wenn wir eine Flasche ohne Skrupel zerschmettern, aber eine Katze nicht, dann einzig weil wir (letztlich unbeweisbar, aber sehr wahrscheinlich zu Recht) vermuten, daß diese das als Qual empfände, also ein Bewußtsein davon hätte. Solange wir nicht wüßten, daß ihm Gewahrheit, Empfindungsfähigkeit, Bewußtsein – ein inneres Erleben – eingebaut sind, zögen wir auch dem intelligentesten Computer ohne das mindeste Zögern herzlos den Stecker aus der Dose. Der Hinweis auf das völlig ungeklärte Phänomen »Bewußtsein« ist nicht als die Neuauflage irgendeines Dualismus zu verstehen. Auch das Bewußtsein wird nichts Außernatürliches sein, sondern eine emergente Funktion des materiellen Gehirns, die wie alle anderen Hirnfunktionen objektiver Untersuchung zugänglich ist. Nur 291
daß wir eben leider partout nicht wissen, welche Eigenschaften der organisierten Materie die Natur ausgenutzt hat, dieses Wunder hervorzubringen. Wenn die Kognitionswissenschaft die riesige Kluft zwischen der höchsten Ebene der geistigen Funktionen wie »Denken« oder »Sprechen« oder »Rechnen« und der untersten Ebene der Hirnphysiologie mit ihren »feuernden« Neuronen zu überbrücken versucht, bedient sie sich gemeinhin der Idee der »rekursiven Dekomposition«: Sie zerlegt die geistige Funktion immer und immer wieder auf die gleiche Weise, bis sie auf ein paar primitive Operationen zurückgeführt ist – genau so, wie es der Computer täte. Ganz oben multipliziert jemand intelligent 3 und 3; auf der Ebene darunter wartet das Gehirn mit einem dümmeren Mechanismus auf, der zwar nicht multiplizieren, aber addieren kann und die Aufgabe 3 mal 3 in 3 plus 3 plus 3 verwandelt. Darunter ist ein Mechanismus, der auch keine 3 mehr kennt, sondern nur noch zwei Zahlen. Und ganz unten befinden sich ganz dumme einzelne Neuronen, die nur noch »An« und »Aus« sagen können, wie der Computer im Innersten nur 0 und 1 schreibt. Für die komputatorischen geistigen Fähigkeiten scheint das auch ganz plausibel; sie lassen sich auf diese Weise sezieren, der Computer macht es vor. Die Bewußtheit aber läßt sich so überhaupt nicht dekomponieren. Sie scheint eine globale Fähigkeit, die sich nicht logisch auf immer schlichtere Fähigkeiten zurückführen läßt. Vielleicht nur, weil wir ihr Wesen noch so gar nicht durchschauen; aber vielleicht rührt diese Unmöglichkeit auch von ihrer Natur her. 292
Ein anderes populäres Gedankenexperiment auf diesem Gebiet ist das folgende. Man stelle sich vor, man könnte winzige Prozessoren bauen, die genau das tun, was die einzelnen Neuronen des Gehirns tun: elektrische Potentiale aufzunehmen, zu addieren, zu subtrahieren und selber welche abzugeben, wenn eine bestimmte Summe erreicht ist. Es scheint nicht grundsätzlich unmöglich. Und nun beginne man, die Neuronen des Gehirns eins nach dem andern durch die entsprechenden Prozessoren zu ersetzen, bis man am Ende einen dichtverdrahteten Siliziumfilz hat, der Struktur und Funktion des Gehirns vollkommen nachgebaut. Wäre er eine Gehirnprothese? Würde er denken wie das Gehirn? Hätte er Bewußtsein? Ich glaube, die Antwort kann heute nur lauten: Nur dann, wenn bei der Prozedur nicht unabsichtlich genau jene Eigenschaft des Gehirns abhanden gekommen ist, die Bewußtsein hervorbringt. Um sie zu erhalten, müßte man aber erst einmal wissen, worin sie besteht, und da man das nicht im mindesten weiß, kann man auch nicht das mindeste tun, einem Computer zu bewußtem Geist zu verhelfen.
!HYPERTEXT! Eine Kurzgeschichte
Leider hatte er sich nicht gemerkt, wer ihm diesen Karton geschenkt hatte. In einem fort waren sie aus dem Schummer des Hotelsalons auf ihn zugetreten, hatten seine Hand kraft voll gepreßt, versonnen gewogen, schlaff angetastet, hatten ihren Vers aufgesagt, manchmal auf ihr Mitbringsel gedeutet, das sie auf dem Tisch in seinem Rücken deponiert hatten, und sich dann zu dem anderen Tisch verzogen, wo die von Zahnstochern erdolchten Canapés aufgebahrt waren. Zu dumm, daß er sich nicht erinnerte. War es Fra Diavolo gewesen, der werte Kollege, sein intimer Feind aus vielen Fakultätssitzungen, der sich seinen Spitznamen damit verdient hatte, daß er zwischen seinen wohlüberlegten Perfidien frohgemut Arien vor sich hin pfiff ? War es Bockfuß, dieser wendige kleine Dicke aus der Kulturbehörde, dem man immer leicht geniert auf die polierte Glatze blickte, über die er sorgfältig ein paar einzelne Haare gekämmt hatte? Oder dieser glatte Schönling, zweifellos ein Mann von Vermögen und Geschmack, der ihm irgendwie bekannt vorkam, den er aber partout nirgends unterzubringen wußte – dieser Kerl mit dem weißen Anzug und der seidigen Aussprache, von dem ein leichter Zündholzgeruch ausging? Schade, schade. Dabei hatte er während des Empfangs noch gar nicht gewußt, wie schwer der Karton war; aber zu groß war er ihm gleich vorgekommen. Als Inhaber eines Lehrstuhls für Philosophie an der hiesigen Universi297
tät hatte er sich mit den Jahren zwar ein gewisses sparsames Ansehen erredet, erschrieben, erstritten, ersessen. Aber er gab sich keiner Illusion hin: Beliebt war er nicht, noch nicht einmal geachtet, bestenfalls gefürchtet. Einem wie ihm machte man zum sechzigsten Geburtstag keine spendablen Geschenke. Eine nicht gar zu bibliophile Ausgabe als Gemeinschaftsgeschenk der Kollegen, die ihm wohlgesonnen waren – in dieser Preislage spielte es sich in der Regel und völlig zu Recht ab; eine schlaue neue Software von den Freunden; eine edle Flasche Cognac von den Feinden, die wußten, wie sehr er diese Flüssigkeit verabscheute, und sich den Spaß nicht entgehen lassen wollten, ihn zu einem artigen Dankeschön zu nötigen. Fra Diavolo übrigens war es nicht gewesen, fiel ihm ein; der hatte ihm tatsächlich diesen teuren Cognac verehrt. Hatte er noch schlimmere Feinde? Die ihn durch die Größe ihrer Gabe beschämen wollten? Vielleicht war es aber auch nur einer jener Sykophanten gewesen, wie sie um jeden Lehrstuhl schwänzeln, in der hartnäckigen Hoffnung, daß man ihren bisher gnädig verkannten Unfug das nächste Mal bitteschön zitiere. Jedenfalls löste er jetzt das pinkfarbene moirierte Geschenkband nur widerwillig und schlitzte dann die Klebebänder auf. Geformtes Styropor knirschte trocken und brach beim ersten derberen Zugriff. Ein Elektrogerät. Nein, ein Computer? Es wurde immer peinlicher. Er hatte außerdem schon zwei. Er brauchte keinen dritten. Er hob ihn aus dem Karton, der nur den ironischen Aufk leber »Nicht stürzen!« trug, stürzte fast mit dem Gehäuse im Arm, für das er keine Unterlage finden konnte, 298
schob dann ein paar Bücher beiseite, stellte ihn ab, holte auch noch den Monitor hervor und sah sich sein Geschenk an. Noname, offenbar; das beschwichtigte ihn ein wenig, denn es minderte die Dankesschuld. Das Ding sah absolut gewöhnlich aus. Das Gehäuse aus Plastik in der Farbe von Hausstaub. AT-Tastatur. Ein paar serielle und parallele Normschnittstellen. Ein Laufwerk, oder nein, da war noch ein Schlitz, ein längerer. Disketten in diesem Format hatte er nicht. Hatte er auch noch nie gesehen. Schon wieder ein neues Diskettenformat, dachte er. Vielleicht ein Werbegeschenk? Irgendein Hanswurst, der ein neues Diskettenformat ausgeheckt hatte und sich wohl ein Endorsement von ihm erhoffte. Richtig, unten im Karton lag noch eine schmale Plastikschachtel, und in der befand sich eine Scheibe. Sie schillerte spektral. Oha, dachte er. Nicht einfach ein neues Diskettenformat, sondern wohl ein neues Speichermedium, vielleicht CDROM? Er kam nicht umhin, das ungewünschte Geschenk mit wohlwollenderem Blick zu mustern. Die Silberplatte wies keinerlei Etikett auf. Handbücher lagen nicht bei. Nirgends hatte wenigstens irgendein TÜV seinen Unbedenklichkeitsstempel hinterlassen. Die Plastikschachtel, der er die Platte entnommen hatte, trug in distinguierter Goldprägung nur ein einziges Wort: !Hyper-Text! Eigentlich wollte er heute abend mit B. in die Habana-Bar gehen und dann bald schlafen. Aber vielleicht … Eine Viertelstunde hatte er noch. Er konnte sich die Chose ja einmal kurz ansehen. Er steckte das Kabel in die Steckdose. Die LED-Anzeige am Computer blieb tot. Er rüttelte am Netzkabel; 299
es knisterte, im Computer ruckte etwas, dann erstarb er von neuem. Typisch, dachte er – High. Tech, aber einen Stromstecker, der fest sitzt, bringen sie nicht zuwege. Dabei ist alle Arbeit für die Katz gewesen, wenn plötzlich der Strom wegbleibt. Er schob das Kabel so tief hinein wie möglich. Jetzt lief er. Er schob auch die schillernde silbrige Platte hinein, holte sich mit dem Spann des rechten Fußes einen Hocker heran, setzte sich auf die Kante und beobachtete den Monitor. Der Computer absolvierte seine Prüfroutinen, meldete, daß alles »OK« sei, zeigte kurz an, daß irgendein »Gedächtnis befähigt« wurde und dann noch eines und dann noch eines, eine ziemlich lange Arie alles in allem, aber als der Computer schließlich resigniert piepte, weil er irgendeinen Treiber nicht auftreiben konnte, war das wohl auch als Kadenz gemeint, denn gleich darauf endete der öde Spuk auf die platteste Weise: Auf dem Bildschirm stand das unvermeidliche Prompt C:› und nichts sonst. Mechanisch tippte er DIR. Die CD-ROM-Platte, wenn sie eine war, setzte sich scharrend in Bewegung. Über den Bildschirm lief das Inhaltsverzeichnis: Zeilen, die er so schnell nicht entziffern konnte und die gar kein Ende nehmen wollten. Donnerwetter, dachte er, da ist ja eine Menge drauf. Dann kam die Schriftrolle zum Stillstand. Anscheinend waren es noch nicht einmal die Dateien gewesen, sondern nur Verzeichnisse. Nur jetzt am Ende waren zwei einzelne Dateien angezeigt. Er mußte lachen. So war die Computerwelt: AUTOEXEC.BAT und CONFIG.SYS. Dann sah er sich die Namen der Verzeichnisse darüber an. Ihnen war nichts zu entnehmen; ein un300
durchsichtiger Code, HAX3ZZ-1, PAX3ZZ-2, MAX3ZZ-3 … Er machte sein CD, öffnete PAX3ZZ-2 und bat um den Inhalt. Wieder das gleiche: eine Liste, die kein Ende nehmen wollte. Er ließ sie durchlaufen, während er sein Gesäß etwa bequemer unterbrachte, und ließ sie sich dann noch einmal seitenweise zeigen: Wieder nur Verzeichnisse. Er notierte sich einen Namen, oXboXi3H, und öffnete dieses Verzeichnis. Dasselbe Spiel: eine neue Liste von Verzeichnissen. Auf diese Weise war der Maschine offenbar nicht so rasch beizukommen. Mit vielen Pünktchen tastete er sich zum Stammverzeichnis zurück und überlegte. Einstiege. Die Gepflogenheiten der Branche. Er schrieb INSTALL . Sofort sprang ihm eine kleine Box entgegen: »!HyperText! schon ist Installiert.« Die Box verschwand. Wieder stand nur das C:-Prompt auf dem Monitor. Naja, dachte er, dann kann es eigentlich nur dies sein, und tippte !HYPOTZEXT! »Falscher Dateiname«, kam zurück. Er sah sich an, was er geschrieben hatte, beseitigte den Tippfehler und betätigte die ENTER-Taste. »You who enter …«, knurrte er verächtlich. Aber jetzt zeigte sich immerhin Wirkung. Die Platte surrte, eine scheppernde Jahrmarktsfanfare ertönte, in der er eine alte Stones-Nummer zu erkennen meinte, »Please allow me to introduce myself …« Sehr sinnig, dachte er. Der Bildschirm wurde hell, über ihn hin flirrten kunstvolle bonbonfarbene Schlieren. Alsbald kamen sie zur Ruhe. Jetzt stand nur noch eine einzige Zeile mitten auf dem Bildschirm: Willkomm zu !HyperText! 301
Schon wieder typisch, dachte er. High Tech, aber die Idioten bringen keinen richtigen deutschen Satz zustande. Nur diese Zeile. Kein Prompt. Keine Statuszeile. Nichts. Er drückte irgendeine Taste, nichts geschah. Er drückte F1, aber keine »Hilfe« kam ihm entgegen. Er drückte nach und nach alle Tasten, aber die Maschine rührte sich nicht. Er versuchte Tastenkombinationen, erst aufs Geratewohl, dann systematisch, obwohl er schon bei ALTCTRL-F9 wußte, daß auch ALT-CTRL-F12 zu keiner Reaktion führen würde. Ein Scherzartikel also, dachte er. Ein invertierter Krampus: Du denkst, gleich springt dir etwas ins Gesicht, aber dann passiert gar nichts. Und da er nicht weiterwußte, schaltete er das Ding ab. Es war schon reichlich spät. Er mußte sich noch die Krawatte abnehmen, für die Habana-Bar. Während er in den Rasierspiegel starrte und sich vor Selbstekel schüttelte, fiel ihm plötzlich die Maus ein. Richtig, er hatte es gar nicht mit der Maus versucht. Vielleicht verschaffte ihm die Maus den Eintritt. Er ging eilig in seine Studierstube, stöpselte eine Maus hinzu, schaltete den Computer ein, wartete ungeduldig die Litanei ab, tippte !HYPERTEXT!, wurde auf dieselbe mangelhafte Weise begrüßt, entdeckte in der Ecke des Bildschirms tatsächlich eine kleine Maus mit spitzer Schnauze, schob die echte Maus auf ihrer Unterlage ein wenig hin und her und überzeugte sich, daß ihr symbolisches Gegenstück auf dem Bildschirm alle Bewegungen mitvollzog. »Eine Maus soll dich geleiten«, sagte er leise, setzte sie auf das Wort !HyperText! und klickte es an. Das Maus-Icon machte ein paar Knabberbewegungen mit der Schnauze (»Der 302
Humor der Softwareingenieure«, stöhnte er), dann verschwand die Zeile. So also kam man hinein. Obwohl der neue Text auf dem Bildschirm auch noch nicht gerade eine Sensation war:
!HyperText! ist eine nichtlinear relationale Datenbank, die Informationen in mehreren der menschlichen Wahrnehmung angepaßten Ausgabemodi enthält. Wir werden besser. Das ist wenigstens sachlich und fehlerfrei ausgedrückt zudem. Im übrigen wußte er vage, was Hypertext war, Hypertext im allgemeinen, nicht dieses Produkt mit dem Namen !HyperText!, genau genommen !HyperText!HM. Ein wie üblich etwas marktschreierisches Wort für eine simple, aber hübsche Idee. Eine Art Gliederungshilfe: Man schreibt seine Sachen sozusagen auf verschiedene miteinander verknüpfte Ebenen, und der Leser dann braucht sich nur jene davon zu Gemüte zu führen, die ihn gerade interessieren. Braucht nur die Überschriften zu lesen, nur die Zusammenfassungen, kann bei Bedarf aber auch zu den vollen Texten hinabsteigen und von diesen sogar noch weiter, zu diversen Erläuterungen. Sozusagen eine hypertrophe Fußnotenverwaltung, eine für Fußnoten in den Fußnoten und Fußnoten zu den Fußnoten der Fußnoten – und darum entwicklungsfähig. So wußte er jetzt auch schon im voraus, was geschehen würde, wenn er das Wort »Datenbank« anklickte: Er erhielte eine Definition des Begriffes »Datenbank«. Richtig: »Ein Datenbank303
system besteht aus Datenbasis und Systemprogrammen. Der Zugriff erfolgt …« Ganz nett, aber so sagte es auch sein Computerlexikon; wahrscheinlich war es dort sogar abgeschrieben. Er scrollte sich bis zum Ende des Artikels vor. Dort fand sich ein kurzes Literaturverzeichnis. Er wußte, was er zu tun hatte. Er klickte den ersten besten der aufgeführten Artikel an: Sarkophil CC, ZfHE 37, 9, 1978, P55 ff. Erst dachte er, dieser !HyperText! ginge so weit denn doch nicht, denn es tat sich nichts. Aber dann wurde ihm klar, daß die Maus auch nicht geknabbert hatte, also wohl nur sein Klick nicht angekommen war, und er wiederholte ihn. Es erschien ein kurzes Abstract von Sarkophil usw., der irgendeine Retrievaltechnik zu beschreiben schien, die ihn den Teufel interessierte. Aber neben dem Abstract erschien auch ein kleines Pop-up-Menü auf dem Bildschirm. Es enthielt nur zwei Punkte: »Volltext« und »Abbruch«. Er klickte auf »Volltext«. Alle Achtung! Jetzt erging sich Sarkophil in voller Pracht und Länge. Er verließ ihn und überlegte von neuem. War nicht irgendwo von mehreren Ausgabemodi die Rede gewesen? Beherrschte diese Maschine außer Text vielleicht auch Grafik? Er kehrte zu Sarkophils Artikel zurück und blätterte. Tatsächlich, schon auf Seite 3 stand ein Histogramm, das der Bildschirm sogar in wunderschönen Farben wiedergab. Erst jetzt fiel ihm die hohe Auflösung dieses Monitors auf: Es waren so gut wie keine Bildpunkte zu erkennen, und er erinnerte sich, daß vorhin auch jener MickJagger-Song, jenes »I’m a man of wealth and taste« zwar klirrig, aber ungewohnt voll geklungen hatte. Ein Ver304
dacht kam ihm in den Kopf, er ging hastig zum Ende des offenbar sterbenslangweiligen Artikels und klickte auf den Autorennamen. Sofort tat sich ein neues Pop-upMenü auf: »Info«, »Image« und »Abbruch«. Er klickte auf »Info«, und das Erwartete erschien auf dem Bildschirm: »Sarkophil CC, Unterbereichsleiter in der Abteilung Software Entwicklung der Firma T&TG in H …« Er las nicht zu Ende, ging zum Menü zurück und klickte auf »Image«. Sofort erschien ein Foto auf dem Bildschirm, das offenbar Sarkophil darstellen sollte, einen Herrn um die Vierzig mit Schnauzer und Brille, der genau so aussah wie fast all die Herren auf der CeBIT: keinerlei besondere Kennzeichen. Er ging zur Vita zurück und klickte auf »Eigenheim im Grünen«. Jetzt gab es ein Reihenhaus zu sehen, ebenfalls ohne besondere Kennzeichen. Er klickte auf »Verheiratet«: Das Foto einer Frau vor einem Reihenhaus im Grünen. Er klickte auf »Kind«: Ein dicker Knirps an der Hand einer Frau vor einem Reihenhaus im Grünen. Hobbys: Gartenarbeit, Reisen. Zur Illustration von »Reisen« sah man, wie Sarkophil einen Koffer im Kofferraum eines Mittelklassewagens verstaute. Und nun? Sollte er sich weitere solche Herren im Bild vorführen lassen? Sollte er sich durch ihre öden Artikel wälzen, von denen der Speicher sicher übervoll war? Nein, jetzt risse er sich los, sicher wartete mit ihrem ausladenden Strohhut schon B. vor ihrer dritten Erdbeermargarita in der Habana-Bar. Aber bevor er den Computer ausschaltete, mußte er schnell noch einen weiteren Verdacht ausräumen. Er ging zum Ende von Sarkophils Artikel. Auch dort stand ein Literaturverzeichnis. Er klickte den 305
ersten Artikel an, Seth-Typhon irgendwas. Sofort erschien dessen Abstract. Er ließ ihn sich im Volltext zeigen, ging zum Ende, fand ein Literaturverzeichnis, verscheuchte eine Fliege vom Bildschirm, Zebul B nein, Nider J nein, klickte Asmodeu S an, erhielt erst Abstract, dann Volltext, ging ins Literaturverzeichnis, klickte auf Hag-Zissa S / Schwarzer-Pascha A, erhielt ein Abstract, erhielt den Volltext, erhielt ein Foto des Koautors, der sich als weiblich herausstellte, Sybil Hag-Zissa, sah sich die recht pralle Frau an, die ein geblümtes Dirndlkleid mit Puff ärmeln trug und gerade dabei schien, eine Maus zu töten, welche an der Wurzel eines Apfelbaums an einer Hecke im Garten eines Hauses einer Reihenhaussiedlung einer unbekannten Stadt genagt hatte, schaltete den Computer aus und stand mit einem für einen Philosophieprofessor viel zu unfeinen Fluch auf. Diese Maschine hatte es zwar in sich, aber was interessierten ihn letztlich Datenbanken, Ellermütter, Heckenfrauen, Mäuse, Apfelbäume. Er würde wieder einmal seine Zeit vertun, am Morgen übernächtigt Pulverkaffee in sich hineinschütten, »ich bin so frei«, haha, und der nächste Tag wäre verdorben, ehe er auch nur begonnen hätte. Nein, Schluß jetzt. Aus das Ding. Ich gehe. Er ging in den Flur, hängte sich den alten Burberry über die Schultern, schlang sich zur Verzierung noch schwungvoll einen Kaschmirschal um den Hals, griff schon an die Klinke, als ihm klarwurde, daß er die Wohnung heute natürlich nicht mehr verlassen würde. Wie er war, in Mantel und Schal, lief er in seine Studierstube zurück, rückte sich eilig den Hocker zurecht 306
und schaltete den Computer ein. »Willkomm zu !HyperText!« Er blätterte sich bis zu Hag-Zissa S durch und klickte sie an. Das Pop-up-Menü jetzt bot ihm unter anderem »Sound«, »Still«, »Motion«, »Time«. Er klickte auf die erste Option und hörte nun eine Frau schimpfen, offenbar die Hag-Zissa: »Verdammtes Tier! Verfluchte Sau! Unsere schönen Golden Delicious.« Er klickte auf »Motion«. Jetzt setzte sich Hag-Zissa in Bewegung. Sie hielt die Maus angeekelt am Schwanz hoch, ging um die Hecke herum zur Pergola, beseitigte die Maus, fegte die Pergola mit einem altertümlichen Reisigbesen, ging ins Haus und machte die Tür hinter sich zu. Es störte ihn, daß er ihr nicht folgen, daß er nicht klopfen und eintreten und ihr in die Besenkammer und ins Arbeitszimmer nachgehen konnte, wo sie möglicherweise an weiteren Retrievalproblemen in nichtlinear relationalen Datenbanken tüftelte, aber er hatte jetzt wirklich Spannenderes zu tun, als vor diesem albernen Reihenhaus zu warten, bis vielleicht Herr Zissa (oder Herr Hag?) nach Hause käme, und so wählte er die Option »Time« und sah sich weiteren Pop-up-Menüs konfrontiert, die ihm »Realtime«, »Zoom«, »Forward«, »Present«, »Back« anboten, ging zurück zu Frau Sybil und ließ sie rückwärts aus dem Haus herauskommen, mit dem Besen den Schmutz auf der Pergola verteilen und eine Maus an die Wurzel des Apfelbaums setzen. Er schaltete den Zeitzoom hinzu, Hag-Zissa rannte ins Haus, die Tür schlug jetzt auf und zu, in schneller Folge wurde es dunkel und hell, Leute gingen erst und kamen dann, das Haus wurde immer neuer, jetzt war nur noch eine Bau307
grube zu sehen und jetzt nur noch eine Kuh auf einer Weide, er schaltete in die Gegenwart zurück, das gab es doch nicht, ließ das Ganze schnell vorwärts laufen, wieder schlug die Tür, kamen und gingen Leute, kurz war zu sehen, wie die Hag-Zissa sich im Garten am Bärlapp zu schaffen machte und dann eine Ambulanz den grauhaarigen Hag oder Zissa abtransportierte, das Haus rapide alterte und zusammenfiel, und er stöhnte auf und kehrte ins Stammverzeichnis zurück. Das war eine Höllenmaschine! Vor seinem nächsten Ausflug mußte er sich sammeln. Er goß sich in der Küche schnell einen Kaffee auf, spülte mit ihm ein paar Hyperforatdragees hinunter, spie alles ins Klosettbecken, hielt die Stirn unter den kalten Wasserstrahl; sagte ein paarmal, aber ohne Erfolg, die vertraute Formel »Es atmet mich« her, entsann sich eines Apfels im Kühlschrank und dann des Apfelbaums am Monitor, und schon saß er wieder davor. Bald hatte er herausgefunden, wie man sich in den Landschaften am Monitor bewegte, tippelte voran wie das kleine dumme kecke Männchen in einem Computerspiel mit Verliesen und Drachen, flog über seine Heimatstadt hin, wie er es vom Flugsimulator her gewohnt war. Zwischendurch holte er sich kurze oder lange Beschreibungen des Gesehenen auf den Bildschirm, ließ sich, einer Augenblickslaune folgend, eine ausgewählte Bibliographie zum Stichwort Obstanbau, Unterstichwort Apfelbau, Unterstichwort Golden Delicious ausdrucken, und während sein Drucker Seite um Seite vor sich hinhämmerte, sah er einem verwitterten, solariumgebräunten Obstbauern zu, der aus einer blauen Kanone ein Pe308
stizid oder Herbizid versprühte und dann in einem grünen Audi davonfuhr, wohin? Er spürte Bockfuß in seiner Dienststelle auf, vertieft in den Urlaubsplan der Abteilung, und dann Fra Diavolo im Hörsaal vor einer großen Schar Studenten, die offenbar beeindruckt waren, jedenfalls emsig mitkritzelten. Bei einem Spaziergang entdeckte er durch Zufall, daß ganz in der Nähe jahrelang ein Toter Briefkasten gewesen war. Er wechselte zum Thema Industriespionage in den neunziger Jahren des zwanzigsten Jahrhunderts, Abteilung Chip-Fabrikation, aber irgendwie wuchs es sich zu einer Geschichte des Geheimnisverrats schlechthin aus, und daraus wiederum wurde eine Universalgeschichte der Niedertracht, die er sich momentan nicht zumuten mochte, so daß er zum Thema Universalgeschichte der Kommunikation überwechselte, in ihm die Neuere Geschichte des Postwesens ausfindig machte und in dieser schließlich eine Geschichte des Briefkastens, bis er vor dem Briefkasten drei Straßen weiter stand, sich ärgerte, daß der Briefmarkenautomat daneben immer noch »Gesperrt« war, eine Weile wartete und Luft schöpfte. Da er zu jenen gehörte, die allem widerstehen können, nur einer Versuchung nicht, suchte er sich auf vielen Umwegen den Pfad zu Barschel in der Badewanne, um in Erfahrung zu bringen, ob es vielleicht doch Mord gewesen war (soweit er daraus klug wurde, war es tatsächlich Selbstmord gewesen). Dann gab er einem noch puerileren Gelüst nach und holte sich auf verschlungensten Wegen die Sinnfrage auf den Bildschirm, erfuhr aber nur, daß die Antwort »Ein Mulscheister und ein Leichenzehrer malten einen Rattenschiß von ihrer 309
lielgeviebten Lehene« heißen sollte. Er drang nicht in die Maschine, verließ sodann die Heimat und zog weiter hinaus, überzeugte sich, daß ein bestimmtes Café an der Gare du Nord in Paris noch existierte, auch wenn er leider feststellen mußte, daß bald eine Baukolonne anrükken und es in einen »Hypermarché« verwandeln würde, der indessen auch keinen langen Bestand hätte. Er sah die Galgenvögel auf dem Platz Djama el Fna. Er faßte den pyramidenförmigen Wolkenkratzer von San Francisco ins Auge, an dem er sich ein paar helle Tage lang orientiert hatte, machte ein paar Zeitsprünge, sah ihn erbeben, schwanken, fallen. Um sich Erholung zu gönnen, tastete er sich zum Turm von Pisa vor und zoomte ihn zeitlich rückwärts, bis er sich aufrichtete und kerzengerade stand. Und weil das lustig war, verwandelte er den scheußlichen Steglitzer Kreisel in das düstere Kino Albrechtstraße zurück, aber das machte schon kaum noch Spaß. Dort hatte er in der Kindheit einen Unterwasserfilm gesehen, er erinnerte sich an den Kampf mit einer Art Riesenmeerwanze, aber alles über Trilobiten wollte er wirklich noch nie wissen. Man mußte unbedingt systematischer vorgehen, aber er wußte nicht, wo beginnen und mit welchem Ziel. Ein paarmal hängte sich der Computer auf, er konnte sich nicht erklären, warum. Das eine Mal hatte er gerade eine filmartige Geschichte der Mythologie Revue passieren lassen, sich an den Bocksprüngen einiger versoffener Satyrn ergötzt und beschlossen, deren weitere Evolution zu verfolgen, als das System plötzlich abstürzte. Ein anderes Mal hatte er in einer Enzyklopädie geblät310
tert, war irgendwie auf den Leipziger Verleger Benediktus Gotthelf Teubner gestoßen und wollte, nachdem der zu Grabe gebettet war, zum nächsten Stichwort fortschreiten, als der Bildschirm die berüchtigten Bomben legte. Ein anderes Mal hatte er sich im Nahen Osten umgetan, war südlich von Jerusalem in die Nähe des Hinnon-Tals geraten, eine Art Wadi, aus dem er von fern eine wilde Musik wie von Zimbeln und Flöten zu hören meinte, und gerade wollte er sich ihr nähern, als der Computer funkenstiebend den Geist aufgab. Er fand nie wieder an jene Stelle zurück. Dafür erlebte er anderes. Er fuhr ein in Mikro- und Makrowelten. Ließ sich mit einem Leukozyten durch das knorrige Gefäßsystem eines Auerochsen schwemmen. Bemühte sich lange, aus einem Atom klug zu werden und den Widerspruch von Welle und Teilchen zu lösen, vergeblich allerdings, so daß er gar nicht mehr versuchte, sich einen Quantensprung anzusehen. Verließ dann die Erde, erklomm die Zinnen ferner Planeten, tauchte in die Ozeane künftiger Gestirne, lauschte dem Sphärenklang des Universums, der ihn vage an einen fast vergessenen Hit erinnerte, ließ sich dann wieder näher herbei und ging langsam über eine Wiese, auf der er als kleiner Junge gelegen und erstaunt über die bodenlose Tiefe der Welt mit dem Löwenzahn gespielt hatte, er hatte sie völlig vergessen gehabt, aber jetzt war es ihm, als dringe ihm sogar der alte Duft des trocknenden Heus in die Nase. Er stürzte hinaus und mußte sich nun ernstlich übergeben, bis er wie ausgewrungen war. Er riß sich die Klei311
dung vom Leib, wischte sich mit einem Handtuch den klammen sämigen Schweiß aus dem Gesicht und wußte, daß er den Boden des Schreckens noch nicht erreicht hatte. Wenn die Maschine so viel enthielt, vielleicht alles, dann mußte sie auch ihn selber enthalten. Wieder am Computer, fast nackt diesmal, hangelte er sich von den Datenbanken zur Informatik und von der zur Künstlichen Intelligenz und dann weiter zur Philosophie, zur Epistemologie und fand dort schließlich ein paar seiner eigenen Artikel. Seine Kurzvita war soweit korrekt. Er zögerte aber, ehe er sich auch sein Standfoto auf den Bildschirm holte. Vorher wollte er sicher sein, daß »Present« eingeschaltet war und jede Bewegung wie jeder Zoom ausgeschaltet, denn er hatte wenig Lust, sich in der Vergangenheit oder der Zukunft zu begegnen. Dann setzte er die Schnauze des Mauszeigers auf »Still« und drückte die linke Maustaste. Am Bildschirm erschien ein fremdes Gesicht. Die Wangen waren hohl, die Augen eingesunken, ein ungepflegter Bart verdeckte das meiste. Der Computer hatte sich also doch endlich einmal geirrt und das Falsche aus seiner nichtlinear relationalen Datenbank geholt. Er blickte auf seine Hände, die vor dem Bildschirm über der Tastatur lagen. Sie waren dürr und welk, unbekannte Hände. Er griff sich ins Gesicht und fand die langen Bartstoppeln, die er auf dem Bildschirm auch frontal sehen konnte. Sein Gesicht blickte ihn fragend an. Er schaltete hastig den Zeitraffer rückwärts ein und spielte das Gesicht zurück, bis es wieder das ihm bekannte war. Er sah sein vergleichsweise junges Gesicht fragend an. Sein ver312
gleichsweise junges Gesicht sah ihn fragend an. Es schien nachzudenken, beugte sich über die Tastatur und tippte !HYPERTEXT!.
ANHANG
NAMEN, ADRESSEN, PREISE (Alle Angaben ohne Gewähr) AccuText OCR-Software für Apple Mac II Von Electric Word 1989 ausgezeichnet mit dem Prädikat »State of the Art« Preis: 995 US$ Hersteller: Datacopy Inc. 1215 Terra Bella Avenue Mountain View, CA 94043 U.SA. Telefon 001-415-9657900 Allfont 2800 Formularleser für alle Schriften inkl. Blockhandschrift Preis: ab 156 000 DM Hersteller: CGK Computer Gesellschaft Konstanz mbH Max-Stromeyer-Straße 116 D-7750 Konstanz Telefon 07531-871; Fax 07531-874567 Atlas II Maschinelle Übersetzung Japanisch-Englisch (Deutsch in Vorbereitung) Hersteller: (1) Fujitsu Deutschland GmbH Rosenheimer Straße 145 D-8000 München 80 Telefon 089-323780 317
(2) ARIS Software-Entwicklung GmbH Robert-Bosch-Straße 79 D-7000 Stuttgart 1 Telefon 0711-253031 Augur OCR-Software für Atari ST Preis: ca. 500 bis 4.500 DM Vertrieb BRD: H. Richter Hagener Straße 65 D-5820 Gevelsberg Telefon 02332-2706; Fax 02332-2703 Vertrieb Schweiz: TRILLIAN Computer AG Eisfeldstrasse 6 CH-8050 Zürich Telefon 01-3022179; Fax 01-3028525 AutoREAD Scannerunabhängige OCR-Soft ware für Windows Preis: je nach Umfang 800–6800 DM Hersteller: ISTC 15 rue René Cocheicite F-92170 Vannes Frankreich Telefon 0033-1-46458989; Fax 0033-1-46428600 Deutscher Vertrieb: Borgware GmbH Hauptstraße 8 D-7452 Haigerloch 3 – Owingen Telefon 07474-69815; Fax 07474-69834 Schweizer Vertrieb: Comtegra AG 318
Publishing & OCR Ottilienstrasse 17 CH-8003 Zürich Telefon 01-463 68 48; Fax 01-461 02 43 Preis: 2190 sFr. Carlos Rechtschreibprüfprogramm mit Vollformenlexikon für DOS-PC Preis: 752 DM Hersteller: text & satz Datentechnik Werner Breuch Oldenburgerallee 62 D-1000 Berlin 19 Telefon 030-3052020; Fax 030-3045570 Discover 7320 Scanner, Koprozessorkarte, OCR-Soft ware Preis: Je nach Ausführung 13 500 – 50 000 DM Hersteller: XEROX Imaging Systems, Inc. – Kurzweil 185 Albany Street Cambridge MA 02139 U.S.A. Telefon 001-415-8644700; Fax 001-617-8644186 Deutscher Vertrieb: CCS GmbH Schwanenwik 32 D-2000 Hamburg 76 Telefon 040-2201844; Fax 040-2280017
319
Discover Freedom 386 Scannerunabhängige OCR-Software für PS/2 oder 386er Preis: 3375 DM Hersteller: XEROX Imaging Systems, Inc. – Kurzweil 185 Albany Street Cambridge MA 02139 U.S.A. Telefon 001-415-8644700; Fax 001-617-8644186 Deutscher Vertrieb: CCS GmbH Schwanenwik 32 D-2000 Hamburg 76 Telefon 040-2201844; Fax 040-2280017 DLT – Distributed Language Translation Multisprachliche maschinelle Übersetzung für den »Laien« (bisher nur als Prototyp) Entwickler: BSO / Research (Büro voor Systeemontwikkeling) Kon. Wilhelminalaan 3 NL-3503 RH Utrecht Niederlande Telefon 0031-30-911911; Fax 0031-30-944048 DOS-MAN Natürlichsprachige deutsche Benutzeroberfläche für DOS-PCs Preis: 340 DM Hersteller: TRANSMODUL GmbH Am Staden 18 D-6600 Saarbrücken Telefon 0681-66610 320
DragonDictate-30 K ASR-Diktiergerät ca. 9000 US$ Hersteller: Dragon Systems, Inc. 90 Bridge Street Newton, MA 02158 U.S.A Telefon 001-617-9655200 Schweizer Vertrieb: Fabrimex AG Kirchenweg 5 CH-8032 Zürich Telefon 01-2512929 Euroscript 3.0 a la carte Textverarbeitung mit Rechtschreibprüfung Deutscher Vertrieb: North American Soft ware GmbH Uhdestraße 40 D-8000 München 80 Telefon 089-7917091; Fax 089-7900258 EUROTRA Maschinelle Übersetzung (Forschungsprojekt der EG) Entwickler in der Bundesrepublik Deutschland: IAI/ EUROTRA-D Martin-Luther-Straße 14 D-6600 Saarbrücken Telefon 0681-39313
321
GRAMMATIK IV und Grammatik Windows Stil- und Grammatikprüfprogramm Englisch für den PC Von Electric Word 1989 ausgezeichnet mit dem Prädikat »State of the Art« Preis: ca. 60 US$ Hersteller: Reference Software International 330 Townsend Street, Suite 135 San Francisco, CA 94107 U.S.A. Telefon 001-415-5410222 GVR – Gerdes Voice Recognition ASR-Diktiergerät (Prozessorplatine, Kopfhörer/Mikrofon, Software) Preis: 1498 DM Hersteller: Gerdes AG Lessenicher Straße 9 D-5300 Bonn 1 Telefon 0228-626130; Fax 0118-616229 Image-In Read Scannerunabhängiges OCR-Zusatzmodul zur ScannerSoftware Image-In Preis: Image-In 660 DM, Read 1535 DM Hersteller: CPI S.A. 50 avenue de la Praille CH-1227 Carouge (Genf) Schweiz Telefon 022-436800 Deutscher Vertrieb: Macrotron AG 322
Stahlgruberring 28 D-8000 München 82 Telefon 089-42080; Fax 089-429563 INFOTERM – Terminologiezentrum Österreichisches Normungsinstitut Heinestraße 38 A-1020 Wien Telefon 0222-267535-309* LC-TOP Software für die Benutzung elektronischer Wörterbücher auf dem PC Preis: 228 DM; elektronisches Standardwörterbuch Deutsch-Englisch (50 000 Einträge): 228 DM; Fachwörterbücher inkl. Standardwörterbuch Deutsch-Englisch: 400–600 DM Hersteller: SOFTEX – Softwareinstitut für maschinelle Textbearbeitung GmbH Schmollerstraße 31 D-6600 Saarbrücken Telefon 0681-34027; Fax 0681-371636 LEXIS Technische Terminologie-Datenbank Sprachen: Deutsch, Englisch, Russisch, Französisch, Spanisch, Italienisch, Portugiesisch, Niederländisch, Polnisch Form: Mikrofiche (später Umstellung auf CDROM) Preis: etwa 100 DM pro Sprachrichtung Bundessprachenamt 323
Horbeller Straße 52 D-5030 Hürth Telefon 02233-551 LOGOS Übersetzungs-Software für Wang VS, IBM VM/CMS oder MVS, Unix (für Rechner mit mindestens 140 MB dediziertem Speicher) Sprachrichtungen Deutsch-Englisch / Französisch / Italienisch; Englisch-Deutsch / Französisch / Italienisch / Spanisch Preis (nur Software): ca. 200 000 DM (oder Miete) Hersteller: Logos Corporation One Dedham Place Dedham, MA 02026 U.S.A. Telefon 001-617-3267600 Europäische Niederlassung: Logos Computer Systems DeutschlandGmbH Gutleutstraße 322 D-6000 Frankfurt 1 Telefon 069-234381; Fax 069-235910 METAL Maschinelle Übersetzung (1989 Deutsch-Englisch; ab Ende 1990 voraussichtlich auch Englisch-Deutsch, Deutsch-Spanisch, Niederländisch-Französisch; weitere Sprachpaare in Vorbereitung) Von Electric Word 1989 ausgezeichnet mit dem Prädikat »State of the Art« 324
Preis: LISP-Computer SYMBOLICS 3610 ME-P 113 590 DM, SINIX-Workstation 43 000 DM, Soft ware METAL 102 600 DM (oder Miete) Siemens AG Kommunikations- und Datentechnik Otto-Hahn-Ring 6 D-8000 München 83 Telefon 089-6360; Fax 089-7220 Microlytics, Inc. Produkte: Spellingchecker in zehn Sprachen; der englische Thesaurus (Synonymwörterbuch) Word Finder (15 000 Stichwörter, 220 000 Synonyme); das Textretrieval-Programm GOfer One Tobey Village Office Park, Suite 1595 Pittsford, NY 14534 U.S.A. Telefon 001-716-2489150; Fax 001-716-2483868 OmniPage Scannerunabhängige OCR-Soft ware für DOS-PCs und Apple Mac II Preis: ca. 3000 DM Hersteller: Kaere Corporation 100 Cooper Court Los Gatos, CA 95030 U.S.A. Telefon 001-408-3957000 Deutscher Vertrieb: Prisma Computertechnologie Handels-GmbH Wandsbeker Zollstraße 87 325
D-2000 Hamburg 70 Telefon 040-658080; Fax 040-6524393 Schweizer Vertrieb: Intellis Witikonerstraße 297 CH-8053 Zürich Telefon 01-382 05 55 Preis: für 286: 5730 sFr. (mit Karte), für 386: 2335 sFr. Personal Reader OCR-Gerät als Vorlesemaschine für Blinde Preis: 26 300 DM Hersteller: XEROX Imaging Systems, Inc.–Kurzweil 185 Albany Street Cambridge, MA 02139 U.S.A Telefon 001-617-8644186 Deutscher Vertrieb: Baum Electronic GmbH Schloß Langenzell D-6901 Wiesenbach Telefon 06223-4193 Primus Regelgeleitete Rechtschreibwörterbücher Deutsch, Englisch, Französisch Preis: pro Sprache 660–1094 DM SOFTEX – Softwareinstitut für maschinelle Textbearbeitung GmbH Schmollerstraße 31 D-6600 Saarbrücken Telefon 0681-34027; Fax 0681-371636 Schweizer-Vertrieb: EDV-Beratung AG 326
Lagerstrasse 14, Postfach 615 CH-8600 Dübendorf Telefon 01-821 56 00 Preis: zwischen 450 sFr. und 900 sFr. ReadRight for Windows OCR-Software für MS-Windows Preis: 494 US$ Hersteller: OCR-Systems 1800 Byberry Road, Suite 1405 Huntingdon Valley, PA 19006 U.S.A. Telefon 001-215-9387460 ReadStar Scannerunabhängige OCR-Soft ware für DOS-PCs und Apple Mac Plus Preis: ab 4500 DM Hersteller: Inovatic SA 3 avenue du Centre F-78180 Montigny-Bretonneux Frankreich Telefon 0033-1-30572211; Fax 0033-1-30440667 Deutscher Vertrieb: Legenda Sternwaldstraße 6a D-7800 Freiburg Telefon 0761-706555 Rechtschreibprofi Rechtschreibprüfprogramm für DOS-PC und Atari ST Preis: 99 DM 327
Hersteller: Data Becker Merowingerstraße 30 D-4000 Düsseldorf 1 Telefon 0211-310010 Recognita Plus Scannerunabhängige OCR-Soft ware Preis: 2400–3414 DM Hersteller: Szki Computer Research Donati u. 35-45 H-1015 Budapest I. Telefon 0036-1-351149; Fax 0036-1-1150899 Deutscher Vertrieb: Macrotron AG Stahlgruberring 28 D-8000 München 82 Telefon 089-42080 Schweizer Vertrieb: Abakus Software Service AG Forchstrasse 136-138 Postfach 201 CH-8O3-O Zürich Telefon 01-55 32 52; Fax 01-55 30 17 Preis: 2950 sFr. Right Automatischer Textkorrektor Preis: 248 DM Korrekturwörterbücher Deutsch, Englisch, Französisch, Italienisch, Spanisch, Portugiesisch je 248 DM; Medizinische Fachsprache 548 DM Hersteller: Hannes Keller Witch Systems AG 328
Wieslerstrasse 21 CH-8702 Zollikon Telefon 01-3918180 Deutsche Niederlassung: Hannes Keller Witch Systems GmbH Breitenstraße 3 D-7890 Waldshut Telefon 07741-30659 Say and See ASR-Software Englisch für Logopädie (Apple Macintosh) Von Electric Word 1989 ausgezeichnet mit dem Prädikat »State of the Art« Preis: 2500 US$ Hersteller: Emerson and Stern Associates 10150 Sorrento Valley Road, Suite 210 San Diego, CA 92121 U.S.A. Telefon 001-619-4572526 ScanMan Plus Handscanner Preis: bis 740 DM; mit OCR-Software Image-In inkl. Read plus 490 DM; mit OCR-Software Catchword plus 450 DM Hersteller: Logitech International S.A. Moulin du Choc CH-1122 Romanel sur Morges Schweiz Telefon 021-8699656; Fax 021-8699717 Deutsche Filiale: LOGI GmbH 329
Montenstraße 11 D-8000 München 19 Telefon 089-1784061; Fax 089-170125 Spracherkenner 1210 Preis: 12 240 DM Hersteller: CGK Computer Gesellschaft Konstanz mbH Max-Stromeyer-Straße 116 D-7750 Konstanz Telefon 07531-871 Systran Multisprachliche maschinelle Übersetzung (20 Sprachrichtungen) Rechte für kommerzielle Nutzung in Europa: Gachot SA 26 bis, avenue de Paris F-95230 Soisy-sous-Montmorency Frankreich Telefon 0033-1-39899011 SYSTRAN-Übersetzungen als kommerzielle Dienstleistung: Sprachrichtungen Deutsch–Englisch / Französisch; Englisch–Arabisch / Deutsch / Französisch / Italienisch / Niederländisch, Spanisch; Französisch– Deutsch / Englisch / Niederländisch; PortugiesischEnglisch; Russisch–Englisch; Spanisch–Englisch Preis: 0,09 DM pro Wort (Arabisch und Russisch 0,15 DM) Vertrieb in Frankreich über Minitel; in der Bundesrepublik: SOFTEX – Softwareinstitut für maschinelle Textbearbeitung GmbH 330
Schmollerstraße 31 D-6600 Saarbrücken Telefon 0681-34027; Fax 0681-371636 TEAM Terminologie-Datenbank Siemens AG Kommunikations- und Datentechnik Otto-Hahn-Ring 6 D-8000 München 83 Telefon 089-6360; Fax 089-7220 Term-PC Software (unter Windows) für die Anlage und Verwaltung eigener Terminologielexika oder in Verbindung mit Lexika der Terminologie-Datenbank TEAM Preis: voraussichtl. 4000–12 000 DM Siemens AG Kommunikations- und Datentechnik Otto-Hahn-Ring 6 D-8000 München 83 Telefon 089-6360; Fax 089-7220 TextPert 3.0/TextPert Windows OCR-Software für Apple Macintosh bzw. MS-Windows Preise: Mac-Version 2.980 DM, Windows-Version 2.280 DM Hersteller: CTA Ciencia i Tecnologia Aplicada SA Roger de Llúria 50 E-08009 Barcelona Telefon 0034-3-3184737; Fax 0034-3-3025110 331
Deutscher Vertrieb: DKD Druck- und Kopiertechnik GmbH Abteilung CSG Bahnhofstraße 39 D-6300 Gießen Telefon 0641-1302; Fax 0641-73740 TITUS Verein Textildokumentation und Information Ostbahnhofstraße 13 D-6000 Frankfurt Telefon 069-4308-241 VCU Voice Communication Unit ASR-Diktiergerät Preis: ca. 10 000 DM Hersteller: Fujitsu Ltd. Deutsche Niederlassung: Fujitsu Deutschland GmbH Rosenheimer Straße 145 D-8000 München 80 Telefon 089-323780 Voice Controller Spracherkennungssystem für die mündliche Steuerung des PC (Steckkarte, Mikrofon/Kopfhörer, Software) Preis: 798 DM Hersteller: Covox, Inc. 675-D Conger Street Eugene, OR 07402 U.S.A. Telefon 001-503-3421271 Deutscher Vertrieb: Friedrich Meier Personal Computer Support 332
Alt-Holzhauser-Straße 25 D-4902 Bad Salzuflen 1 Telefon 05222-22276; Fax 05222-22716 VoiceEM, VoicePATH, VoiceRAD, VoiceReport ASR-Gerät zum mündlichen Erstellen von Arztberichten Preis: je 18 900 US$, VoiceReport 12 900 US$ Hersteller: Kurzweil Applied Intelligence, Inc. 411 Waverly Oaks Road Waltham, MA 02154 U.S.A. Telefon 001-617-8935151 Voice Link SRB-LC II Preis: 350 US$ Hersteller: International Voice Products 14251-B Chambers Road Tustin, CA 92680 U.S.A. Telefon 001-714-5441711 Voice Master Key Spracherkennungssystem für die mündliche Steuerung des PC (Steckkarte, Mikrofon/Kopfhörer, Software); System II als externes Gerät Preis: mit Karte 398 DM, extern 220 US$ Hersteller: Covox, Inc. 675-D Conger Street Eugene, OR 07402 U.S.A. 333
Telefon 001-503-3421271 Deutscher Vertrieb: Peksoft Computersoftware Landsberger Straße 77 D-8031 Gilching Telefon 09105-8037 Word 5.0 und Word for Windows 1.0 Textverarbeitungen mit Rechtschreibprüfung Deutscher Vertrieb: Microsoft GmbH Edisonstraße 1 D-8044 Unterschleissheim Telefon 089-317050; Fax 089-31705100 Schweizer Vertrieb: Transdata Röntgenstraße 4 CH-8005 Zürich Telefon 01-271 59 19 WordPerfect 5.0 Textverarbeitung mit Rechtschreibprüfung Deutsche Niederlassung: WordPerfect Soft ware GmbH Frankfurter Straße 33-35 D-6236 Eschborn Telefon 06196-90401; Fax 06196-46003 Schweizer Vertrieb: WordPerfect Switzerland Seftingenstraße 364 CH-3084 Wabern Telefon 031-54 56 51
334
WordScan OCR-Software für MS-Windows Preis: 595 US$ Hersteller: Calera Recognition Systems 2500 Augustine Drive Santa Clara, CA 95054 U.S.A. Telefon: 001-408-9868006; Fax 001-408-9861440 Wordstar 5.5 Textverarbeitung mit Rechtschreibprüfung Deutscher Vertrieb: MicroPro International GmbH Widenmayerstraße 6 D-8000 München 22 Telefon 089-220687; Fax 089-298698
BIBLIOGRAPHIE
Textcomp. doc Die Elektrifizierung des Schreibens Daiute, Colette: Writing and Computers. Addison-Wesley, New York NY 1985 Gatzka, Reinhold: 40 Textprogramme unter der Lupe. In: Chip Thema, 1 / März–April 1990, Seite 138–164 Gernhardt, Robert: Herr Gernhardt, warum schreiben Sie Gedichte? – Das ist eine lange Geschichte. In: Gedanken zum Gedicht. Haffmans, Zürich 1990 Greenfield, Patricia Marks: Mind and Media – The Effects of Television, Video Games, and Computers. Harvard University Press, Cambridge, MA 1984 Hahn, Ulla: Antwort auf Umfrage »Das Ende der Langsamkeit«. In: Zeitmagazin, 12/16. März 1990, Seite 109 Heidegger, Martin: Parmenides (Vorlesung Wintersemester 1942/43). In: Gesamtausgabe, II. Abteilung, Band 54. Klostermann, Frankfurt 1982 Heim, Michael: Electric Language – A Philosophical Study of Word Processing. Yale University Press, New Haven, CT 1987 Kittler, Friedrich: Grammophon Film Typewriter. Verlag Brinkmann & Böse, Berlin 1986 McCorduck, Pamela: The Universal Machine – Confessions of a Technological Optimist. McGraw-Hill, New York, NY 1985. Deutsch: Denkmaschinen – 337
Die Geschichte der künstlichen Intelligenz. Markt & Technik, München 1987 McWilliams, Peter: The Word Processing Book. Prelude Press, Los Angeles 1982. Deutsch: Textverarbeitung für Einsteiger. Rowohlt Taschenbuch Verlag, Reinbek 1984 Mills, Carol Bergfeld / Linda J. Weldon: Reading Text From Computer Screens. [Typoskript, 1987] Riehm, Ulrich / Manfred Loeben: Elektronisches Publizieren – Ergebnisse einer Befragung bei deutschen Fachautoren und Fachverlagen. Projekt Elektronisches Publizieren (PEP), Kernforschungszentrum Karlsruhe (Abteilung für Angewandte Systemanalyse) / Gesellschaft für Mathematik und Datenverarbeitung Darmstadt / Institut für Integrierte Publikations- und Informationssysteme. [Typoskript, 12. April 1988] Searle, John R.: Ist der menschliche Geist ein Computerprogramm? In: Spektrum der Wissenschaft, 3/ März 1990, Seite 40–47 Sillescu, Daniel: WYSIWYG … und was sich dahinter verbirgt. In: DOS International, 4(1)/Januar 1990, Seite 64–69 Turkle, Sherry: The Second Self- Computers and the Human Spirit. Simon and Schuster, New York, NY 1984. Deutsch: Die Wunschmaschine – Der Computer als zweites Ich. Rowohlt, Reinbek 1984; Rowohlt Taschenbuch, Reinbek 1986 Zimmer, Dieter E.: Die Elektrifizierung des Schreibens. In: Die Zeit, 28/ 8.7.1988, Seite 33–34 338
Wie viele Wörter hat der Mensch? Das innere Lexikon Augst, Gerhard/Andrea Bauer/Annette Stein: Grundwortschatz und Ideolekt – Empirische Untersuchungen zur semantischen und lexikalischen Struktur des kindlichen Wortschatzes. Niemeyer, Tübingen 1977 Baldegger, Markus/Martin Müller/Günther Schneider: Kontaktschwelle Deutsch als Fremdsprache. Europarat Rat für kulturelle Zusammenarbeit/Langenscheidt, Berlin 1980 Deutscher Volkshochschul-Verband/Goethe-Institut: Das Zertifikat Deutsch als Fremdsprache. Deutscher Volkshochschul-Verband,Bonn 1977 Erben, Johannes: Deutsche Grammatik. Hueber, München 1972 Fischer, Paul: »Goethe-Wortschatz«. Rohmkopf, Leipzig 1929 Füger, Wilhelm: Concordance to James Joyce’s Dubliners. Olms, Hildesheim 1980 Galinski, Christian: Stellung und Aufgaben der Übersetzerorientierten Terminographie. Vortrag vor dem Ersten Deutschen Terminologie-Tag, Köln, 27728.11.1986 Galinski, Christian: Terminologie 1990. In: Fakten, Daten, Zitate, 9(1)/ 1989, Seite 6–7 »Goethe-Wörterbuch«. Kohlhammer, Stuttgart 1978 ff. Goldsmith, Ulrich K./Thomas Schneider/Samuel S. Coleman: Rainer Maria Rilke – A Verse Concordance 339
to his Complete Lyrical Poetry. Mahey and Sons, Leeds 1980 Gottschalk, Günther: Hesse Lyrik Konkordanz. Säur, München 1987 Hockey, Susan: A Guide to Computer Applications in the Humanities. Johns Hopkins University Press, Baltimore, MD 1980 Imbs, Paul: Trésor de la langue française. Centre National de la Recherche Scientifique, Paris 1971 ff. Irey, Eugene F.: Concordance to Herman Melville’s Moby-Dick, 2 Bände. Garland, New York NY 1982 Kaeding, Friedrich Wilhelm: Häufigkeitswörterbuch der deutschen Sprache. Steglitz 1898 Kolers, Paul A.: Bilingualism and Information Processing. In: Scientific American, 218(3)/März 1968, Seite 78–86 Kühn, Peter: Der Grundwortschatz – Bestimmung und Systematisierung. Niemeyer, Tübingen 1979 Lyon, James K./Craig Inglis: Konkordanz zur Lyrik Gottfried Benns. Olms, Hildesheim 1971 Meier, Helmut: Deutsche Sprachstatistik, Band 1 und 2. Olms, Hildesheim 21907 Neubert, Gunter u. a.: Das deutsche Fachwort der Technik. VEB Verlag Enzyklopädie, Leipzig 1984 Oehler, Heinz/Carl Heupel: Grundwortschatz Deutsch Essential German Aleman fundamental. Klett, Stuttgart 1968 ff. Ogden, C. K.: Basic English – International Second Language. Harcourt, Brace & World, New York, NY I0 1968 340
Pfeffer, J. Alan: Grunddeutsch. Narr, Tübingen 1978 Procksch, August: Der Wortschatz Theodor Storms. In: Germanisch-Romanische Monatsschrift, 6/1914, Seite 532–562 Rosengren, Inger: Ein Frequenzwörterbuch der deutschen Zeitungssprache, 2 Bände. Gleerup, Lund (Schweden) 1972 Schmidt, Arno: Sitara und der Weg dorthin. Stahlberg, Karlsruhe 1963 Spevack, Marvin: A Complete and Systematic Concordance to the Works of Shakespeare, 9 Bände. Olms, Hildesheim 1968–1980 Steppe, Wolfhard/Hans Werner Gabler: A Handlist to James Joyce’s Ulysses. Garland, New York NY 1985 Stötzel, Georg: Grunddeutsch (Basic German). In: Linguistik und Didaktik, 1(3)/197o, Seite 195–204 Tarnoczi, Lorant: Wortbestand, Wortschatz, Wortfrequenz. In: IRAL (International Review of Applied Linguistics in Language Teaching), 9/1971, Seite 297– 318 Wetzel, Heinz: Konkordanz zu den Dichtungen Georg Trakls. Müller, Salzburg 1971 Zimmer, Dieter E.: Weißt Du, wieviel Wörtlein. In: Die Zeit, 45/ 4.11.1988, Seite 73, 75
341
Blos Tipppfehler Der Computer als Orthographie-Experte Glunk, Fritz R.: Schwere, deutsche Sprache. In: Chip Thema, 1/1990, Seite 54–58 Müller-Scholz, Wolfgang: Wortschatz. In: Capital, 11/1989, Seite 267–270
Rechte Schreibung Die geplante Reform der deutschen Orthographie Auch bei 20 Fehlern eine Eins im Aufsatz? – Kultusminister Georg Gölter (CDU) über die Rechtschreibung, ihre Reform und ihren Stellenwert in der Schule. In: Der Spiegel, 24/1984, Seite 156–163 Augst, Gerhard/Hiltraud Strunk: Wie der Rechtschreibduden quasi amtlich wurde. In: Muttersprache, 98/1988, Seite 329–344 Augst, Gerhard: Werden wir demnächst Keiser statt Kaiser schreiben? In: Frankfurter Allgemeine Zeitung, 19.7.1988 Foss, Donald J./David T. Hakes: Psycholinguistics. Prentice-Hall, Englewood Cliffs, NJ 1978 Gfroerer, Stefan/Hartmut Günther/Michael Bock: Augenbewegungen und Substantivgroßschreibung. Typoskript, Max-Planck-Institut für Psycholinguistik, Nijmegen 1988 Glinz, Hans/Burkhard Schaeder/Hermann Zabel: Spra342
che – Schrift – Rechtschreibung. Pädagogischer Verlag Schwann-Bagel, Düsseldorf 1987 Gross, Johannes: Die Zukunft des Prinzen von Wales. In: Frankfurter Allgemeine Magazin, 23.12.1988 Hoffmann, Ludger: »… hinter Schloß und Riegel setzen!« – Zur öffentlichen Diskussion um den Vorschlag zur Neuregelung der deutschen Rechtschreibung. In: Sprachreport, 4/1988, Seite 1–3 LaBerge, D./S. J. Samuels: Toward a theory of automatic information processing in reading. In: Cognitive Psychology, 6/1974, Seite 293–323 Mentrup, Wolfgang: Die »Kommission für Rechtschreibfragen« des Instituts für deutsche Sprache 1977 bis 1984. In: Die Rechtschreibung des Deutschen und ihre Neuregelung, herausgegeben von der Kommission für Rechtschreibfragen des Instituts für deutsche Sprache, Mannheim. Pädagogischer Verlag Schwann-Bagel, Düsseldorf 1985, Seite 9–48 Mentrup, Wofgang: Bemühungen um eine Neuregelung der deutschen Rechtschreibung – Kulturbruch oder Beitrag zur Sprachpflege? (Typoskript, Mannheim 1989) Nerius, Dieter, u. a.: Deutsche Orthographie. VEB Bibliographisches Institut, Leipzig 1989 Unterstöger, Hermann: Mission leicht gebremst – In der Rechtschreibreform folgt auf die stürmische nun die amtliche Phase. In: Süddeutsche Zeitung, 13.5.1989 Weinrich, Harald: Brauchen wir eine Rechtschreibreform? In: Frankfurter Allgemeine Zeitung, 7.1.1989 343
Zimmer, Dieter E.: Die Rechtschreibung … In: Die Zeit, 45/ 3.11.1989, Seite 17–20 Zur Neuregelung der deutschen Rechtschreibung, herausgegeben von der Kommission für Rechtschreibfragen des Instituts für deutsche Sprache, Mannheim. Pädagogischer Verlag Schwann-Bagel, Düsseldorf 1989
Ein A ist kein A ist kein A Die Maschine als Leserin Atrubin, Allan J.: Character Recognition Systems. In: Jack Beizer/ Albert G. Holzman/Allen Kent (Hrsg.): Encyclopedia of Computer Science and Technology, Dekker, New York, NY 1976, Band 4, Seite 421–437 Brügelmann, Hans: LIES – Wortbildjäger oder Buchstabensammler? In: betrifft: erziehung, 16(12)/1983, Seite 22–29 Deacon, Terrence W.: Holism and Associationism in Neuropsychology – An Anatomical Synthesis. In: Ellen Perecman (Hrsg.): Integrating Theory and Practice in Clinical Neurophsychology. Erlbaum, Hillsdale, NJ 1989 Hofstadter, Douglas R.: Metamagical Themas – Questing for the Essence of Mind and Pattern. Basic Books, New York, NY 1985. Deutsch: Metamagicum – Fragen nach der Essenz von Geist und Struktur. Klett-Cotta, Stuttgart 1988 Kanal, Laveen N.: Character Recognition. In: McGraw344
Hill Encyclopedia of Science & Technology. McGraw-Hill, New York, NY6i987, Band 3, Seite 438– 442 Kasten, Udo/Eckart Steffens: Irren ist (nicht nur) mänschlich – OCR-Software im Vergleich. In: c’t, 4/1990, Seite 196–213 McConkie, George W.: Eye movements and perception during reading. Technical Report 229, Center for the Study of Reading, Urbana-Champaign, IL 1982 Matlin, Margaret W.: Sensation and Perception. Allyn and Bacon, Boston, MA 21988 Nelson, Ruth: The First Literate Computers? In: Psychology Today, März 1978, Seite 73–80 Scheerer-Neumann, Gerheid: Wortspezifisch: ja – Wortbild: nein. In: Hans Brügelmann (Hrsg.): ABC und Schriftsprache. Faude, Konstanz 1986, Seite 171– 185 Scheerer-Neumann, Gerheid: Experimentelle Leseforschung – Was gibt’s Neues? In: Heiko Balhorn/Hans Brügelmann (Hrsg.): Jeder spricht anders. Faude, Konstanz 1989, Seite 220–228 Schürmann, Jürgen: Schriftzeichenerkennung und maschinelles Lesen. In: Handbuch der modernen Datenverarbeitung (HMD). Forkel, Wiesbaden, 115/1984, Seite 23–41 Zeidenberg, Matthew: Modeling the Brain. In: Byte, 12(14)/Dezember 1987, Seite 237–246 Zimmer, Dieter E.: Im Dickicht der Wörter. In: Zeitmagazin, 12/16.3.1990, Seite 80–89
345
Sprache, ein Schwingungsgebirge Die Maschine als Stenotypistin Baker, Janet M.: DragonDictate-30K – Natural Language Speech Recognition with 30 000 Words. In: Proceedings of EUROSPEECH ’89, Paris, September 1989, Band 2, Seite 161–163 Billi, R. / G. Arman / D. Cericola / G. Massia / MJ. Mollo / F. Tafini / G. Varese / V. Vittorelli: A PCBased Very Large Vocabulary Isolated Word Speech Recognition System. In: Proceedings of EUROSPEECH ’89, Paris, September 1989, Band 2, Seite 157–160 Hendrix, Gary G./Brett A. Walter: The Intelligent Assistant. In: Byte, 12(14)/Dezember 1987, Seite 251–258 Kurzweil, Raymond: Beyond Pattern Recognition. In: Byte, 14(13)/1989, Seite 277–288 Lane, Alex: DOS in English. In: Byte, 12(14)/Dezember 1987, Seite 261–264 Lea, Wayne A.: Speech recognition. In: McGraw-Hill Encyclopedia of Science & Technology. McGrawHill, New York, NY 1987, Band 17, Seite 231–237 Lee, Kai-Fu: Automatic Speech Recognition – The Development of the SPHINX System. Kluwer, Boston, MA 1989 Niedermair, Gerhard Th.: Datenbankdialog in gesprochener Sprache – Linguistische Analyse in SPICOS II. In: Informationstechnik, 6(31)/ 1989, Seite 382–391 Obermeier, Klaus K.: Natural-Language Processing. In: Byte, 12(14)/Dezember 1987, Seite 225–232 346
Paeseler, Annedore/Volker Steinbiss/Andreas Noll: Phoneme-Based Continuous-Speech Recognition in the SPICOS II System. In: Informationstechnik, 6(31)/1989, Seite 392–399 Ruske, Günther: Automatische Spracherkennung – Methoden der Klassifikation und Merkmalsextraktion. Oldenbourg, München 1988 Turing, Alan M.: Computing Machinery and Intelligence. In: A.R. Anderson (Hrsg.): Minds and machines. Prentice-Hall, Englewood Cliffs, NJ 1964, Seite 4–30 Waibel, Alex/John Hampshire: Building Blocks for Speech. In: Byte, I2(8)/August 1989, Seite 235–242 Weizenbaum, Joseph: Computer Power and Human Reason. Freeman, San Francisco, CA 1976 Zimmer, Dieter E.: Im Dickicht der Wörter. In: Zeitmagazin, 12/ 16.3.1990, Seite 80–89
Aus einem kühlen Grunde Die Maschine als Übersetzerin Bar-Hillel, Yehoshua: Language and Information. Addison-Wesley, Reading, MA 1964 Dreyfus, Hubert L.: What Computers Can’t Do – The Limits of Artificial Intelligence. Harper & Row, New York, NY 21979. Deutsch: Was Computer nicht können – Die Grenzen künstlicher Intelligenz. Athenäum, Königstein 1985
347
Englert, Norbert: Maschinelle Übersetzung – Ein Überblick. Logos, Frankfurt o.J. Heard, Joyce/Leslie Helm u. a.: Machines Are Mastering the Language of Multinational Business. In: Business Week, 16. September 1985 Homer, Jeanne: Improving Machine Translation Quality or Eliminating the »Invisible Idiot«. In: Terminologie et Traduction, 1/1986 (Numero Special: World Systran Conference), Seite 118–137 Kay, Martin: Automatic Translation of Natural Languages. In: Daedalus, 102/Sommer 1973, Seite 217– 230 Kingscott, Geoffrey: Application of Machine Translation. Commission of the European Communities, Luxemburg 1989 Language and Machines – Computers in Translation and Linguistics / A Report by the Automatic Language Processing Advisory Committee (ALPAC-Bericht). National Academy of Sciences (National Research Council). Washington, DC 1966 Lawson, Veronica: Changing Attitudes in the Translation Market. In: Terminologie et Traduction, 1/1986 (Numero Special: World Systran Conference), S. 65–67 Rohrer, Christian: Die Kinderkrankheiten der Maschinellen Übersetzung. In: Computerwoche, 41/6.10.1989 Schneider, Thomas: Übersetzungscomputer sind marktreif. In: Siemens Zeitschrift, 1/1988 Schubert, Klaus: Ausdruckskraft und Regelmäßigkeit 348
– Was Esperanto für automatische Übersetzung geeignet macht. In: Language Problems & Language Planning, 12(2)/1988, Seite 130–147 Slocum, Jonathan: Machine Translation – Its History, Current Status, and Future Prospects. 10th International Conference on Computational Linguistics (Coling 84), 2.–6. Juli 1984, Stanford University, Palo Alto, CA Zimmer, Dieter E.: Die Übersetzungs-Maschine. In: Die Zeit, I 45/ 31.10.1986, Seite 73–74; II 46/7.11.1986, Seite 88–89; III 47/ 14.11.1986, Seite 100–101 Zimmermann, Harald H.: Maschinelle Übersetzung in der Wissensvermittlung. In: etz, io(23/24)/1989, Seite 1252–1256
Mr. Searle im Chinesischen Zimmer Über Computer, Gehirne und Geist Bertalanff y, Ludwig von: The Mind-Body Problem – A New View. In: Psychosomatic Medicine, 26/1964, Seite 29–45 Braitenberg, Valentino: Brains and Computers. In: Kenneth Klivington: The Science of Mind. MIT Press, Cambridge MA 1989, Seite 229–230 Bunge, Mario: The Mind-Body Problem. Pergamon Press, Oxford 1980. Deutsch: Das Leib-Seele-Problem – Ein psychologischer Versuch. Mohr, Tübingen 1984 Changeux, Jean-Pierre: L’homme neuronal. Fayard, Pa349
ris 1983. Deutsch: Der neuronale Mensch. Rowohlt, Reinbek 1984 Churchland, Patricia Smith: Neurophilosophy – Toward a Unified Science of the Mind-Brain. MIT Press, Cambridge, MA 1986 Churchland, Paul M./Patricia Smith Churchland: Künstliche Intelligenz II – Ist eine denkende Maschine möglich? In: Spektrum der Wissenschaft, 3/ März 1990, Seite 47–54 Churchland, Paul M.: Matter and Consciousness – A Contemporary Introduction to the Philosophy of Mind. MIT Press, Cambridge, MA 1984 Dennett, Daniel C: Brainstorms – Philosophical Essays on Mind Psychology. MIT Press, Cambridge, MA 1981 Dreyfus, Hubert L.: What Computers Can’t Do – The Limits of Artificial Intelligence. Harper & Row, New York, NY 21979. Deutsch: Was Computer nicht können – Die Grenzen künstlicher Intelligenz. Athenäum, Königstein 1985 Eccles, Sir John: Evolution of the Brain – Creation of the Self. Routledge, London 1989. Deutsch: Die Evolution des Gehirns – die Erschaff ung des Selbst. Piper, München 1990 Feigl, Herbert: The Mind-Body Problem: Not a Pseudo-Problem. In: Sydney Hook (Hrsg.): Dimensions of Mind. New York University Press, New York NY 1960 Fürst, Charles: Origins of the Mind – Mind-Brain Connections. Prentice-Hall, Englewood Cliffs, NJ 1979 350
Gierer, Alfred: Die Physik, das Leben und die Seele. Piper, München 1985 Gray, Jeffrey: The Mind-Brain Identity Theory as a Scientific Hypothesis: A Second Look. In: Colin Blakemoore/Susan Greenfield (Hrsg.): Mindwaves. Blackwell, Oxfort 1987 Harnad, Stevan: Minds, Machines and Searle. In: Journal of Experimental and Theoretical Artificial Intelligence, 1(1)/1989, Seite 5–25 Haugeland, John: Artificial Intelligence – The Very Idea. MIT Press, Cambridge, MA 1985 Hofstadter, Douglas R./Daniel C. Dennett (Hrsg): The Mind’s I – Fantasies and Reflections on Self and Soul. Basic Books, New York, NY 1981 Minsky, Marvin: The Society of Mind. Simon & Schuster, New York, NY 1985. Deutsch: Mentopolis. KlettCotta, Stuttgart 1990 Moravec, Hans: Künstliche Intelligenz – Der Mensch als Maschine. In: Zeitmagazin, 12/16. April 1990, Seite 28–34 Place, Ullian T.: Is consciousness a brain process? In: British Journal of Psychology, 47/1956, Seite 44–51 Pribram, Karl: Consciousness and neurophysiology. In: Federation Proceedings, 37(9)/1978, Seite 2271–2274 Schank, Roger C./R.P. Abelson: Scripts, plans, goals, and understanding. Erlbaum, Hillsdale, NJ 1977 Searle, John R.: Minds, brains, and programs. In: Behavorial and Brain Sciences, 3/1980, Seite 417–457 [mit Diskussionsbeiträgen]
351
Searle, John: Minds, Brains and Science. Harvard University Press, Cambridge MA 1984 Searle, John R.: Künstliche Intelligenz I – Ist der menschliche Geist ein Computerprogramm? In: Spektrum der Wissenschaft, 3/März 1990, Seite 40– 47 Searle, John R.: Consciousness, Explanatory Inversion and Cognitive Science. In: Behavorial and Brain Sciences [1990; in Vorbereitung] Sperry, Roger W.: Mental Phenomena as Causal Determinants in Brain Function. In: Gordon G. Globus/Grover Maxwell/Irwin Savodnik (Hrsg.): Consciousness and the Brain – A Scientific and Philosophical Inquiry. Plenum Press, New York, NY 1976 Turing, Alan M.: Computing Machinery and Intelligence. In: A.R. Anderson (Hrsg.): Minds and Machines. Prentice-Hall, Englewood Cliffs, NJ 1964, Seite 4–30 Weizenbaum, Joseph: Künstliche Intelligenz – Absurde Pläne. In: Zeitmagazin, 12/16. April 1990, Seite 38–41 Zimmer, Dieter E.: Deus in machina. In: Die Zeit, 22/25. Mai 1990, Seite 54 Zimmer, Dieter E.: Wie kommt der Geist in den Kopf. In: Die Zeit, 29/13. Juli 1990, Seite 42
REGISTER Seitenzahlen gelten für die Druckausgabe Adenauer, Konrad 55 AccuText 145 AI (Artificial Intelligence) 203– 237 Algorithmus 27, 39–40, 125, 177 ALPAC-Bericht 171–172, 190, 194 Altair 8800 16 Amiga 17, 19 Anapher 45, 160, 182–183 Apple II 16 ASCII 123–124 ASR (Automatic Speech Recognition) 152–167 Atari ST 17, 19 ATLAS II 194 Auflösung 122, 153 Augst, Gerhard 65 Augur 145 AutoREAD 144 Autoren 25–27, 32–33, 39–47, 72–74 Bar-Hillel, Yehoshua 188–189 Basic English 61 Behaviorismus 206, 214 Benn, Gottfried 74 Bewußtsein 229–237 Bitmap 122, 124, 128, 216 Blindsehen 233 Brentano, Franz 212 »Brockhaus Wahrig« 56–57, 65 Brügelmann, Hans 140 Buchstaben 124–128
Bundessprachenamt 58 Bunge, Mario 225–226 Cabrera Infante, Guillermo 72 Carlos 80, 82 Cattell, J. M. 137 CETA 192 CD-ROM 40, 58 Churchland, Paul 206, 210 Coltheart, Max 138 Commodore 17, 19 Computer und Geist 203–237 Cray-1, Cray Y-MP/382 15 CULT 172 Deacon, Terrence W. 141 Dekomposition, rekursive 236 Dennett, Daniel 212, 230, 235 Descartes, Rene 219–220, 232 Dickte 128 Disambiguierung 122, 153– 154, 178, 182–183, 185, 190 Discover 146–147 Discover Freedom 386 144 Dittmer, Ernst 109 Doderer, Heimito von 41 Dosdrowski, Günther 96 DOS-MAN 234 DragonDictate 166 Dreyfus, Hubert 209 DTL (Distributed Language Translation) 187–188 DTP (Desktop Publishing Program) 29 Dualismus 219–229, 236
353
Duden, Konrad 94 »Duden« 80, 86, 90, 91, 94–102, 112, 113 –114, 115 »Duden Wörterbuch« 56–57
Günther, Hartmut 111 GVR (Gerdes Voice Recognition) 163 Hahn, Ulla 25–26 Haugeland, John 235 Heidegger, Martin 37–38 Heim, Michael 38–39 Hesse, Hermann 74 Hilfssprachen 61 Hofstadter, Douglas 125, 205, 210 –211 Homecomputer 14, 18 Homonyme 56 Homunculus 231 Hurenkind 29 Hypertext 241–253
Eccles, John C. 224 Eco, Umberto 45 EG (Europäische Gemeinschaft) 175–176, 186, 194 ELIZA 159 Emergenz 210–211, 226, 236 ENGSPAN 172 ENIAC 14–15 Esperanto 61, 176, 187–188 Euroscript (XyWrite) 30, 80 EUROTRA 186–188 Flexem 62, 79, 156 Formanalyse 130–131 Fremdwörter 101 –104 Funktionswörter 67–68 Galinski, Christian 58 Ganzheitsmethode 138 Gehirn 133–134, 210, 213, 216– 230, 233, 237 Gernhardt, Robert 24 Gesellschaft für deutsche Sprache (GdS) 96, 108 GETA 192 Getrenntschreibung 99–101 Goethe, Johann Wolfgang von 55, 73, 91 Goethe-Institut 66 Grammatik (Programm) 85 Gross, Johannes 112 –113 Großcomputer 14 Großschreibung 108–111, 116 Grundwortschatz 60–61, 62, 65
IBM 3090 15 Image-In Read 144 INFOTERM 58 Inhaltswörter 67, 74, 110 Institut für deutsche Sprache (IdS) 96 Intelligenz 215, 229 Intensionalität 211–214, 235 Interlingua 186–188 Interpunktion 97–98 Introspektion 220–222, 233 Joyce, James 73 Kaeding, Friedrich Wilhelm 67 Kafka, Franz 73 Kittler, Friedrich 23, 33–38 Kleinschreibung 108 –111, 116 Kognitionspsychologie 215, 231–232, 235, 236
354
Kolers, Paul A. 71 Konkordanz 62, 73 Kontrollbefehle 35–36 Korre Ktur 24, 27–28, 44–46 Kubric K, Stanley 151 Kultusministerkonferenz 96– 97, 106, 108, 111–112 Künstliche Intelligenz (KI) 203–237 Kurzweil, Ray 147, 159, 161 Kusterer, Hermann 176
Minsky, Marvin 151 Mips 14–15 Monismus 219–229 Moravec, Hans 228 Morphem 58–59, 80, 179 morphologische Analyse 179, 198 MS-DOS 17 MS-Word 30, 80 Mustererkennung 139, 152 Mustervergleich 123, 124, 128, 130, 139
LC-TOP 200 Lee, Kai-Fu 157 Lesen 110, 135–143, 204 Lexem 62, 73, 78–80, 156 LEXIS 58 LOGOS 194–196
Nabokov, Vladimir 41, 72 Nerius, Dieter 94 Nester 57 Neubert, Gunter 59 Neuron 133–134, 210, 213, 217– 218, 236 Neuronale Netze 133–135
Macintosh 17, 29 Mackensen, Lutz 95 McConkie, George 140 Mainframe 14 Maschinenübersetzung 171– 200 Materialismus, eliminativer und reduktiver 225 Max-Planck-Institut für Psycholinguistik 110 Mehrdeutigkeit 122, 153–154, 178, 182–183, 185, 190 Melville, Herman 73 METAL 60, 79, 189, 197–199 MICR (Magnetic Ink Character Recognition) 129 Mikrocomputer 13–19 Minicomputer 14 M(ega)flops 14–15
OCR (Optical Character Recognition) 121 –147, 152 OCR-A, OCR-B 126, 129 Ogden, C. K. 61 Omnifont 145 OmniPage 145 Orthographie 89–114 Orthographiekontrolle 77–86 Parsen 85, 179 PET 16 PC (Personal Computer) 15, 16–19 Personal Reader 146 Pfeffer, J. Alan 60 Phonem 155, 161 Phrase Marker 180–181 Physikalismus 225, 228
355
Pigott, Ian 199 Piwitt, Hermann Peter 25 Pixel 121 –122 Place, Ullian T. 227 Plato 220 Polysemie 57, 189, 193 Popper, Sir Karl 224 Pragmatik 160, 185 Primus 80, 82, 85 ReadStar 145 Rechtschreibprofi 84 Rechtschreibung 27–28, 77, 89–114 Rechtschreibreform 90–114 Rechtschreibungskontrolle 77–86 Recognita Plus 145 Reduktionismus 226, 227, 229 regelgeleitetes Lexikon 80–82 Register 28–29 Reim 71 Right 83 Rilke, Rainer Maria 74 Roberts, Ed 16 Rohrer, Christian 196–197
Schrift (zeichen) erkennung (OCR) 121–147 Schubert, Klaus 188 Searle, John R. 37, 203–213, 226, 231–232, 235 Semantik 184–185, 208–209, 213 Shakespeare, William 73 Siebs, Theodor 91 Skript 207 SPANAM 172 Spellingchecker 30, 66–67, 77–86 SPHINX 157 SPICOS 159–160 Sprachausgabe 161 Spracherkennung 151–167 Sprachgedächtnis 70–72 Sprachlaute 154–155 SPRING 158 Storm, Theodor 73 Strukturbaum 180–181 Sumer 23 Syntax 157–158, 179–184, 198, 208, 212–213 SYSTRAN 172, 184, 190, 194– 195
Sakkade 110, 136 SAM 206–207 SAMT 161 Say and See 163 Scanner 121 –122, 144 Schank, Roger 206 Scheerer-Neumann, Gerheid 138 Schiller, Friedrich 41 Schmidt, Arno 41, 71–72 Schneider, Thomas 191
TANGORA 158–159 TAUM-METEO 172, 196 TEAM 58 template matching 123 Terminologie 57–58, 196, 198– 199 TextPert 145 TextPert Windows 145 Textverarbeitung 23–52 Tippfehler 27–28, 67 TITUS 189, 192–193
356
Toma, Peter 172 Trennfehler 27, 98–99 Turing-Test 205–206, 208 Turkle, Sherry 31–32 Typographie 51 Übersetzung 171–200 Unterspezifizierung der Sprache 182 Vax 15 VoiceEM, VoicePATH, VoiceRAD 167 Voice Master Key 162 VCU (Voice Recognition Unit) 163 VoiceLink 162 Volkshochschulverband 66 Vollformenlexikon 79–82 »Wahrig« 65 Weaver, Warren 171
»Webster« 59 Weizenbaum, Joseph 159, 227– 228 Weltwissen 143, 177–178, 185, 189–190 Witkam, Toon 187 WordPerfect 80 Wordstar 35, 80 Wortbildtheorie 138 Wörterbücher 56–57, 63, 80, 199–200 Wortschatz 55–74, 156 Wortschreibung 104–108 Worttrennung 27, 98–99 WYSIWYG 49–50 Zeichensetzung 97–98 Zimmermann, Harald H. 190– 191, 199 Zwischensprache 186–188 Zusammenschreibung 99–101