LAWRENCE M. KRAUSS
DIE PHYSIK VON STAR TREK™ Sachbuch Mit einem Vorwort von STEPHEN HAWKING
Aus dem Amerikanischen üb...
132 downloads
1533 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
LAWRENCE M. KRAUSS
DIE PHYSIK VON STAR TREK™ Sachbuch Mit einem Vorwort von STEPHEN HAWKING
Aus dem Amerikanischen übersetzt von ANDREAS BRANDHORST Herausgegeben von WOLFGANG JESCHKE in Zusammenarbeit mit ROLF REMMERS
Deutsche Erstausgabe
WILHELM HEYNE VERLAG MÜNCHEN
HEYNE SCIENCE FICTION & FANTASY Band 0605549
Titel der amerikanischen Originalausgabe THE PHYSICS OF STAR TREK Deutsche Übersetzung von Andreas Brandhorst Den Umschlag entwarf Roberto de Vico de Cumpich unter Verwendung eines Fotos von Geoff Spear Autorenfoto von Roger Mastroianni
3. Auflage Redaktion: Wolfgang Jeschke und Rainer Michael Rahn Wissenschaftliche Beratung: Rolf Remmers Copyright © 1995 by Lawrence M. Krauss Erstveröffentlichung by BasicBooks. A Division of HarperCollinsPuWisiers, Inc. New York Mit freundlicher Genehmigung des Autors und Paul und Peter Fritz, Literarische Agentur, Zürich Copyright © 1996 der deutschen Ausgabe und der Übersetzung by Wilhelm Heyne Verlag GmbH & Co. KG, München Printed in Germany 1997 Umschlaggestaltung: Atelier Ingrid Schütz, München Technische Betreuung: M. Spinola Satz: Schaber Satz- und Datentechnik, Wels Druck und Bindung: Ebner Ulm ISBN 3-453-10981-3
Für meine Familie
»Aber die Gesetze der Physik kann ich nicht ändern, Captain!« Scotty zu Kirk, unzählige Male
Inhalt Vorwort von Stephen Hawking Einleitung Einleitung
SEKTION EINS Ein kosmisches Pokerspiel Die Physik von Trägheitsabsorbern und Traktorstrahlen ebnet den Weg für Zeitreise, Warpgeschwindigkeit, Deflektorschilde, Wurmlöcher und andere Phänomene der Raumzeit. EINS ZWEI DREI VIER
Newton setzt Einstein erhöht Hawking deckt auf Data beendet das Spiel
SEKTION ZWEI Materie, Materie – überall Der Leser erforscht Transporterstrahlen, Warptriebwerke, Dilithiumkristalle, Materie-Antimaterie-Wandler und das Holodeck. FÜNF Atome oder Bits SECHS Wieviel kostet die Energie? SIEBEN Holodecks und Hologramme
SEKTION DREI Das unsichtbare Universum, oder: Geräusche im Dunkeln Hier sprechen wir von Dingen, die vielleicht existieren, aber noch nicht beobachtet wurden: extraterrestrisches Leben, multiple Dimensionen sowie ein exotischer Zoo aus anderen physikalischen Möglichkeiten und Unmöglichkeiten.
ACHT Die Suche nach Spock NEUN Die Menagerie der Möglichkeiten ZEHN Unmögliches: Das nicht zu entdeckende Land Epilog Danksagung
Vorwort von STEPHEN HAWKING Ich war sehr erfreut, als Data entschied, Newton, Einstein und mich zu einer Pokerpartie an Bord der Enterprise einzuladen. Dadurch fand ich Gelegenheit, mit zwei berühmten Gravitationsspezialisten die Klingen zu kreuzen. Das gilt insbesondere für Einstein, der weder an den Zufall noch an einen würfelnden Gott glaubte. Leider konnte ich meinen Gewinn nicht einstreichen, da das Spiel unterbrochen wurde, als der Captain Alarmstufe Rot veranlaßte. Nachher habe ich mich mit Paramount in Verbindung gesetzt, um die Chips einzulösen. Unglücklicherweise kannte niemand den Wechselkurs. Science Fiction wie Star Trek ist nicht nur Unterhaltung, sondern erfüllt auch einen >ernsten< Zweck: Sie erweitert die menschliche Vorstellungskraft. Wir sind noch nicht imstande, dorthin zu gehen, wo noch kein Mensch (oder gar niemand) gewesen ist, aber wenigstens sind unserer Phantasie keine Grenzen gesetzt. Wir können untersuchen, wie der menschliche Geist auf zukünftige Entwicklungen in der Wissenschaft reagieren wird. Und wir können auch über die Natur jener Entwicklungen spekulieren. Die Verbindung zwischen Science Fiction und Wissenschaft führt in beide Richtungen. Die von der Science Fiction präsentierten Ideen gehen ab und zu in wissenschaftliche Theorien ein. Und manchmal bringt die Wissenschaft Konzepte hervor, die noch seltsamer sind als die exotischste Science Fiction. Schwarze Löcher sind ein gutes Beispiel dafür - was nicht zuletzt dem guten Namen zu verdanken ist, den ihnen der Physiker John Archibald Wheeler gab. Hätte man sie auch weiterhin >gefrorene Sterne< oder >gravitationell völlig kollabierte Objekte< genannt, so wäre nicht halb soviel über sie geschrieben worden. In Star Trek und der übrigen Science Fiction geht es häufig um Reisen mit Überlichtgeschwindigkeit. In der allgemeinen Dramaturgie von Star Trek spielt dieser Umstand eine sehr wichtige Rolle. Wenn die Enterprise nicht in der Lage wäre, schneller zu fliegen als das Licht, so müßte ihre Besatzung folgendes feststellen: Ein Ausflug zum Zentrum der Galaxis und zurück würde für sie nur wenige Jahre dauern, doch auf der Erde vergingen achtzigtausend Jahre. Hoffnungen auf eine Rückkehr zur Familie müßten vergeblich bleiben! Glücklicherweise bietet Einsteins Relativitätstheorie eine Möglichkeit, dieses Problem zu umgehen: Vielleicht läßt sich die Raumzeit verzerren, um gewissermaßen eine Abkürzung zwischen zwei Orten zu schaffen. Zwar gibt es Schwierigkeiten mit negativer Energie, doch irgendwann in der Zukunft könnten wir fähig sein, derartige künstliche Krümmungen der Raumzeit herbeizuführen. In dieser Hinsicht findet nur wenig ernsthafte Forschung statt, vermutlich deshalb, weil es zu sehr nach Science Fiction klingt. Eine Konsequenz von interstellaren Reisen mit hoher Geschwindigkeit bestünde darin, daß man in der Zeit zurückkehren könnte. Man stelle sich die Empörung über eine vermeintliche Vergeudung von Steuergeldern vor, wenn bekannt würde, daß die National Science Foundation
Forschungen in bezug auf Zeitreisen finanziert. Aus diesem Grund tarnen damit beschäftigte Wissenschaftler ihre tatsächlichen Interessen, indem sie von geschlossenen zeitartigen Kurven< und dergleichen sprechen. Gemeint sind Reisen durch die Zeit. Wie dem auch sei: Die Science Fiction von heute wird oft zu den wissenschaftlichen Fakten von morgen. Die Physik, auf der Star Trek basiert, ist sicher eine Untersuchung wert. Unsere Aufmerksamkeit auf irdische Dinge zu beschränken - das würde bedeuten, dem menschlichen Geist Fesseln anzulegen.
Einleitung Warum die Physik von Star Trek? Schließlich ist Gene Roddenberrys Schöpfung Science Fiction und erhebt keinen Anspruch auf wissenschaftliche Exaktheit. Viele technische Wunder in der Serie basieren auf Einfällen, die nicht klar definiert sind oder sich kaum mit unserem aktuellen Wissen vom Universum vereinbaren lassen. Ich wollte kein Buch schreiben, das nur angibt, wo den Autoren von Star Trek Fehler unterlaufen sind. Andererseits ging mir die Idee zu diesem Buch nicht aus dem Kopf. Ich muß zugeben, daß der größte Reiz vom Transporter (Materietransmitter) ausging. Die Erfindung einer derartigen fiktiven Technik bringt enorme Herausforderungen mit sich. Viele wichtige Fachgebiete sind daran beteiligt: von Computern und den Datenautobahnen bis hin zu Teilchenphysik, Quantenmechanik, Atomenergie, Teleskopbau, biologischer Komplexität und sogar zur Frage, ob die menschliche Seele existiert! Man bringe diese Dinge mit verzerrtem Raum und Zeitreise in Verbindung - dann entsteht eine unwiderstehliche Mischung. Bald stellte ich mich folgender Erkenntnis: Jenes Etwas, das mich so sehr faszinierte, bringt auch heute noch Fans zu Star Trek, fast dreißig Jahre nach Captain Kirks ersten TV-Abenteuern. Der allmächtige Star Trek-Schelm Q drückte es folgendermaßen aus: Es geht darum, »die unbekannten Möglichkeiten der Existenz zu kartographieren«. Und Q würde mir sicher zustimmen, wenn ich sage: Es macht Spaß, sie sich vorzustellen. Stephen Hawking weist in seinem Vorwort zu diesem Buch darauf hin, daß Star Trek hilft, die menschliche Vorstellungskraft zu erweitern. Tatsächlich ist es ein wichtiger Bestandteil des Phänomens Star Trek, die unendlichen Möglichkeiten der Zukunft zu erforschen - darunter auch eine Welt, in der die Menschen ihre kurzsichtigen internationalen und kulturellen Spannungen überwinden, um sich friedlich den Geheimnissen des Universums zu widmen. Genau auf diesen Aspekt konzentriere ich mich hier, da ich ihn auch bei der modernen Physik für wesentlich halte. Als ich neulich über den Campus ging, habe ich die Gelegenheit zu einer kleinen Umfrage genutzt. Das Ergebnis sieht so aus: Die Anzahl der Amerikaner, die nichts mit dem Satz »Beamen Sie mich an Bord, Scotty« anfangen können, ist ungefähr genauso groß wie die Mitgliederzahl der kleinen Gruppe, die noch nie etwas von Ketchup gehört hat. Um ein weiteres Beispiel zu nennen: Das Smithsonian-Institut veranstaltete im Air and Space Museum eine Ausstellung, die dem Raumschiff Enterprise galt - nie zuvor kamen so viele Besucher. Ganz offensichtlich dient Star Trek bei vielen Leuten als Vehikel für ihre Neugier aufs Universum. Welchen besseren Kontext gibt es für einige besonders erstaunliche Ideen, die heute zum Neuland der Physik gehören und morgen das Fundament für ganz neue Erkenntnisse bilden könnten? Ich hoffe, Ihnen macht die Entdeckungsreise ebensoviel Spaß wie mir. Glück und langes Leben.
SEKTION EINS
Ein kosmisches Pokerspiel
Die Physik von Trägheitsabsorbern und Traktorstrahlen ebnet den Weg für Zeitreise, Warpgeschwindigkeit, Deflektorschilde, Wurmlöcher und andere Phänomene der Raumzeit.
EINS
Newton setzt »Ganz gleich, wohin du auch gehst - du bist schon da.« Eine Tafel an Bord der Excelsior, in STAR TREK VI: Das unentdeckte Land; vermutlich aus The Adventures of Buckaroo Banzai Sie sitzen an den Navigationskontrollen der Defiant (NCC-1764), die sich derzeit im Orbit des Planeten Ikonia befindet, unweit der Neutralen Zone. Ihre Aufgabe: Sie sollen auf der gegenüberliegenden Seite des Sonnensystems ein Rendezvousmanöver mit einem Versorgungsschiff durchführen, das Ersatzteile für die primären Energiespulen des Transporters bringt. Ein Warptransfer ist nicht notwendig. Das Impulstriebwerk genügt völlig, um gemütlich mit halber Lichtgeschwindigkeit zu fliegen und das Ziel in einigen Stunden zu erreichen. Dadurch haben Sie Zeit genug, das Logbuch auf den neuesten Stand zu bringen. Doch als die Defiant aus der Umlaufbahn schwenkt, fühlen Sie plötzlich einen starken Druck in der Brust. Ihre Hände sind schwer wie Blei, und Sie scheinen an Ihrem Sitz festzukleben. Das Gesicht ist zu einer Grimasse verzerrt, und die Augen scheinen platzen zu wollen. Das durch Ihre Adern fließende Blut erreicht nicht mehr den Kopf. Sie verlieren das Bewußtsein - und kurze Zeit später sind Sie tot. Was ist passiert? Sie sind keineswegs in eine >Interphasen-Zone< geraten, die das ganze Schiff verschlingt. Es handelt sich auch nicht um den Angriff eines getarnten romulanischen Kreuzers. Nein, Sie sind einer ganz anderen Kraft zum Opfer gefallen. Die einfallsreichen Star Trek-Autoren, von denen Sie abhängen, haben noch keine Trägheitsabsorber erfunden - das holen sie zu einem späteren Zeitpunkt nach. Eine ganz banale Angelegenheit verursachte Ihren Tod: Isaac Newtons Bewegungsgesetz, von dem Sie bestimmt während des Physikunterrichts in der Schule gehört haben. Einige Trekkies sagen jetzt vermutlich: »Wie langweilig! Kommen Sie uns doch nicht mit Newton. Berichten Sie von interessanteren Dingen. Geben Sie uns Antwort auf die Fragen: >Wie funktioniert ein Warptriebwerk?< Und: >Was hat es mit dem Lichtblitz unmittelbar vor dem Warptransfer auf sich - verhält es sich damit ähnlich wie mit dem Durchbrechen der Schallmauer ?< Und: >Wie ist eigentlich ein Dilithiumkristall beschaffen?« Nun, diese Themen werden nicht ausgeklammert und später erörtert. Die Fortbewegung im Star Trek-Universum berührt einige der exotischsten Konzepte der heutigen Physik. Und viele verschiedene Aspekte
kommen zusammen, bevor wir uns die fundamentale Frage in bezug auf Star Trek stellen können: »Ist dies alles wirklich möglich? Und wie?« Um dorthin zu gehen, wo noch nie ein Mensch gewesen ist - oder auch nur das Starfleet-Hauptquartier zu verlassen - , müssen wir uns mit den gleichen Besonderheiten auseinandersetzen wie Galileo und Newton vor dreihundert Jahren. Grundlegendes Motiv ist jene wahrhaft kosmische Frage, die sich im Zentrum von Gene Roddenberrys Star Trek-Vision befand: »Welche Vorstellungen sind in Hinsicht auf die zukünftigen Entwicklungen unserer Zivilisation möglich, wenn man die Maßstäbe der modernen Wissenschaft anlegt?« Ich meine, eine solche Frage verdient es, daß wir uns gründlicher damit beschäftigen. Wer schon einmal in einem Flugzeug oder mit einem schnellen Wagen unterwegs gewesen ist, kennt das Gefühl, bei der Beschleunigung in den Sitz gepreßt zu werden. An Bord eines Raumschiffs kommt diesem Phänomen besondere Bedeutung zu. Die nuklearen Reaktionen im Impulstriebwerk erzeugen einen enormen Druck, der Gas und Strahlung mit hoher Geschwindigkeit nach >hinten< ausstößt. Der dadurch hervorgerufene Rückstoß drückte das Triebwerk in die entgegengesetzte Richtung, also nach >vorn<. Da der Rest des Raumschiffs mit dem Antrieb verankert ist, wird es ebenfalls nach vorn gedrückt. Das gilt auch für den Sessel, in dem Sie sitzen: Er schiebt Sie nach vorn. Und Ihr Körper erwidert den Druck. Genau da liegt das Problem. Wenn sich ein Hammer mit hoher Geschwindigkeit Ihrem Kopf nähert, so übt er eine Kraft aus, die tödlich sein kann. Das gilt auch für den Sessel an den Navigationskontrollen der Defiant, wenn die von ihm ausgeübte Kraft ein gewisses Maß überschreitet. Bei Jet-Piloten und der NASA kennt man die bei starken Beschleunigungen (zum Beispiel in Flugzeugen oder beim Start einer Rakete) wirksam werdende Kraft unter der Bezeichnung >Ge-Kräfte<. Ich kann sie hier mit Hinweis auf meinen schmerzenden Rücken beschreiben. Während ich am Computer sitze und fleißig schreibe, fühle ich den Druck des Sessels am Gesäß - ich habe mich längst daran gewöhnt (obwohl ich hinzufügen muß, daß dieser ständige Druck in ästhetischer Hinsicht recht nachteilige Folgen haben kann, wenn er über längere Zeit hinweg anhält). Er stammt von der Gravitation, die mich ins Zentrum der Erde ziehen würde, wenn es allein nach ihr ginge. Was eine Beschleunigung verhindert - was mich im Sessel hält -, ist der Umstand, daß eine entgegengesetzte, nach oben gerichtete Kraft auf das Haus wirkt, auf den hölzernen Boden meines Arbeitszimmers im ersten Stock, auf den Sessel und auch auf mich. Wenn die Erde doppelt soviel Masse und den gleichen Durchmesser hätte, so wäre der auf mein Gesäß wirkende Druck doppelt so groß. In dem Fall müßte auch die nach oben gerichtete Kraft doppelt so groß sein, um den Zug der Schwerkraft auszugleichen. Die gleichen Faktoren gilt es bei der Raumfahrt zu berücksichtigen. Wenn Sie im Kommandosessel sitzen und den Befehl erteilen, das Schiff zu beschleunigen, so dürfen Sie dabei nicht die Kraft vergessen, die den Sessel - und damit auch Sie - nach vorn schiebt. Eine doppelt so starke Beschleunigung führt dazu, daß sich der vom Sessel ausgeübte Druck verdoppelt. Je größer die Beschleunigung, desto größer der Druck. Die zentrale Schwierigkeit besteht darin, daß nichts - erst recht nicht Ihr
Körper - einer innerhalb kurzer Zeit stattfindende Beschleunigung auf Impulsgeschwindigkeit unbeschadet überstehen kann. Dieses Problem ergibt sich oft bei Star Trek, und zwar nicht nur im Weltraum, sondern auch auf der Erde. Zu Beginn von STAR TREK V: Am Rande des Universums sehen wir James Kirk beim Bergsteigen in den Yosemite-Bergen. Plötzlich verliert er den Halt und stürzt. Spock trägt Raketenstiefel und fängt den Captain dicht über dem Boden auf, um ihn vor dem Tod zu bewahren. Die Sache hat nur einen Haken: Auf diese Weise könnte er ihm normalerweise nicht das Leben retten. Der Vorgang des Abbremsens über eine Distanz von nur wenigen Zentimetern ist tödlich - dabei spielt es keine Rolle, was die Geschwindigkeit des stürzenden Captains auf Null reduziert, der Boden oder Spocks Hände. Bevor sich die Reaktionskräfte entfalten und den betreffenden Körper zerreißen, beginnt eine andere physiologische Krise. Zunächst einmal: Das Herz kann nicht mehr stark genug schlagen, um ausreichend Blut in den Kopf zu pumpen. Aus diesem Grund verlieren die Piloten von Kampfflugzeugen manchmal das Bewußtsein, wenn ihre Maschinen stark beschleunigen. Man hat spezielle Kleidung entwickelt, die das Blut aus den Beinen der Piloten nach oben drückt. Dadurch soll einer Ohnmacht vorgebeugt werden. Nun, diese physiologischen Reaktionen begrenzen die mögliche Maximalbeschleunigung heutiger Raumfahrzeuge. Sie erklären auch, warum die NASA im Gegensatz zu Jules Verne in seinem Klassiker Von der Erde zum Mond nie auf den Gedanken gekommen ist, Astronauten mit einer riesigen Kanone in die Umlaufbahn zu schießen. Wenn man vom Ruhezustand aus 150000 km/sec schnell werden und somit etwa die halbe Lichtgeschwindigkeit erreichen möchte, so muß man das eigene Bewegungsmoment allmählich erhöhen, um nicht zerquetscht zu werden. Wenn mich nicht mehr als 3 Ge in den Sessel drücken sollen, so darf die Beschleunigung nicht größer sein als das Dreifache der für fallende Objekte auf der Erde üblichen Beschleunigung. Unter solchen Umständen würde es rund 5 Millionen Sekunden oder etwa zweieinhalb Monate dauern, um das Raumschiff mit halber Lichtgeschwindigkeit fliegen zu lassen! Keine sehr günstigen Bedingungen für eine interessante, abenteuerliche Fernsehfolge... Nach dem Bau des ersten Raumschiffs der Constitution-Klasse - gemeint ist die Enterprise NCC-1701 - wurde Kritik laut. Es hieß, durch die starke Beschleunigung würde sich die Besatzung des Raumschiffs in >Brei< verwandeln. Die Autoren von Star Trek mußten sich etwas einfallen lassen, und sie erfanden den >Trägheitsabsorber<, ein Gerät, das Andruckkräfte bei Beschleunigungen absorbiert und somit bei der Navigation mehr Freiheit erlaubt. Die Trägheitsabsorber machen sich vor allem dann bemerkbar, wenn sie nicht mehr funktionieren. Als eine unter der Bezeichnung >Naniten< bekannte MikrochipLebensform immer größere Speicherbereiche des Computerkerns für sich beanspruchte, funktionierten plötzlich die Trägheitsabsorber nicht mehr, was fast zur Vernichtung der Enterprise führte. Immer dann, wenn die Enterprise ernsthaft in Schwierigkeiten gerät, fallen früher oder später die Trägheitsabsorber aus. Ähnliches
technisches Versagen an Bord eines romulanischen Schiffes zeigte uns in aller Deutlichkeit, daß Romulaner grünes Blut haben. Mit einem großen Teil der Technik von Star Trek verhält es sich so wie mit den Trägheitsabsorbern: Es läßt sich leicht beschreiben, welche Probleme sie lösen, doch das Wie bleibt rätselhaft. Das oberste Gesetz der Star Trek-Physik scheint zu lauten: Je grundlegender das Problem ist, desto herausfordernder müssen die erforderlichen Lösungen sein. Wir haben den heutigen Entwicklungsstand erreicht und können über Star Trek diskutieren, weil die Physik ein Fachgebiet ist, das sich auf der Grundlage des bereits Vorhandenen weiterentwickelt. Wenn in Star Trek ein Problem gelöst wird, so geht es dabei nicht nur um das Unmittelbare, also eine Reparatur oder dergleichen. Gleichzeitig müssen auch die damit in Zusammenhang stehenden neuen physikalischen Faktoren berücksichtigt werden. Die Physik entwickelt sich nicht in revolutionären Sprüngen, die das Bestehende wegwischen, sondern in einer stetigen Evolution, die auf gesammeltem Wissen aufbaut. Newtons Gesetze werden in Millionen von Jahren noch ebenso gelten wie heute, ganz gleich, welche neuen wissenschaftlichen Erkenntnisse die Zukunft bringt. Wenn wir auf der Erde einen Ball hochheben und ihn loslassen, so wird er immer fallen. Wenn ich auch weiterhin am Schreibtisch sitze und bis in alle Ewigkeit schreibe, so ändert sich an den negativen Konsequenzen für mein Gesäß nichts. Nun, es wäre unfair, nicht noch etwas näher auf die Trägheitsabsorber einzugehen und zu erklären, wie sie funktionieren müßten. Meine bisherigen Ausführungen weisen schon darauf hin: Sie müßten im Innern des Raumschiffs eine künstliche Welt schaffen, in der die von Beschleunigungen verursachte Reaktionskraft eliminiert wird. Anders ausgedrückt: Die Objekte im Schiff werden gewissermaßen >überlistet<, damit sie sich so verhalten, als fände überhaupt kein Beschleunigungsmanöver statt. Oben habe ich beschrieben, daß man bei Beschleunigungen das Gefühl hat, schwerer zu werden, einer stärkeren Gravitation ausgesetzt zu sein. Diese Verbindung - sie bildete die Grundlage für Einsteins allgemeine Relativitätstheorie - ist weitaus enger, als man zunächst glauben könnte. Für die Trägheitsabsorber folgt daraus, daß sie nur auf eine Weise die von den Autoren beabsichtigte Wirkung entfalten können: indem sie im Innern des Raumschiffs ein künstliches Gravitationsfeld erzeugen, das in die entgegengesetzte Richtung zieht wie die Reaktionskraft und sie dadurch neutralisiert. Selbst wenn wir eine solche Möglichkeit in Erwägung ziehen _ es ergeben sich einige praktische Schwierigkeiten. Zum Beispiel brauchen die Absorber etwas Zeit, um auf unerwartete Impulse zu reagieren. Als die Bozeman aus einer temporalen Verzerrungszone auftauchte und die Enterprise in eine Kausalitätsschleife schleuderte, wurden die Brückenoffiziere im Kontrollraum hin und her geworfen (das geschah noch vor dem Warpkern-Kollaps und dem Ausfall der Trägheitsabsorber). In den technischen Unterlagen der Enterprise habe ich gelesen, daß die durchschnittliche Reaktionszeit der Absorber etwa 60 Millisekunden beträgt. Diese Zeitspanne mag recht kurz erscheinen, aber sie genügt, um die Crew umzubringen, wenn es selbst bei geplanten Beschleunigungsmanövern zu solchen Verzögerungen kommt. Um Sie zu überzeugen... Stellen Sie sich einmal vor, wieviel
Zeit ein Hammer braucht, um Ihren Schädel zu zertrümmern. Oder wie lange es dauert, bis Sie der Boden nach einem Sturz von den Yosemite-Bergen tötet. Eine Kollision mit sechzehn Stundenkilometern - so etwas klingt harmlos. Für einen Runner, der im vollen Sprint gegen die nächste Ziegelsteinmauer läuft, dürfte sie trotzdem recht unangenehm sein. Die Trägheitsabsorber müssen sehr schnell reagieren, wenn die Besatzungen der Raumschiffe überleben sollen. Übrigens: Mehr als nur ein Trekkie hat darauf hingewiesen, daß Crewmitglieder durch Erschütterungen der Enterprise nur ein, zwei Meter weit geworfen werden. Bevor ich die vertraute Welt der klassischen Physik verlasse, möchte ich noch ein anderes technologisches Wunder erwähnen, das eine Konfrontation mit Newtons Gesetzen überstehen muß. Ich meine den Traktorstrahl der Enterprise. Mit ihm wurde die Genom-Kolonie von Moab IV gerettet - er lenkte das Kernfragment eines Neutronensterns ab. Unter ähnlichen Umständen gelangte er bei Bre'el IV zum Einsatz. Dort sollte ein kleiner Mond, der auf den Planeten zu stürzen drohte, wieder in die ursprüngliche Umlaufbahn zurückversetzt werden. Auf den ersten Blick scheint das Prinzip des Traktorstrahls ganz einfach zu sein. Zwar nutzt er eine exotische Kraft, aber er funktioniert wie ein Seil oder eine Stange. Oft wird damit ein Shuttle oder ein anderes Schiff gezogen; manchmal verwendet man ihn auch, um die Flucht eines feindlichen Raumschiffs zu verhindern. Doch wenn wir etwas mit einem Seil ziehen, müssen wir am Boden oder einem schweren Gegenstand verankert sein. Ein Schlittschuhläufer weiß, was passiert, wenn er auf dem Eis jemand fortschieben möchte: Der Abstand zur betreffenden Person vergrößert sich tatsächlich, aber man gerät dabei auch selbst in Bewegung. Ohne festen Halt darf man dabei nicht hoffen, an einem Ort zu verharren. Dieses Phänomen veranlaßte Captain Jean-Luc Picard in der Episode >Die Schlacht von Maxia<, Lieutenant Riker anzuweisen, den Traktor strahl zu deaktivieren. Picard meinte, das Schiff im Schlepptau folge der Enterprise aufgrund seines eigenen Trägheitsmoments. Die Trägheit macht sich auch an anderer Stelle bemerkbar: Wenn die Enterprise mit Hilfe des Traktorstrahls versuchen würde, die Stargazer fortzudrücken, so geriete sie dadurch ebenfalls in Bewegung. Das Trägheitsmoment hat auch erheblichen Einfluß auf die heutige Arbeit des Menschen im All. Stellen wir uns einmal einen Astronauten vor, der beauftragt ist, eine Schraube am Weltraumteleskop Hubble anzuziehen. Wenn er einen elektrischen Schraubenzieher benutzt, so wird er anschließend eine Überraschung erleben. Sobald sich der an die Schraube gepreßte Schraubenzieher dreht, bewegt sich auch der Astronaut. Der Grund dafür: Das Teleskop ist ein ganzes Stück schwerer. Wenn der Schraubenzieher Kraft auf die Schraube ausübt, so könnte die Reaktionskraft dafür sorgen, daß sich der Astronaut dreht, insbesondere dann, wenn die Schraube recht fest sitzt. Er hätte nur dann keine Probleme, wenn er - wie die Mörder von Kanzler Gorkon - über Gravitationsstiefel verfügt, die einem praktisch überall Halt geben. Und was geschieht, wenn die Enterprise versucht, ein anderes Raumschiff heranzuziehen? Wenn die Enterprise nicht viel schwerer ist, nähert sie sich dem anderen Schiff, sobald man den Traktorstrahl aktiviert. Nun, im Weltraum spielt es eigentlich keine Rolle, wer sich wem nähert. Ohne Bezugspunkte läßt sich gar nicht
feststellen, wer wen zu sich heranzieht. Allerdings: Für einen Planeten wie Moab IV, der vom Kernfragment eines Neutronensterns bedroht wird, ist es wichtig, ob die Enterprise den Stern beiseite schiebt oder umgekehrt! Ein mir bekannter Star Trek-Fan behauptet, in mindestens einer Fernsehfolge gäbe es einen Hinweis auf die Lösung dieses Problems: Wenn man zusammen mit dem Traktorstrahl auch das Impulstriebwerk aktiviert, so gleicht die Schubkraft eventuelle Reaktionskräfte durch das Ziehen oder Schieben fremder Objekte aus. Der Fan meint, irgendwo sei einmal erwähnt worden, daß der Traktorstrahl nur mit eingeschaltetem Impulstriebwerk funktionieren kann. Nun, ich habe nie eine Anweisung von Kirk oder Picard gehört, das Impulstriebwerk zusammen mit dem Traktorstrahl zu aktivieren. Eine solche Lösung erscheint mir alles andere als elegant und keiner Gesellschaft würdig, die Trägheitsabsorber ersinnen und konstruieren kann. Geordi LaForge erwähnte ein Warpfeld, das nötig sei, um den Mond von Bre'el IV in die richtige Umlaufbahn zu bringen. Ich sehe hier einen Ansatzpunkt: Vielleicht lassen sich die eben geschilderten Schwierigkeiten mit einer - derzeit noch nicht möglichen - Manipulation von Raum und Zeit überwinden. Um den Grund dafür zu verstehen, müssen wir die Trägheitsabsorber einschalten, beschleunigen und zur modernen Welt der gekrümmten Raumzeit fliegen.
ZWEI
Einstein erhöht Es gab mal 'ne Frau namens Schlicht, Die reiste häufig schneller als Licht. Eines Tages brach sie auf - relativ gedacht, Und kehrte zurück in der vergangenen Nacht. Anonym Zeit, die letzte Grenze...« So könnte es im Vorspann von Star Trek heißen. Die Zeitreisen der Enterprise begannen vor dreißig Jahren, mit der Folge >Morgen ist gestern<. (Obwohl: Es gibt eine noch frühere Reise durch die Zeit. In >Implosion in der Spirale< wird die Enterprise um drei Tage in die Vergangenheit versetzt. Allerdings führt dieser temporale Ausflug nur in eine Richtung.) Das Raumschiff wird dabei durch einen schwärzen Stern< (die Bezeichnung >Schwarzes Loch< hatte sich damals in der Öffentlichkeit noch nicht durchgesetzt) ins zwanzigste Jahrhundert versetzt. Heutzutage gehören so exotische Dinge wie Wurmlöcher und >Quantensingularitäten< zum >gewöhnlichen< dramaturgischen Beiwerk der neuen Serie Star Trek: Voyager. Dank Albert Einstein und jener Wissenschaftler, die sein Werk fortsetzten, hat selbst die Struktur der Raumzeit etwas Abenteuerliches. Wir alle sind Zeitreisende, doch wir scheinen verurteilt zu sein, immer nur in eine Richtung zu reisen. In diesem Zusammenhang wird die menschliche Geschichte fast zu einer Tragödie. Wer von uns hat sich nicht schon einmal gewünscht, in die Vergangenheit zu springen, um Herrliches noch einmal zu erleben, Fehler zu korrigieren, bestimmten Personen zu begegnen, vielleicht Katastrophen zu verhindern oder mit der Weisheit des Alters zur eigenen Jugend zurückzukehren? Wenn wir zu den Sternen emporblicken, fühlen wir uns von den Möglichkeiten der Raumfahrt angelockt, doch wir scheinen für immer in der Gegenwart gefangen zu sein. Im Grunde genommen läuft alles auf eine Frage hinaus, die nicht nur unsere Phantasie stimuliert, sondern auch erklärt, warum die theoretische Physik in dieser Hinsicht erheblichen Forschungsaufwand betreibt: Sind wir wirklich Gefangene eines kosmischen temporalen Güterzugs, der nicht das Gleis wechseln kann? Die Ursprünge des modernen Genres namens Science Fiction sind eng mit der Zeitreise verbunden. Mark Twains klassischer Roman Ein Yankee aus Connecticut an König Artus' Hof ist keine Science Fiction in dem Sinne, obgleich es dabei um die Zeitreise-Abenteuer eines Amerikaners im mittelalterlichen England geht. (Vielleicht ging Mark Twain deshalb nicht auf Einzelheiten der Zeitreise ein, weil er Picard an Bord der Enterprise versprach, nach der Rückkehr in seiner Zeit nichts von der
Zukunft zu verraten. Sein Abstecher ins Star Trek-Universum fand während der Doppelfolge >Gefahr aus dem neunzehnten Jahrhundert statt.) Der von H. G. Wells verfaßte Roman Die Zeitmaschine stellt in diesem Zusammenhang den Übergang zur Science Fiction dar. Wells studierte am Imperial College of Science and Technology in London. In seinen Ausführungen verwendete er häufig die Sprache der Wissenschaft, ebenso wie die Crew der Enterprise. In den interessantesten Episoden der Star Trek-Fernsehserien geht es um Zeitreisen. In den ersten beiden Serien habe ich nicht weniger als zweiundzwanzig Folgen mit diesem Thema gezählt. Drei Star Trek-Filme sowie mehrere Episoden von Voyager und Deep Space Nine befassen sich ebenfalls damit. Einer der faszinierendsten Aspekte der Zeitreise besteht darin, daß sie ein enormes Potential für die Verletzung der Ersten Direktive bietet. Den Angehörigen von Starfleet ist es verboten, die normalen historischen Entwicklungen fremder Kulturen zu beeinflussen. Doch wenn man in die Vergangenheit reist, kann man nicht nur die Gegenwart auslöschen, sondern auch das, was wir als >Geschichte< kennen! In der Science Fiction und auch in der Physik gibt es ein berühmtes Paradoxon: Was passiert, wenn man in der Zeit zurückkehrt und die Mutter vor dem Zeitpunkt der eigenen Geburt tötet? Dann hört man auf zu existieren. Aber wenn man nicht existiert, kann man auch nicht in die Vergangenheit reisen, um dort die Mutter umzubringen. Und wenn man nicht in die Vergangenheit reist, um die Mutter zu töten, so hört man auch nicht auf zu existieren. Anders ausgedrückt: Wenn man existiert, so kann man nicht existieren; und wenn man nicht existiert, so muß man existieren. Wenn man über Zeitreisen nachdenkt, so ergeben sich noch andere, zwar weniger offensichtliche, aber ebenso dramatische und verwirrende Fragen. Die Probleme in >Gefahr aus dem neunzehnten Jahrhundert< werden gelöst, indem Picard einen binären Code im abgetrennten Kopf Datas hinterläßt - er weiß, daß man ihn fast fünfhundert Jahre später entdecken und verstehen wird. Wir sehen, wie der Captain den Code eingibt, und die nächste Szene zeigt uns LaForge, der im vierundzwanzigsten Jahrhundert den Schädel des Androiden wieder mit dem Rest des Körpers verbindet. Für den Zuschauer scheint das eine auf das andere zu folgen, doch dieser Eindruck täuscht: Nach der Eingabe des Codes bleibt Datas Kopf fast ein halbes Jahrtausend lang liegen. Nun, wenn ich den Kopf im vierundzwanzigsten Jahrhundert untersuchen würde, und zwar vor Picards Reise in die Vergangenheit könnte ich dann eine fünfhundert Jahre alte binäre Nachricht entdecken? Wenn JeanLuc noch nicht im Zeitstrom zurückgekehrt ist, so dürfte es eigentlich kaum möglich sein, daß sich irgendwelche Konsequenzen für Data ergeben haben. Andererseits: Jene Ereignisse, die Datas Programmierung veränderten, fanden im neunzehnten Jahrhundert statt - dabei spielt es keine Rolle, wann Picard zu seiner Zeitreise aufbrach. Die Veränderungen haben in jedem Fall stattgefunden, auch wenn Picard seine Gegenwart noch gar nicht verlassen hat! Woraus folgt: Eine Ursache im neunzehnten Jahrhundert (Picard gibt den binären Code ein) kann zu einer Wirkung im vierundzwanzigsten Jahrhundert führen (Datas veränderte Programmierung), bevor die Ursache im vierundzwanzigsten Jahrhundert (Picard verläßt das Schiff und
reist in die Vergangenheit) eine Wirkung im neunzehnten Jahrhundert hervorruft (Picards Ankunft in der Höhle mit Datas Kopf), wodurch die ursprüngliche Ursache (Picard gibt den Code ein) entstand. Diese logische Kette mag kompliziert erscheinen, aber sie ist harmlos im Vergleich mit einem Paradoxon, das uns die letzte Folge von Star Trek: The Next Generation präsentiert. Dort bringt Picard eine Ereigniskette in Gang, die in der Zeit zurückkehrt und nicht nur seine Vorfahren eliminiert, sondern das ganze Leben auf der Erde. Es geht um eine >temporale Subraum-Anomalie< mit >Anti-Zeit<: Sie droht, sich rückwärts im Zeitstrom auszudehnen und schließlich auch das AminosäurenProtoplasma der jungen Erde zu erreichen - um es verschwinden zu lassen, bevor sich die ersten Proteine bildeten, die Bausteine des Lebens. Dies ist eins der besten Beispiele dafür, wie eine Wirkung ihre eigene Ursache schafft. Die temporale Subraum-Anomalie stammt ganz offensichtlich aus der Zukunft. Wenn sie in ferner Vergangenheit die ersten Lebensformen auf der Erde annullierte, dann hat es nie eine terrestrische Zivilisation gegeben, die schließlich eine temporale Subraum-Anomalie erzeugen konnte! Die meisten Physiker begegnen solchen Paradoxa, indem sie einfach darauf hinweisen, daß derartige Dinge in einem vernünftigen Universum - und unser Universum soll angeblich vernünftig sein - keinen Platz haben dürften. Das Problem ist jedoch: Einsteins Gleichungen der Allgemeinen Relativität schließen solche Phänomene nicht aus, weisen sogar ausdrücklich darauf hin, daß sie möglich sind. Die Gleichungen der Allgemeiner Realativitätstheorie waren dreißig Jahre alt, als der berühmte Mathematiker Kurt Gödel - er arbeitete am Institute for Advanced Study in Princeton mit Einstein zusammen - ein Modell entwickelte, das die Zeitreise zuließ. Um die Terminologie von Star Trek zu verwenden: Gödels Modell sah die Erzeugung einer >temporalen Kausalitätsschleife< vor (nach der Kollision mit der Bozeman geriet die Enterprise in eine solche Schleife). In der modernen wissenschaftlichen Ausdrucksweise wird so etwas als >geschlossene zeitartige Kurve< bezeichnet. Es läuft alles auf folgendes hinaus: Man kann durch die Zeit reisen, um anschließend zum Ausgangspunkt in Raum und Zeit zurückzukehren. Das Universum in Gödels Modell ist anders beschaffen als das unsrige: Es dehnt sich nicht aus, sondern rotiert gleichförmig. In einem solchen Kosmos braucht man nur in einem großen Kreis zu fliegen, um in die Vergangenheit zu reisen. Nun, ein solches hypothetisches Universum unterscheidet sich kraß von dem uns vertrauten, doch das Modell weist auf einen wichtigen Punkt hin: Die Allgemeine Relativitätstheorie läßt Zeitreisen zu. In unserem Universum herrscht ein Grundsatz, den ich meinen Studenten gegenüber oft mit diesen Worten beschreibe: Was nicht ausdrücklich verboten ist, kommt garantiert vor. In der Fernsehfolge >Parallelen< bezog sich Data auf die Gesetze der Quantenmechanik, als er sagte: »Was geschehen kann, wird auch geschehen.« Meiner Ansicht nach sollte man Star Trek mit dieser Einstellung begegnen. Wir dürfen keine Trennungslinien ziehen zwischen dem Praktischen und Unpraktischen; wir müssen allein zwischen dem unterscheiden, was möglich ist und was nicht.
Einstein wurde ebenfalls auf diese Sache aufmerksam und schrieb darüber. Er meinte, Kurt Gödels Modell werfe ein Problem auf, das ihn schon bei der Entwicklung der Allgemeinen Relativitätstheorie gestört habe, ohne daß es ihm gelungen sei, die Angelegenheit zu klären. Er fügte hinzu, es sei sicher interessant festzustellen, ob es keine >physikalischen Umstände< gäbe, die Zeitreisen unmöglich machten. Seitdem besteht eine der großen Herausforderungen für Physiker darin, nach den bereits erwähnten >physikalischen Umständen< zu suchen - um das >Loch< in der Allgemeinen Relativitätstheorie zu stopfen, das Reisen durch die Zeit zuzulassen scheint. Wenn wir uns näher mit diesen Dingen befassen möchten, müssen wir über die Grenzen der klassischen Welt der Allgemeinen Relativitätstheorie hinaus vorstoßen und uns in jene dunkle Domäne wagen, wo die Quantenmechanik die Natur von Raum und Zeit beeinflußt. Unterwegs begegnen wir - wie die Enterprise Schwarzen Löchern und auch Wurmlöchern. Doch zunächst kehren wir in die zweite Hälfte des neunzehnten Jahrhunderts zurück. Die Verbindung von Raum und Zeit kündigte die moderne Ära an und begann im Jahre 1864 mit der Entdeckung der gegenseitigen Abhängigkeit von Elektrizität und Magnetismus. Diese erstaunliche intellektuelle Leistung vollbrachte der brillante britische Physiker James Clerk Maxwell. Er stützte sich dabei auf die gemeinsamen Leistungen so fähiger Physiker wie André-Marie Ampere, Charles-Augustin de Coulomb und Michael Faraday. Maxwell fand heraus, daß die Gesetze von Elektrizität und Magnetismus nicht nur in einer engen Beziehung zueinander stehen, sondern zusammen auf die Existenz von elektromagnetischen Wellen hinweisen. Diese Wellen breiten sich mit einer Geschwindigkeit aus, die sich aufgrund der bekannten Eigenschaften von Elektrizität und Magnetismus berechnen lassen sollte. Die Geschwindigkeit müßte mit der (damals bereits bekannten) des Lichts identisch sein. Seit Newton debattierte man darüber, ob das Licht eine Welle ist - also eine Störung, die sich in einem Trägermedium ausbreitet - oder ein Partikel, das sich ungeachtet eines solchen Mediums fortbewegt. Maxwells Beobachtungen, nach denen elektromagnetische Wellen existieren und so schnell wie das Licht sein mußten, beendeten die Debatte. Jetzt stand fest: Beim Licht handelte es sich um eine elektromagnetische Welle. Eben wurde bereits darauf hingewiesen: Jede Welle ist eine Störung, die sich in einem Trägermedium ausbreitet. Wenn Licht eine elektromagnetische Störung darstellt - welches Medium wird dann von ihr gestört? Gegen Ende des neunzehnten Jahrhunderts versuchten viele Wissenschaftler, dieser Frage auf den Grund zu gehen und eine Antwort zu finden. Das betreffende Medium hatte bereits einen Namen, und zwar seit Aristoteles. Man nannte es >Äther<, und bisher hatte es sich allen Versuchen einer direkten Beobachtung entzogen. Im Jahre 1887 führten Albert A. Michelson und Edward Morley - sie arbeiteten an jenen Instituten, die sich 1967 zu meiner gegenwärtigen akademischen Heimat zusammenschlössen, der Case Western Reserve University - ein Experiment durch, das nicht den Äther selbst entdecken sollte, sondern seine Auswirkungen. Da der Äther angeblich das ganze All füllte, mußte die Erde hindurchfliegen. Licht, das sich
in bezug auf die Bewegung der Erde in verschiedenen Richtungen ausbreitete, sollte also unterschiedlich schnell sein. Der von den beiden Forschern durchgeführte Versuch gilt heute als einer der wichtigsten des vergangenen Jahrhunderts, obgleich Michelson und Morley nie den erwarteten Effekt beobachteten. Genau diesem Umstand verdanken sie ihre Berühmtheit: Wir erinnern uns heute noch an ihre Namen, weil sie vergeblich nach irgendwelchen Wirkungen suchten, die der Flug des Planeten Erde auf den Äther ausübte. (A. A. Michelson bekam für seine Forschungen über die Geschwindigkeit des Lichts als erster Amerikaner den Nobelpreis für Physik. Ich halte es für ein Privileg, heute in der gleichen Position tätig zu sein wie er damals. Edward Morley setzte seine Arbeit als Chemiker fort und berechnete unter anderem das Atomgewicht von Helium.) Die Erfolglosigkeit der Suche nach dem Äther sorgte in der Welt der Wissenschaft für erhebliches Aufsehen. Doch wie bei allen wichtigen Entdeckungen eröffnete sich ihre wahre Bedeutung nur einigen wenigen Personen, denen bereits seltsame Aspekte im Zusammenhang mit der Theorie des Elektromagnetismus aufgefallen waren. Etwa zu jener Zeit begann ein Schüler damit, sich mit dieser Angelegenheit zu beschäftigen. Als Michelson und Morley ihr Experiment durchführten, war er neun Jahre alt. Als Sechsundzwanzigjähriger, im Jahr 1905, hatte Albert Einstein das Problem gelöst. Doch hier wiederholte sich etwas, das häufig geschieht, wenn man in der Physik Durchbrüche erzielt: Die von Einstein erzielten Resultate warfen mehr Fragen auf als sie beantworteten. Einsteins Lösung bildete den Kern der Speziellen Relativitätstheorie und basierte auf einem ebenso einfachen wie absurd erscheinenden Faktum: Maxwells Theorie des Elektromagnetismus konnte nur folgerichtig sein, wenn die beobachtete Geschwindigkeit des Lichts von der relativen Geschwindigkeit des Beobachters zum Licht unabhängig war. Ein solches Prinzip widerspricht dem gesunden Menschenverstand. Wenn die Enterprise beim Flug mit Impulsgeschwindigkeit eine Sonde ausschleust, so ist diese für einen planetaren Beobachter weitaus schneller als für ein Besatzungsmitglied, das aus dem Fenster sieht. Doch Einstein fand heraus, daß Maxwells Theorie nur dann einen Sinn ergibt, wenn sich Lichtwellen anders verhalten - bei Messungen wird immer die gleiche Geschwindigkeit festgestellt, ganz gleich, wie schnell oder langsam sich die Beobachter bewegen. Wenn die Enterprise einen Phaserstrahl abfeuert, der mit Lichtgeschwindigkeit einem romulanischen Kriegsschiff entgegenrast, und wenn sich das romulanische Schiff der Enterprise mit halber Lichtgeschwindigkeit nähert... Dann beobachten die Romulaner nicht etwa, daß sich ihnen der Phaserstrahl mit anderthalbfacher Lichtgeschwindigkeit nähert. Auch für sie bleibt die Geschwindigkeit des Phaserstrahls auf die des Lichts beschränkt. Diese Sache verwirrt manche Star Trek-Fans. Sie glauben folgendes: Wenn die Enterprise fast mit Lichtgeschwindigkeit fliegt und ein anderes Schiff ebenfalls mit annähernder Lichtgeschwindigkeit in der entgegengesetzten Richtung unterwegs ist, so erreicht das von der Enterprise ausgehende Licht nie den anderen Raumer - sie bleibt also gewissermaßen unsichtbar. Aber das stimmt nicht. Die Besatzung des anderen Schiffes stellt fest: Das von der Enterprise ausgehende Licht nähert sich ihnen mit Lichtgeschwindigkeit.
Nicht nur diese Erkenntnis sorgte dafür, daß Einsteins Name zu einem Begriff wurde. Noch wichtiger war seine Bereitschaft, die sich daraus ergebenden Konsequenzen zu erforschen, obgleich sie grotesk wirkten. In unserer normalen Erfahrung sind Zeit und Raum absolut, während Geschwindigkeit relativ ist: Die beobachtete Geschwindigkeit hängt davon ab, wie schnell man selbst ist. Doch wenn man sich der Lichtgeschwindigkeit nähert, wird die Geschwindigkeit zu einer absoluten Größe, was bedeutet: Dann werden Zeit und Raum relativ! Der Grund dafür ist: Geschwindigkeit wird definiert als Distanz, die innerhalb einer bestimmten Zeit zurückgelegt wird. Beobachter mit unterschiedlicher relativer Geschwindigkeit können also nur dann messen, daß ein Lichtstrahl 300 Millionen Meter in einer Sekunde zurücklegt, wenn sich ihre >Meter< beziehungsweise >Sekunden< unterscheiden! Wie sich herausstellt, geschieht in der Speziellen Relativitätstheorie das >Schlimmste beider Welten<: Sekunden und Meter sind tatsächlich zu relativen Größen geworden. Aus der schlichten Tatsache, daß die Geschwindigkeit des Lichts für alle Beobachter gleich ist, ungeachtet ihrer relativen Geschwindigkeit, zog Einstein die folgenden vier Schlüsse in Hinblick auf Raum, Zeit und Materie: 1. Ereignisse, die für einen Beobachter gleichzeitig an zwei verschiedenen Orten stattfinden, müssen nicht auch für einen anderen Beobachter gleichzeitig sein, der sich in bezug auf den ersten bewegt. Das Jetzt einer jeden Person ist einzigartig für das betreffende Individuum. Für ferne Ereignisse hat >vorher< und >danach< nur relative Bedeutung. 2. Alle Uhren an Bord von Raumschiffen, die sich relativ zu mir bewegen, gehen langsamer als meine eigene Uhr. Für Objekte in Bewegung vergeht die gemessene Zeit langsamer. 3. Alle Maßstäbe, die sich relativ zu mir bewegen, erscheinen kürzer, als es ohne eine Geschwindigkeitsdifferenz der Fall wäre. Objekte, darunter auch Raumschiffe, werden in der Bewegungsrichtung kürzer gemessen, wenn sie sich bewegen. 4. Alle Objekte gewinnen durch Bewegung an Masse. Wenn sie sich der Lichtgeschwindigkeit nähern, wird ihre Masse unendlich. Nur Objekte ohne Masse, wie zum Beispiel das Licht, können die Lichtgeschwindigkeit erreichen. Es würde hier zuviel Platz beanspruchen, auf alle Paradoxa einzugehen, die Einstein mit seiner Relativität der Welt bescherte. Ich möchte nur auf eins hinweisen: Die oben genannten Phänomene entsprechen der Wahrheit - sie haben sich experimentell bestätigt. Atomuhren sind an Bord von sehr schnellen Flugzeugen unterwegs gewesen. Nach ihrer Rückkehr auf die Erde stellte man fest, daß sie im Vergleich zu anderen Uhren nachgingen. In Forschungslaboratorien für Hochenergiephysik gehören die Konsequenzen der Speziellen Relativitätstheorie zur täglichen Routine. Wenn man dort instabile Elementarteilchen auf annähernd Lichtgeschwindigkeit beschleunigt, bleiben sie erheblich länger von Bestand. Die Ruhemasse von Elektronen ist zweitausendmal geringer als die von Protonen. Doch wenn sie fast die Lichtgeschwindigkeit erreichen, haben sie den gleichen Impuls wie
ihre schwereren Vettern. Wenn ein Elektron mit dem 0,9999999999999999999999999999999999999999999999999999999999999fachen der Lichtgeschwindigkeit fliegt, so würde es einen mit der gleichen Wucht treffen wie ein mit normaler Geschwindigkeit fahrender Lastwagen. Es fällt uns deshalb so schwer, die Relativität von Raum und Zeit zu verstehen, weil wir es in unserem täglichen Leben nur mit Geschwindigkeiten zu tun haben, die weit unter der des Lichts liegen. Die oben genannten Effekte machen sich vor allem bei >relativistischen< Geschwindigkeiten bemerkbar. Selbst bei halber Lichtgeschwindigkeit gingen Uhren nur um 15 Prozent langsamer (und ein Maßstab würde um den gleichen Wert schrumpfen). Die Raumfähren der NASA fliegen mit fünf Meilen pro Sekunde - ihre Uhren gehen nur ein Millionstel Prozent langsamer als die auf der Erde. Ein so schnelles Raumschiff wie die Enterprise bekäme es praktisch ständig mit der Relativität zu tun. Wie soll man die Föderation verwalten, wenn sich viele Uhren in ihrem Einflußbereich mit Geschwindigkeiten bewegen, die nur knapp unter der des Lichts liegen? Nun, vermutlich hat Starfleet aus diesem Grund bestimmt, daß normale Impulsgeschwindigkeiten für Raumschiffe auf 0,25 c beschränkt bleiben ein Viertel der Lichtgeschwindigkeit bzw. 75 000 km/sec. An Bord von Raumschiffen, die mit einer solchen Geschwindigkeit fliegen, vergeht die Zeit um etwa drei Prozent langsamer. Im Verlauf eines Monats summiert sich die Differenz auf etwa einen Tag. Wenn die Enterprise im Anschluß an eine solche Reise in unser Sonnensystem zurückkehrt, so wäre es an Bord des Schiffes Freitag und auf der Erde Samstag. Vermutlich wären die Unannehmlichkeiten nicht größer als beim Überqueren der internationalen Datumsgrenze: Dabei gewinnt man einen Tag in der einen Richtung und verliert ihn wieder in der anderen. Doch bei der Enterprise wären die Besatzungsmitglieder tatsächlich einen Tag jünger. Jetzt wird deutlich, warum das Warptriebwerk so wichtig für die Enterprise ist. Es dient nicht nur dazu, die letzte Geschwindigkeitsbeschränkung zu überwinden - die Lichtgeschwindigkeit - und weite Reisen durch die Galaxis zu ermöglichen, es beugt auch der Zeitdilatation vor, die um so stärker wird, je mehr man sich der Geschwindigkeit des Lichts nähert. Ich kann gar nicht genug betonen, wie wichtig diese Dinge sind. Der Umstand, daß die Zeit immer langsamer vergeht, je schneller man fliegt, hat die Phantasie von SFAutoren beflügelt und all jenen Hoffnung gegeben, die von Reisen zu den Sternen träumen. Sie glauben, daß es doch möglich sein könnte, die gewaltigen Entfernungen zwischen den Sternen zurückzulegen, und zwar innerhalb der Lebenszeit eines Menschen - womit die Menschen an Bord des Raumschiffs gemeint sind. Mit FastLichtgeschwindigkeit würde ein Flug zum Zentrum der Galaxis etwa fünfundzwanzigtausend Jahre irdischer Zeit dauern, doch für die Besatzung des Raumschiffes vergingen nur rund zehn Jahre - viel Zeit, aber nicht zuviel. Individuelle Forschungsreisen könnten dadurch möglich werden, doch unter solchen Bedingungen wäre es wohl kaum denkbar, eine Art interstellare Föderation zu gründen. Wenn für Schiffe wie die Enterprise zehn Jahre vergehen, während auf der Erde und anderen Welten fünfundzwanzig Jahrtausende verstreichen, so hätte die
Einrichtung einer Einsatzzentrale wie Starfleet Command überhaupt keinen Sinn. Wie soll man eine Sternenflotte verwalten, die nicht nur durch den Raum, sondern auch über die Zeit verstreut ist? Für eine funktionsfähige Föderation sind zwei Dinge erforderlich. Erstens: Die einzelnen Raumschiffe müssen unter allen Umständen vermeiden, bis auf Lichtgeschwindigkeit zu beschleunigen, damit keine >Synchronisierungsprobleme< entstehen. Zweitens: Um durch die Galaxis zu reisen, ohne dabei in die Zukunft zu geraten, muß es möglich sein, schneller als das Licht zu fliegen. Das Problem ist: Im Rahmen allein der Speziellen Relativitätstheorie bildet die Geschwindigkeit des Lichts das absolute Maximum. Es ergeben sich lauter physikalische Unmöglichkeiten, wenn höhere Geschwindigkeiten in Erwägung gezogen werden. Eine der Schwierigkeiten besteht darin, daß Objekte immer mehr Masse erhalten, je näher sie an die Lichtgeschwindigkeit herankommen; dadurch ist mehr und mehr Energie erforderlich, um sie ein wenig zu beschleunigen. In der griechischen Mythologie ist Sisyphus dazu verurteilt, bis in alle Ewigkeit einen Felsblock einen steilen Berg hinaufzuwälzen; bevor er den Gipfel erreicht, rollt der Stein wieder ins Tal. Ähnlich sieht es hier aus: Die Energie des ganzen Universums würde nicht genügen, um auch nur ein Staubkorn - geschweige denn ein Raumschiff - so sehr zu beschleunigen, daß es schneller wird als das Licht. Andererseits: Masselose Strahlung muß so schnell sein wie das Licht. Was bedeutet, daß viele Energiewesen im Star Trek-Universum wohl kaum in der dargestellten Art existieren könnten. Zunächst einmal: Es wäre ihnen unmöglich, an einem Ort zu verharren. Man kann das Licht nicht verlangsamen oder gar irgendwo anhalten. Und: Intelligente Energiewesen - wie die >photonischen< Geschöpfe in Voyager, die energetischen Wesenheiten der Raumwolke im Sonnensystem Beta Renna (in The Next Generation), die Zetarianer (in der Classic-Serie) und Dal'Rok (in Deep Space Nine) - müßten ständig mit Lichtgeschwindigkeit unterwegs sein und hätten Uhren, die unendlich viel langsamer gingen als unsere. Die ganze Geschichte des Universums verginge für sie in einem Augenblick. Wenn solche Energiewesen überhaupt zu Wahrnehmungen fähig wären, so würden sie erleben, daß alles gleichzeitig passiert! Bevor sie auf die Präsenz von körperlichen Geschöpfen reagieren könnten, wären diese längst gestorben. Da wir gerade bei der Zeit sind... Wir sollten hier auf das sogenannte PicardManöver eingehen. Jean-Luc wurde berühmt für diese Taktik, die er zum erstenmal als Captain der Stargazer einsetzte. Zwar wird dabei ein Warptransfer durchgeführt und im Kontext der Speziellen Relativitätstheorie ist keine Überlichtgeschwindigkeit möglich -, aber es paßt trotzdem gut in den Rahmen der aktuellen Diskussion. Das Picard-Manöver verwirrt einen angreifenden Feind, indem durch einen kurzen Warptransit der Eindruck erweckt wird, das eigene Schiff befände sich an zwei Stellen gleichzeitig. Warum? Nun, indem das Schiff für kurze Zeit schneller als das Licht fliegt, überholt es die Lichtstrahlen, die es vor dem Transfer aussandte. Ein genialer Trick, der auch logisch zu sein scheint (wenn man davon ausgeht, daß Warpgeschwindigkeiten möglich sind). Doch wenn man genauer darüber nachdenkt, so bemerkt man viele Schwachstellen. Unter anderem ergibt sich dabei eine Frage,
die manche Star Trek-Fans schon seit Jahren beschäftigt: Wie können die Brückenoffiziere der Enterprise Objekte >sehen<, die sich ihnen mit Warpgeschwindigkeit nähern? Wenn die Stargazer das von ihr selbst ausgesandte Licht überholte, so dürfte das auch bei anderen Schiffen der Fall sein, wenn sie einen Warptransfer durchführen - man sollte sie also erst auftauchen sehen, nachdem sie eingetroffen sind. Wenn Kirk, Picard oder Janeway ein Bild auf dem Schirm betrachten, so muß man ganz offensichtlich davon ausgehen, daß die Bildinformationen von Subraum-Sensoren stammen, die Ortungsdaten mit Überlichtgeschwindigkeit ermitteln. Selbst wenn wir diesen Punkt einfach ignorieren: Wir müßten davon ausgehen, daß es im Star Trek-Universum von geisterhaften Bildern umherfliegender Raumschiffe geradezu wimmelt. Immerhin: Jeder einzelne Warptransfer hinterließe eine Art Phantomspur. Kehren wir in die Welt diesseits der Lichtmauer zurück - wir sind noch nicht mit Einstein fertig. Aus seiner berühmten Gleichung von Masse und Energie, E = mc2 eine Konsequenz der Speziellen Relativitätstheorie -, ergibt sich eine weitere Herausforderung für die Raumfahrt mit hohen Geschwindigkeiten. Ich habe es bereits im ersten Kapitel beschrieben: Eine Rakete ist eine Vorrichtung, die Dinge nach hinten ausstößt, um zu beschleunigen. Nun, je schneller die >Dinge< ausgestoßen werden, desto größer der Schub. Allerdings sind auch der Geschwindigkeit des Ausstoßens Grenzen gesetzt, und zwar die des Lichts. Und dieses Maximum zu erreichen, ist alles andere als einfach: Wenn der Treibstoff mit Lichtgeschwindigkeit ausströmen soll, müßte er aus Materie und Antimaterie bestehen: Diese beiden Substanzen können sich gegenseitig völlig in Strahlung verwandeln (worauf ich später in diesem Buch eingehe), und Strahlung breitet sich mit Lichtgeschwindigkeit aus. Nun, der Warpantrieb des Raumschiffs Enterprise verwendet eine derartige Energie, nicht aber das Impulstriebwerk - darin findet >ganz gewöhnliche< Kernfusion statt. Die gleiche nukleare Reaktion versorgt die Sonne mit Energie, indem sie Wasserstoff in Helium umwandelt. In Fusionsreaktoren wird etwa ein Prozent der verwendeten Masse zu Energie - die dann genügt, um Heliumatome mit etwa einem Achtel der Lichtgeschwindigkeit ausströmen zu lassen. Wenn das Impulstriebwerk der Enterprise diese Art von Treibstoff verwendet, so läßt sich berechnen, wieviel sie braucht, um auf halbe Lichtgeschwindigkeit zu beschleunigen. Die Berechnung ist ganz einfach, aber ich nenne hier nur das Ergebnis: Um halb so schnell zu werden wie das Licht, müßten die Fusionsreaktoren eine Wasserstoffmenge verbrennen, die dem Einundachtzigfachen der gesamten Enterprise-Masse entspräche. Picards Enterprise-D gehört zur Galaxy-Klasse; solche Schiffe wiegen gut 4 Millionen Tonnen. Die benötigte Treibstoffmenge beliefe sich also auf über 300 Millionen Tonnen - soviel Wasserstoff wäre nötig, um das Schiff auch nur auf halbe Lichtgeschwindigkeit zu beschleunigen! Wenn man fürs Impulstriebwerk ein Materie-Antimaterie-Annihilationssystem verwendete, sieht die Sache ein wenig besser aus. Dann braucht man dazu >nur< noch das Doppelte der Enterprise-Masse an Treibstoff.
Es kommt noch schlimmer. Die oben ausgeführte Berechnung gilt nur für eine einzelne Beschleunigungsphase. Wenn das Schiff am Ziel abgebremst werden soll, ist ebensoviel Treibstoff erforderlich: das Slfache der gesamten Enterprise-Masse. Um mit halber Lichtgeschwindigkeit ein bestimmtes Ziel anzufliegen und dort anzuhalten, wären also 81x81 = 6561mal die gesamte Schiffsmasse an Treibstoff notwendig. Außerdem: Nehmen wir an, die Beschleunigung soll innerhalb weniger Stunden erfolgen (wobei wir natürlich davon ausgehen, daß die Trägheitsabsorber Crew und Schiff vor den enormen Beschleunigungskräften schützen). Die Energie des dafür verwendeten Treibstoffs entspräche 10hoch22 Watt - das ist etwa eine Milliarde mal soviel Energie, wie bei allen menschlichen Aktivitäten auf der Erde bisher produziert und verbraucht wurde! Als ich diese Zahlen einem Kollegen zeigte, meinte er, es gäbe vielleicht eine elegante Lösung für das Problem. Vielleicht sind Sie bereits auf den gleichen Gedanken gekommen: Es muß nicht unbedingt nötig sein, den Treibstoff mitzunehmen. Man könnte ihn auch unterwegs sammeln, oder? Immerhin ist Wasserstoff das häufigste Element im Universum. Es sollte doch möglich sein, während der Reisen durch die Galaxis genügend Wasserstoff >einzufangen<. Nun, die durchschnittliche Materiedichte in der Milchstraße beläuft sich etwa auf ein Wasserstoffatom pro Kubikzentimeter. Um auch nur ein Gramm Wasserstoff pro Sekunde zu sammeln - selbst mit recht hoher Geschwindigkeit -, wären schon Sammelflächen mit einem Durchmesser von fast vierzig Kilometern erforderlich. Und wenn die gesammelte Materie dann als Treibstoff verwendet wird, liefert sie nur ein Hundertmillionstel der notwendigen Antriebsenergie! Um mit den Worten von Edward Purcell zu sprechen, der den Nobelpreis für Physik gewann und auf dessen Argumente ich oben zurückgegriffen habe: Wenn Ihnen dies alles absurd erscheint, so haben Sie recht. Die Absurdität basiert auf den elementaren Gesetzen der klassischen Mechanik und speziellen Relativität. Die hier vorgetragenen Argumente sind ebenso unausweichlich richtig wie die Aussage, daß ein Ball fällt, wenn Sie ihn auf der Erde hochheben und loslassen. Das Bemühen, mit Raketenkraft Raumfahrt im Bereich der Lichtgeschwindigkeit zu betreiben, hat jetzt keinen Sinn und wird auch in Zukunft sinnlos bleiben. Endet das Buch hier? Sollten wir unsere diversen Star Trek-Artikel dorthin bringen, wo wir sie gekauft haben - um das Geld zurückzuverlangen? Nun, wir sind noch immer nicht ganz mit Einstein fertig. Seine letzte und vielleicht größte Entdeckung bietet zumindest einen Hoffnungsschimmer. Schnelle Rückblende zum Jahr 1908: Einsteins Beschreibungen der Relativität von Raum und Zeit führten zu einem jener >Aha-Erlebnisse<, die gelegentlich unser Bild vom Universum verändern. Im Herbst 1908 schrieb der Mathematiker und Physiker Hermann Minkowski folgende berühmten Worte: »Künftig werden Raum und Zeit für sich allein genommen immer mehr an Bedeutung verlieren. Nur eine Verbindung zwischen ihnen kann sie als unabhängige Realität bewahren.« Minkowski begriff: Zwar sind Raum und Zeit relativ für Beobachter in relativer Bewegung - Ihre Uhr kann langsamer gehen als meine; meine Entfernungen können sich von Ihren unterscheiden -, doch wenn Raum und Zeit Teil eines vier-
dimensionalen Ganzen werden (drei Dimensionen des Raums und eine der Zeit), so erscheint plötzlich eine >absolute< objektive Realität. Minkowskis plötzliche Erkenntnis kann erklärt werden, indem wir uns eine Welt vorstellen, deren Bewohner sich durch monokulare Sicht auszeichnen und nicht zu einer räumlichen Wahrnehmung fähig sind. Nehmen wir an, ich hebe ein Lineal und bitte Sie, ein Auge zu schließen. Nehmen wir weiterhin an, daß ein zweiter Beobachter ebenfalls ein Auge schließt und das Eineal aus einem anderen Winkel sieht - für ihn hätte es eine andere Länge (L'). Das folgende Bild aus der Vogelperspektive veranschaulicht den Vorgang. Ohne die Fähigkeit, in die >Tiefe< zu sehen, erkennt der Beobachter die >Länge< (L oder L') als zweidimensionale Projektion der tatsächlichen dreidimensionalen Lineallänge auf seine Wahrnehmungsebene. Wir wissen natürlich, daß der Raum drei Dimensionen hat, und deshalb lassen wir uns von dieser Sache nicht täuschen. Uns ist klar: Wenn wir ein Objekt aus verschiedenen Blickwinkeln betrachten, so ändert sich dadurch nicht die tatsächliche Länge, sondern nur die scheinbare. Minkowski wies darauf hin, daß ähnliche Vorstellungen die verschiedenen Paradoxa der Relativität erklären können. Wir müssen dabei daran denken, daß wir nur den dreidimensionalen Ausschnitt einer vierdimensionalen Wirklichkeit sehen, in der Raum und Zeit miteinander verbunden sind. Zwei verschiedene Beobachter in relativer Bewegung sehen unterschiedliche dreidimensionale Ausschnitte der vierdimensionalen Realität. Ihnen ergeht es ebenso wie den beiden oben dargestellten Beobachtern, die unterschiedliche zweidimensionale Ausschnitte des dreidimensionalen Raums sehen. Minkowski erkannte die von zwei Beobachtern in relativer Bewegung gemessene räumliche Entfernung als Projektion einer vierdimensionalen Raumzeit-Distanz auf den wahrnehmbaren dreidimensionalen Raum. Die zeitliche >Distanz< zwischen zwei Ereignissen definierte er als Projektion der vierdimensionalen Raumzeit-Distanz auf die Zeitlinie der Beobachter. Wenn etwas im dreidimensionalen Raum gedreht wird, so können sich dadurch die wahrgenommene Breite und Tiefe verzerren. Ähnliches gilt für relative Bewegung im vierdimensionalen Raum; dadurch kommt es bei verschiedenen Beobachtern zu individuellen Wahrnehmungen von >Raum< und >Zeit<. Die Länge eines Objekts verändert sich nicht, wenn wir es im Raum drehen; auf der Grundlage des gleichen Prinzips ist die vier-dimensionale Raumzeit-Distanz zwischen zwei Ereignissen absolut. Anders ausgedrückt: Sie hängt nicht davon ab, auf welche Weise Beobachter in relativer Bewegung >räumliche< und >zeitliche< Entfernungen wahrnehmen. Die grotesk erscheinende Konstanz der Lichtgeschwindigkeit für alle Beobachter ermöglichte es, die wahre Natur des vierdimensionalen Universums der Raumzeit zu erkennen, in dem wir leben. Licht verrät die verborgene Verbindung zwischen Raum und Zeit. Besser gesagt: Licht definiert die Verbindung. An dieser Stelle kehrte Einstein zurück, um Star Trek einen Ausweg anzubieten. Als Minkowski zeigte, daß die Raumzeit der speziellen Relativität wie ein vierdimensionales Blatt Papier beschaffen ist, verbrachte Einstein den größten Teil des nächsten Jahrzehnts damit, seine mathematischen Muskeln spielen zu lassen. Bis es ihm schließlich gelang, das Blatt zu biegen - was es uns erlaubt, gewisse Regeln
zu umgehen. Vielleicht ahnen Sie es bereits: Auch hier erwies sich das Licht als Schlüssel.
DREI
Hawking deckt auf »Wie wenig ihr Sterblichen die Zeit versteht. Müssen Sie unbedingt so linear sein, Jean-Luc?« Q zu Picard in »Gestern, heute, morgen« Der Planet Vulkan, Heimat von Spock, hat eine ehrwürdige Vergangenheit in der modernen Physik. Zu Beginn dieses Jahrhunderts gab es ein großes Rätsel in der Astrophysik: Bei Merkurs Umlaufbahn machten sich Unregelmäßigkeiten bemerkbar, die dem von Newton formulierten Gravitationsgesetz widersprachen. Man vermutete, daß jenseits der Merkurbahn ein weiterer (sonnennaher) Planet existierte, dessen störender Schwerkrafteinfluß die Abweichungen erklärte. (Immerhin hatte eine ähnliche Anomalie in der Umlaufbahn des Planeten Uranus zur Entdeckung von Neptun geführt). Man nannte den hypothetischen Himmelskörper Vulkan. Doch die geheimnisvolle Welt Vulkan existiert nicht. Einstein wies darauf hin, daß der flache Raum von Newton und Minkowski zugunsten der gekrümmten Raumzeit allgemeiner Relativität weichen mußte. In diesem gekrümmten Raum sollte Merkurs Umlaufbahn ein wenig von der abweichen, die sich allein auf der Grundlage Newtonscher Berechnungen bestimmen ließ. Dadurch war zwar kein Planet Vulkan mehr erforderlich, um die Diskrepanz zu erklären, doch es ergaben sich weitaus aufregendere Möglichkeiten. Gekrümmter Raum ermöglicht Schwarze Löcher und Wurmlöcher, vielleicht sogar Warpgeschwindigkeit und Zeitreise. Lange bevor man bei Star Trek Warpfelder erfand, ersann Einstein andere Warpphänomene, und wie die Star Trek-Autoren griff er dabei allein auf seine Phantasie zurück. Allerdings entwickelte er keine für das zweiundzwanzigste oder dreiund-zwanzigste Jahrhundert angemessene Raumschifftechnik, sondern einen... Lift. Nun, zweifellos war Einstein ein großartiger Physiker, doch vermutlich hätte es ihm Probleme bereitet, ein Manuskript zu verkaufen. Seine Argumente verlieren auch dann nicht an Bedeutung, wenn man sie zur Enterprise transferiert. Licht ist der Faden, aus dem das Gewebe von Raum und Zeit besteht. Woraus folgt: Die Bahn von Lichtstrahlen weist ebenso deutlich auf die Struktur der Raumzeit hin wie gewobene Fäden auf das Muster eines Teppichs. Für gewöhnlich ist Licht in geraden Linien unterwegs. Doch wenn ein romulanisches Kriegsschiff einen Phaserstrahl auf Picards Yacht Calypso abfeuert, deren Impulstriebwerk gerade aktiv geworden ist - was passiert in einem solchen Fall? Nehmen wir an, Picard weicht dem Phaserstrahl mit einem plötzlichen
Beschleunigungsmanöver aus. Aus seiner Perspektive gesehen stellen sich die Ereignisse so dar:
Für Picard wäre die Bahn des Phaserstrahls gekrümmt. Was würde dem Captain sonst noch auffallen? Wenn er das Beschleunigungsmanöver ohne die Trägheitsabsorber durchführt, wird er in den Sessel gedrückt. Im ersten Kapitel habe ich auf folgendes hingewiesen: Wenn Picard mit der gleichen Kraft nach >vorn< beschleunigt wird, die ihn auf der Erde nach unten zieht, so spürt er dabei auch die gleiche Kraft wie auf der Erde. Einstein betonte, daß Picard (beziehungsweise sein Beispiel eines nach oben gleitenden Lifts) gar nicht imstande wäre, den Unterschied zwischen der Reaktionskraft einerseits (aufgrund von Beschleunigung) und dem gravitationellen Zerren eines schweren Objekts festzustellen. Einstein nahm diese Überlegungen zum Anlaß, kühn dorthin vorzustoßen, wo noch nie ein Physiker vor ihm gewesen war. Er gelangte zu folgendem Schluß: Die von einem beschleunigenden Beobachter erlebten Phänomene sind identisch mit denen, die jemand in einem Gravitationsfeld bemerkt. Für unser Beispiel bedeutet das: Durch sein Beschleunigungsmanöver beobachtet Picard einen Phaserstrahl, der sich nicht mehr in einer geraden Linie bewegt, sondern in einer gekrümmten - also muß der Strahl auch von einem Gravitationsfeld gekrümmt werden. Und: Wenn Lichtstrahlen die Struktur der Raumzeit verdeutlichen, dann krümmt sich die Raumzeit in einem Gravitationsfeld. Hinzu kommt: Materie erzeugt Gravitationsfelder; also krümmt Materie die Raumzeit! Man könnte einwenden, daß Licht Energie hat, die von Einsteins berühmter Gleichung in eine enge Beziehung mit Materie gesetzt wird. Unter solchen Umständen sollte es keine große Überraschung sein, daß sich Lichtstrahlen in einem Gravitationsfeld krümmen; es müßte nicht unbedingt darauf hinweisen, daß die
Raumzeit selbst gekrümmt ist. Immerhin: Auch die Flugbahn von Materie weist Krümmungen auf (werfen Sie mal einen Ball durch die Luft). Wenn Galilei mit Baseball vertraut gewesen wäre, hätte er bei ihm sicher eine gekrümmte Flugbahn nachweisen können. Doch er hätte daraus wohl kaum auf die Existenz eines gekrümmten Raums geschlossen. Man kann berechnen, wie sehr ein Lichtstrahl gekrümmt sein muß, wenn er sich ebenso verhält wie ein Baseball. Anschließend läßt sich der theoretische Wert mit dem gemessenen vergleichen. Ein entsprechendes Experiment führte Sir Arthur Stanley Eddington im Jahr 1919 durch. Während einer Sonnenfinsternis beobachtete er die scheinbaren Positionen von Sternen unweit der Sonne. Eddington fand dabei heraus: Das Licht wurde genau zweimal so stark gekrümmt, wie Galilei vermutet hätte, wenn es sich ebenso verhält wie ein Baseball im >flachen< Raum. Damit noch nicht genug. Der Faktor 2 entspricht genau dem Wert, den Einstein für den Fall vorhergesagt hat, daß die Raumzeit in unmittelbarer Nähe der Sonne gekrümmt ist und Licht (oder der Planet Merkur) in einer geraden Linie durch den gekrümmten Raum fliegt. Der gekrümmte Raum eröffnet ein ganzes Universum an Möglichkeiten (wenn Sie dieses Wortspiel gestatten). Plötzlich verlieren wir - und Star Trek - die Ketten des von Q so sehr verabscheuten linearen Denkens, das in der Speziellen Relativitätstheorie wurzelt. In einem gekrümmten Raum sind viele Dinge möglich, für die ein flacher nicht in Frage kommt. Zum Beispiel kann man in eine Richtung reisen und schließlich an den Ausgangspunkt zurückkehren. Stellen Sie sich eine Kugel vor, zum Beispiel den Planeten Erde: Wenn Sie immer in eine Richtung gehen (bzw. fahren oder fliegen), so gelangen Sie schließlich wieder an Ihren ursprünglichen Aufenthaltsort. Die zentrale Prämisse von Einsteins allgemeiner Relativitätstheorie läßt sich leicht mit wenigen Worten zusammenfassen: Die Krümmung der Raumzeit wird direkt von der Verteilung der darin enthaltenen Materie und Energie bestimmt. Einsteins Gleichungen stellen den mathematischen Zusammenhang zwischen Krümmung einerseits sowie Materie und Energie andererseits her: linke Seite {KRÜMMUNG}
rechte Seite = {MATERIE UND ENERGIE}
Diese Gleichung ist nur auf den ersten Blick schlicht und einfach. Sie hat verborgene Tücken, hauptsächlich aufgrund einer Rückkopplung: Die Krümmung der Raumzeit wird durch die Verteilung von Materie und Energie im Universum bestimmt; doch die Verteilungsmuster in Hinsicht auf Energie und Materie hängen von der Krümmung des Raums ab. Es ist wie mit Huhn und Ei - was war zuerst da? Materie bewirkt die Krümmung des Raums, die wiederum direkten Einfluß nimmt auf die Entwicklung von Materie, wodurch sich die Krümmung des Raums ändert... Und so weiter.
Soweit es Star Trek betrifft, ist dies vielleicht der wichtigste Einzelaspekt der Allgemeinen Relativitätstheorie. Sie ist so komplex, daß wir noch immer nicht alle ihre Konsequenzen verstehen - deshalb lassen sich verschiedene exotische Möglichkeiten nicht von vorneherein ausschließen. Möglichkeiten, die Wasser auf Star Treks Mühlen sind. Später werden wir sehen, daß sie von einem großen unbekannten Faktor abhängen, der alles durchdringt, von Wurmlöchern bis hin zu Zeitmaschinen. Wenn die Raumzeit nicht flach ist, so ergeben sich daraus wichtige Folgen für die Abenteuer der Enterprise - und die Zeit wird zu einer noch dynamischeren Größe als in der Speziellen Relativitätstheorie. Sie kann für verschiedene Beobachter selbst dann unterschiedlich schnell vergehen, wenn diese nicht in relativer Bewegung sind. Stellen wir uns die Zeit in Form eines Lineals aus Gummi vor, wobei die Abstände zwischen den Zentimeter- und Millimeterlinien mit Zeitintervallen identisch sind. Wenn wir das Lineal biegen oder in die Länge ziehen, verändern sich die Abstände und damit auch die Länge der Zeitintervalle. An verschiedenen Stellen des Lineals sind die Abstände zwischen den Markierungslinien - in unserem Beispiel die verstrichene Zeit - unterschiedlich groß. Nun, die allgemeine Relativitätstheorie teilt uns mit: Das Lineal kann nur dann >gekrümmt< werden, wenn sich ein Gravitationsfeld in der Nähe befindet. Und ein Gravitationsfeld erfordert die Präsenz von Materie. Um es in pragmatischeren Begriffen auszudrücken: Wenn ich einen schweren Eisenball neben eine Uhr lege, so sollte sie die Zeit anders messen. Oder: Wenn sich mein Wecker des Nachts direkt neben der Ruhemasse meines Körpers befindet, so werde ich am nächsten Morgen in bezug auf den Rest der Welt etwas später geweckt. 1960 wurde in den Physiklaboratorien der Harvard University ein berühmtes Experiment durchgeführt, das zum erstenmal bewies: Die Zeit kann an verschiedenen Orten unterschiedlich schnell vergehen. Robert Pound und George Rebka. zeigten, daß die Frequenz der im Keller gemessenen Gammastrahlung von der Strahlungsfrequenz abwich, die zweiundzwanzigeinhalb Meter höher auf dem Dach des Gebäudes gemessen wurde (mit sorgfältig kalibrierten Detektoren, um alle Meßfehler auszuschließen). Der Unterschied war äußerst gering: etwa ein Teil in einer Million Milliarden. Wenn jede Periode einer Gammastrahlwelle mit dem Ticken einer Atomuhr vergleichbar ist, so muß aus diesem Experiment geschlossen werden: Eine Uhr im Keller des Gebäudes geht etwas langsamer als eine andere, ebenso beschaffene Atomuhr auf dem Dach. Unten dehnt sich die Zeit, weil das Kellergeschoß der Erde näher ist als das Dach. Dort hat das Gravitationsfeld eine etwas größere Intensität, was auch die Krümmung der Raumzeit verstärkt. Die zweite Konsequenz des gekrümmten Raums dürfte vielleicht noch aufregender sein, zumindest in Hinblick auf die Raumfahrt. Wenn wirklich ein gekrümmter Raum existiert, so braucht die kürzeste Verbindung zwischen zwei Orten nicht unbedingt aus einer geraden Linie zu bestehen. Um dieses Phänomen zu veranschaulichen, stellen wir uns am besten einen auf Papier gezeichneten Kreis vor. Wenn sich A und B auf gegenüberliegenden Seiten befinden, so ist die kürzeste Verbindung zwischen ihnen eine Linie, die durchs Zentrum des Kreises führt:
Wenn man dagegen der Kreislinie folgt, um von A nach B zu gelangen, so wäre die Reise etwa anderthalbmal so lang. Jetzt zeichnen wir den Kreis auf eine Gummifläche und verzerren den zentralen Bereich, indem wir ihn trichterförmig nach unten ziehen:
Aus unserer dreidimensionalen Perspektive gesehen wird sofort klar: Die Reise durchs Zentrum des Kreises wäre viel länger als eine Tour entlang der äußeren Kreislinie. Wenn man dieses Gebilde von oben sieht, erscheint die Linie durch das Zentrum von A nach B gerade. Noch wichtiger ist dieser Hinweis: Wenn ein winziger Käfer (oder eins der zweidimensionalen Wesen, denen die Enterprise begegnete) von A nach B kriecht und dabei dem Verlauf der Linie durch die Kreismitte folgt, so erscheint sie ihm gerade. Es würde ihn sehr verwirren festzustellen, daß sie nicht die kürzeste Entfernung zwischen den beiden Punkten ist. Wenn der Käfer intelligent ist, müßte er schließlich erkennen: Der zweidimensionale Raum, in dem er lebt, weist eine Krümmung auf. Wir können den gekrümmten Teil
nur deshalb sehen, weil er in den für uns vertrauten dreidimensionalen Raum eingebettet ist. An dieser Stelle fuhren wir uns vor Augen: Wir leben in einer vierdimensionalen Raumzeit, die gekrümmt sein kann; und wir können die Krümmung ebensowenig direkt beobachten wie der eben erwähnte Käfer die seiner zweidimensionalen Welt. Vielleicht wissen Sie, worauf ich hinauswill. Wenn in einem gekrümmten Raum die kürzeste Verbindung zwischen zwei Punkten nicht unbedingt aus einer geraden Linie bestehen muß... Dann gibt es vielleicht Abkürzungen zu Orten, die den Anschein erwecken, unerreichbar weit entfernt zu sein. Die eben beschriebenen Eigenschaften sind der Stoff, aus dem die Star TrekTräume bestehen. Die Frage lautet natürlich: Wie viele jener Träume könnten eines Tages Wirklichkeit werden?
WURMLÖCHER: FAKTEN UND PHANTASIE Das bajoranische Wurmloch in der Nähe von Deep Space Nine ist zweifellos das berühmteste in Star Trek, obgleich es viele andere gegeben hat: das gefährliche Wurmloch, das Scotty schaffen konnte, indem er die Materie-Antimaterie-Mischung im Warpkern der Enterprise aus dem Gleichgewicht brachte; das instabile barzanische Wurmloch, durch das in >Der Barzanhandel< ein Schiff der Ferengi verlorenging; das temporäre Wurmloch, dem die Voyager bei ihrem Bemühen begegnete, in den heimatlichen Bereich der Milchstraße zurückzukehren. Die hinter den Wurmlöchern steckende Theorie entspricht den oben geschilderten Überlegungen. Bei einer gekrümmten Raumzeit gibt es verschiedene Möglichkeiten, zwei Orte miteinander zu verbinden, so daß die Entfernung zwischen ihnen wesentlich kürzer ist als die Länge einer >geraden Linie<. Krümmungsphänomene in vier Dimensionen lassen sich nicht durch Bilder demonstrieren. Deshalb greifen wir noch einmal auf unsere zweidimensionale Gummifläche zurück, deren Krümmung wir durch die Einbettung in den dreidimensionalen Raum beobachten können. Wenn die Fläche im großen Maßstab gekrümmt ist, sieht sie vielleicht so aus:
Wenn wir bei A einen Stift ansetzen und bis nach B durchdrücken, um anschließend das Gummi an den betreffenden Stellen miteinander zu verbinden... Dann entsteht ein Tunnel zwischen den beiden Orten, der viel kürzer ist als der (vermeintlich gerade) Weg über die Gummifläche.
Man beachte, daß der >Raum< - die Gummifläche - in der Nähe von A und B flach erscheint. Der >Tunnel< zwischen A und B wird aufgrund der globalen Krümmung über weite Distanzen hinweg möglich. Ein intelligenter, bei A umherkriechender Käfer hätte keine Ahnung davon, daß B so >nahe< ist, nicht einmal dann, wenn er bei A lokale Experimente durchführt und damit nach einer Krümmung des Raums Ausschau hält. Sie wissen es bereits: Die oben dargestellte Verbindung zwischen A und B ist das zweidimensionale Gegenstück eines dreidimensionalen Wurmlochs, das - im Prinzip - weit voneinander entfernte Bereiche der Raumzeit miteinander verbinden könnte. So aufregend eine solche Möglichkeit auch erscheinen mag: Die Bilder haben einige irreführende Aspekte, auf die ich hier deutlich hinweisen möchte. Zunächst einmal: Die Gummifläche wird in den dreidimensionalen Raum eingebettet, damit wir ihre Krümmung sehen können. Es wäre jedoch durchaus möglich, daß der gekrümmte zweidimensionale Kosmos existiert, ohne in eine dritte Dimension eingebettet zu sein. Wenn es kein Wurmloch gäbe, das A und B miteinander verbindet, hätte es unter solchen Voraussetzungen nicht den geringsten Sinn, die beiden Orte als >nahe< zu bezeichnen. Man kann eben nicht einfach so die Gummifläche verlassen und durch den dreidimensionalen Raum nach B reisen. Wenn der dreidimensionale Raum nicht existiert, besteht das Universum nur aus dem zweidimensionalen Kosmos der Gummifläche. Stellen Sie sich einmal vor, daß Sie einer enorm fortgeschrittenen Zivilisation angehören (was jedoch nicht bedeutet, daß Sie wie die Wesen des Q-Kontinuums über eine Macht verfügen, die nicht einmal von den Gesetzen der Physik beschränkt wird). Nehmen wir an, Sie hätten die Möglichkeit, Wurmlöcher im All zu konstruieren. Die Konstruktionsmethode würde vermutlich der Sache mit dem Stift ähneln. Selbst wenn Sie imstande wären, ausgeprägte lokale Krümmungen im Raum
zu bewirken: Sie müßten aufs Geratewohl probieren, in der Hoffnung, daß sich zwei normalerweise weit entfernte Orte im Universum miteinander verbinden. Die beiden kosmischen Regionen könnten sich nicht >nahe< sein, solange keine Verbindung durch ein Wurmloch besteht. Erst die Konstruktion des Tunnels selbst ist es, die eine globale Veränderung in der Natur der Raumzeit herbeiführt. Auch aus diesem Grund sind Wurmlöcher mit Vorsicht zu genießen. Als Premierministerin Bhavani von Barzan II die Enterprise besucht, um die Nutzungsrechte für das barzanische Wurmloch anzubieten, behauptet sie: »Es ist das einzige bisher bekannte stabile Wurmloch!« Unglücklicherweise war es nicht stabil. Die einzigen Wurmlöcher, deren mathematische Existenz im Kontext der Allgemeinen Relativitätstheorie möglich ist, haben nur vorübergehenden Bestand. Sie entstehen, wenn sich zwei mikroskopische Singularitäten - Bereiche der Raumzeit mit unendlich scharfer Krümmung - treffen und sich kurz miteinander verbinden. Doch ein derartiges Wurmloch schließt sich wieder, bevor Raumfahrer Gelegenheit erhalten, es zu passieren. Übrig bleiben zwei erneut voneinander getrennte Singularitäten. Wenn ein Forscher so dumm wäre, sich in den Tunnel zu wagen... Er geriete entweder in die eine oder in die andere Singularität, um dort zerrissen zu werden. Wie soll man dafür sorgen, daß die Öffnung eines Wurmlochs offen bleibt? In mathematischer Hinsicht ist eine Lösung dieses Problems nur sehr schwer zu beschreiben. In der Praxis lautet der wichtigste Hinweis: Gravitation zieht an! Gewöhnliche Materie oder Energie neigt dazu, unter dem Einfluß der eigenen Gravitation zu kollabieren, wenn keine entgegengesetzte Kraft wirkt. Unter normalen Umständen würde sich der Zugang zu einem Wurmloch praktisch sofort wieder schließen. Der Trick besteht darin, die >normalen Umstände< zu verhindern. Der CaltechPhysiker Kip Thorne hat vor einigen Jahren auf folgendes hingewiesen: Man kann nur dann dafür sorgen, daß Wurmlöcher offen bleiben, wenn man sie mit exotischem Material füttert. Damit meint er Material, das zumindest für gewisse Beobachter >negative< Energie besitzt. Zwar sollte man bei der allgemeinen Relativität mit naiven Annahmen vorsichtig sein, aber an dieser Stelle könnte man vermuten, daß ein solches Material nicht >anzieht<, sondern >abstößt<. Nun, nicht einmal die fanatischsten Star Trek-Fans sind bereit, ihre Skepsis lange genug zu vergessen, um so etwas wie negative Energie< für möglich zu halten. Allerdings: Wenn es um den gekrümmten Raum geht, sollte man auf Überraschungen gefaßt sein. Und wenn man dann auch noch jene exotischen Dinge hinzufügt, die uns die Gesetze der Quantenmechanik bescheren - sie regeln die Vorgänge im Mikrokosmos -, so wird praktisch alles denkbar.
SCHWARZE LÖCHER UND DR. HAWKING Stephen Hawking wurde bei den Physikern, die sich mit der allgemeinen Relativität befaßten, vor allem aus zwei Gründen bekannt: Er bewies allgemeine Theoreme in Hinsicht auf Raumzeit-Singularitäten, und in den siebziger Jahren leistete er erstaunliche theoretische Entdeckungsarbeit in Hinsicht auf das Verhalten von Schwarzen Löchern. Gemeint sind Objekte mit so stark kollabierter Materie, daß Gravitationsfelder entstehen, denen nicht einmal Licht entkommt. Der Begriff >Schwarzes Loch< hat die Öffentlichkeit sehr fasziniert und geht auf den theoretischen Physiker John Archibald Wheeler von der Princeton University zurück - er prägte ihn im späten Herbst des Jahres 1967. Das Datum ist recht interessant, denn die erste Fernsehfolge aus der Serie Star Trek, die von einem Schwarzen Loch berichtete - >schwarzer Stern< genannt -, wurde 1967 gesendet, bevor Wheeler die Bezeichnung zum erstenmal öffentlich verwendete. Als ich mir die betreffende Episode während der Vorbereitungen für dieses Buch ansah, fand ich es amüsant, daß die Star Trek-Autoren einen falschen Namen wählten. Inzwischen ist mir klar, daß sie ihn fast erfunden hätten! Schwarze Löcher sind aus mehreren Gründen verblüffende Phänomene. Einer der wichtigsten Aspekte ist dieser: In ihrem Innern verbergen sie eine RaumzeitSingularität, der alles begegnen muß, was hineinfällt. Im Einflußbereich einer solchen Singularität - einem unendlich gekrümmten >Höcker< in der Raumzeit haben die uns vertrauten Gesetze der Physik keine Gültigkeit mehr. In unmittelbarer Nähe der Singularität ist die Krümmung in einer kleinen Region so groß, daß die Auswirkungen der Gravitation von der Quantenmechanik bestimmt werden. Bisher ist noch niemand imstande gewesen, eine Theorie zu formulieren, in der allgemeine Relativität (und damit die Gravitation) sowie Quantenmechanik ein einheitliches Ganzes bilden. Die Star Trek-Autoren haben den Konflikt zwischen Quantenmechanik und Gravitation erkannt: Sie bezeichnen die RaumzeitSingularitäten auch als >Quantensingularitäten<. Eins steht fest: Wenn das Gravitationsfeld im Innern eines Schwarzen Lochs so stark wird, daß die >normalen< Gesetze der Physik ihre Bedeutung verlieren, können >gewöhnliche< Objekte nicht länger von Bestand bleiben. Nichts kann die Schwerkraft einer Singularität intakt überstehen. Ich habe davon gesprochen, daß Schwarze Löcher Singularitäten in ihrem Zentrum >verbergen<. Für diese Ausdrucksweise gibt es einen triftigen Grund. Am Rand eines Schwarzen Lochs existiert ein mathematisch definierter Bereich, den man >Ereignishorizont< nennt - er verwehrt uns den Blick auf das, was mit Objekten geschieht, die ins Innere des Lochs fallen. Was sich, von uns aus gesehen, jenseits des Ereignishorizonts befindet, bekommt es mit der Singularität zu tun. Außerhalb des Ereignishorizonts müssen Objekte nicht unbedingt vom Schwarzen Loch eingefangen werden. Wer das Pech hat, in ein derartiges Phänomen hineinzufallen, bemerkt nichts Besonderes, wenn er oder sie (bald >es<) den Ereignishorizont durchdringt. Einem weiter entfernten Beobachter bietet sich der Vorgang ganz anders
dar. Für den Fallenden in der Nähe des Ereignishorizonts vergeht die Zeit langsamer als für den in sicherer Entfernung befindlichen Beobachter. Er erweckt deshalb den Eindruck, immer langsamer zu fallen, während die Distanz zum Ereignishorizont schrumpft. Je weiter er/sie sich jener Grenzlinie nähert, desto mehr dehnen sich die für ihn/sie verstreichenden Sekunden. Für den Fallenden dauert es vielleicht nur einige Augenblicke, um den Ereignishorizont zu erreichen und zu passieren - ich möchte noch einmal darauf hinweisen, daß dadurch für die betreffende Person nichts Besonderes passiert -, doch für den Beobachter dauert dieser Vorgang eine Ewigkeit. Für ihn scheint das fallende Objekt in der Zeit zu erstarren. Außerdem läßt sich das fallende Etwas von außen immer schwieriger erkennen. Wenn sich ein Objekt dem Ereignishorizont nähert, geht immer weniger Licht davon aus, weil die sichtbare Strahlung in den Bereich von Frequenzen verschoben wird, die sich mit bloßem Auge nicht mehr wahrnehmen lassen. Selbst wenn man beobachten könnte, wie das Objekt schließlich den Ereignishorizont durchdringt (was unmöglich ist, da ein solcher Vorgang für den Beobachter zuviel subjektive Zeit in Anspruch nimmt): Es würde auf der anderen Seite verschwinden, da das ausgestrahlte Licht wie das Objekt auf der dem Schwarzen Loch zugewandten Seite des Ereignishorizonts gefangen sind. Was auch immer durch jene Grenzlinie fällt für den Rest des Universums ist es verloren. Bei diesem Mangel an Kommunikation scheint es sich um eine Einbahnstraße zu handeln: Ein externer Beobachter kann Signale in ein Schwarzes Loch hineinschicken, doch mit einer Antwort darf er nicht rechnen. Aus den oben genannten Gründen führen Begegnungen mit Schwarzen Löchern in Star Trek manchmal zu unmöglichen Resultaten. Der Ereignishorizont ist kein greifbares Objekt, sondern nur die mathematische Beschreibung einer Grenze, die das Innere des Schwarzen Lochs vom Draußen trennt. Daraus folgt, daß er keinen >Riß< haben kann, durch den für die Voyager eine Flucht aus dem Einflußbereich einer Singularität möglich ist. (Diese Vorstellung ist so absurd, daß sie zur Liste der zehn größten Star Trek-Fehler gehört, auf die ich im letzten Kapitel eingehe.) Die >Quantensingularitäts-Lebensformen<, denen die Besatzung der Enterprise begegnete, während sie und ein nahes romulanisches Schiff im Zeitstrom hin und her gleiten, wählen keinen sehr geeigneten Nistplatz für ihre Jungen: Offenbar bringen sie ihren Nachwuchs im Innern von natürlichen Schwarzen Löchern unter, und sie verwechseln die künstliche Quantensingularität im Warpkern des romulanischen Kreuzers mit einem geeigneten Nest. Vielleicht sind die Jungen an einem solchen Ort sicher aufgehoben, aber es dürfte schwierig sein, sie irgendwann einmal zurückzuholen. Wie ich schon sagte: Was sich im Innern eines Schwarzen Lochs befindet, kann nicht mit Dingen außerhalb davon kommunizieren. Trotz ihrer sehr interessanten Eigenschaften müssen Schwarze Löcher nicht übermäßig exotisch sein. Die einzigen Schwarzen Löcher, deren Existenz wir bisher vermuten, sind durch den Kollaps von Sternen mit einem Vielfachen der Sonnenmasse entstanden. Die kollabierten, unter dem Gewicht ihrer eigenen Masse zusammengestürzten Objekte sind so schwer, daß ein Teelöffel ihrer Masse Tonnen wiegen würde. Nun, ein weiterer erstaunlicher Aspekt von Schwarzen Löchern sieht
so aus: Je massiver sie sind, um so weniger dicht müssen sie bei ihrer Entstehung sein. Um ein Beispiel zu nennen: Die Dichte eines Schwarzen Lochs, das durch den Kollaps eines Objekts mit hundert Millionen Sonnenmassen entsteht, braucht nur der von Wasser zu entsprechen. Ein Objekt mit mehr Masse kollabiert schon dann zu einem Schwarzen Loch, wenn es noch weniger dicht ist. Wenn wir diese Extrapolationen fortsetzen, stellt sich folgendes heraus: Die notwendige Dichte für ein Schwarzes Loch mit der Masse des beobachtbaren Universums entspricht ungefähr der durchschnittlichen Materiedichte in unserem Kosmos! Vielleicht leben wir im Innern eines Schwarzen Lochs. 1974 machte Stephen Hawking eine faszinierende Entdeckung im Hinblick auf Schwarze Löcher: Sie sind nicht vollkommen schwarz! Von ihnen geht Strahlung mit einer charakteristischen Temperatur aus, die von der jeweiligen Masse abhängt. Diese Emissionen verraten zwar nichts über jene Dinge, die ins Schwarze Loch hineingefallen sind, doch die Vorstellung, daß solche Phänomene Strahlung emittieren, war erstaunlich genug. Sie schien im Gegensatz zu einigen Theoremen zu stehen, die Hawking zuvor bewiesen hatte und darauf hinwiesen, daß Materie nur in ein Schwarzes Loch hineinfallen, es jedoch nie verlassen kann. Dieser Grundsatz gilt auch weiterhin, abgesehen vom Ursprung der Strahlung eines Schwarzen Lochs. In diesem Zusammenhang kann man nicht von normaler Materie sprechen. Es handelt sich vielmehr um leeren Raum, der sehr exotisch sein kann, insbesondere in der Nähe von Schwarzen Löchern. Kurz nach dem Zweiten Weltkrieg wurden die Gesetze der Quantenmechanik mit der Speziellen Relativitätstheorie abgestimmt, und seitdem wissen wir, daß der leere Raum gar nicht so leer ist. Er bildet einen kochenden, brodelnden Ozean aus Quantenfluktuationen. Aus diesen Fluktuationen entstehen gelegentlich Elementarteilchen, die für nur so kurze Zeit existieren, daß direkte Messungen unmöglich sind. Anschließend verschwinden sie wieder in dem Vakuum, aus dem sie kamen. Die Unschärferelation der Quantenmechanik teilt uns mit, daß es keine Möglichkeit gibt, in so kleinen Zeiträumen den Raum direkt zu untersuchen. Die kurze Existenz der sogenannten virtuellen Partikel läßt sich also nicht ausschließen. Zwar können sie nicht direkt gemessen werden, aber ihre Präsenz beeinflußt gewisse meßbare physikalische Vorgänge, zum Beispiel Häufigkeit und Energie von Übergängen bei den Energieniveaus innerhalb von Atomen. Die berechnete Wirkung von virtuellen Partikeln wird von den Beobachtungen und anderen Vorhersagen in der Physik bestätigt. Dies bringt uns zu Hawkings Entdeckung in bezug auf Schwarze Löcher zurück. Wenn eine Quantenfluktuation unter normalen Umständen ein Partikelpaar erzeugt, so lösen sich die beiden Teilchen gegenseitig auf und verschwinden wieder im Vakuum. Dieser Vorgang spielt sich innerhalb so kurzer Zeit ab, daß der Verstoß gegen das Gesetz von der Energieerhaltung (durch die Entstehung der Teilchen aus dem Nichts) nicht beobachtbar ist. Doch wenn ein virtuelles Partikelpaar in der Nähe eines Schwarzen Lochs erscheint, fällt ein Teilchen vielleicht ins Loch, was bedeutet: Das andere könnte von Bestand bleiben und beobachtet werden. Das ins Schwarze Loch stürzende Teilchen wäre theoretisch imstande, mehr Energie zu verlieren, als
für seine Erschaffung aus dem Nichts erforderlich wurde. Es fügt dem Loch also >negative Energie< hinzu, wodurch sich dessen Energie verringert. Auf diese Weise geschieht dem Gesetz von der Erhaltung der Energie Genüge, denn es wird die Ladung des virtuellen Teilchens ausgeglichen, das der Annihilation entging. Jetzt wissen wir auch um den Hintergrund der Strahlung von Schwarzen Löchern. Etwas anderes kommt hinzu: Während sich die Energie eines Schwarzen Lochs durch den oben beschriebenen Vorgang verringert, schrumpft gleichzeitig die Masse. Irgendwann könnte es sich ganz auflösen und nur Strahlung hinterlassen. Die moderne Physik beschränkt sich nicht darauf, Quantenfluktuationen der Materie vor dem Hintergrund des gekrümmten Raums zu postulieren. Es geht dabei um noch viel exotischere und weniger genau definierte Dinge. Wenn die Quantenmechanik nicht nur für Materie und Strahlung gilt, sondern auch für Gravitation, so muß es in einem ausreichend kleinen Maßstab zu Quantenfluktuationen der Raumzeit kommen. Leider gibt es noch keine schlüssige Theorie, die solche Vorgänge erklärt, aber trotzdem finden theoretische Untersuchungen der zu erwartenden Phänomene statt. Eine der interessantesten Spekulationen besteht darin, daß quantenmechanische Prozesse nicht nur die spontane Entstehung von Teilchen ermöglichen, sondern auch die von ganzen Babyuniversen. Der das Wie und Warum beschreibende quantenmechanische Formalismus ähnelt in mathematischer Hinsicht den Wurmloch-Lösungen der Allgemeinen Relativitätstheorie. Es läuft darauf hinaus, daß >euklidische< Wurmlöcher vorübergehende >Brücken< bilden, aus denen neue Universen entstehen. Die Möglichkeiten von euklidischen Wurmlöchern und Babyuniversen sind so aufregend, daß Quantenfluktuationen bei Hawkings Pokerspiel mit Einstein und Newton in >Angriff der Borg< erwähnt wurden. Wenn die Star Trek-Autoren verwirrt waren, so hatten sie ein Recht darauf. Unglücklicherweise sind diese Dinge derzeit noch sehr unklar. Um mehr herauszufinden, muß erst noch das mathematische Gerüst für die quantengravitationellen Vorgänge entwickelt werden. Die Möglichkeiten der allmählichen Auflösung eines Schwarzen Lochs oder der Entstehung von Babyuniversen sind zweifellos sehr interessant, aber für uns spielen sie hier nur ein« untergeordnete Rolle. Wichtiger ist die Feststellung: Quantenfluktuationen des leeren Raums können zumindest in der Nähe von starken Gravitationsfeldern Eigenschaften bekommen, die notwendig sind, um ein Wurmloch geöffnet zu halten. Die zentrale Frage lautet: Sind Quantenfluktuationen in der Nähe eines Wurmlochs exotisch genug, um einen Kollaps des Wurmlochs zu verhindern und es zu >stabilisieren< Aber es gibt noch keine Antwort auf diese Frage? (Übrigens: Auch hier haben die Star Trek-Autoren bei ihrer Terminologie Verblüffendes geleistet. Im Zusammenhang mit dem bajoranischen und barzanischen Wurmloch ist von >Verteron-Feldern< die Rede. Ich weiß nicht, ob es ein zufällig gewählter Name ist oder ob mehr dahintersteckt. Wie dem auch sei: Virtuelle Partikel - die Quantenfluktuationen in einem ansonsten leeren Raum - könnten Kip Thornes exotische Materie< darstellen. Ich glaube, die Star Trek-Autoren haben Anerkennung für ihre Intuition verdient - wenn es wirklich Intuition war.)
Nun, wenn Quantenfluktuationen im Vakuum exotisch sein können - sind dann auch andere ungewöhnliche Konfigurationen von Materie und Strahlung denkbar, zum Beispiel ein Warpkern-Kollaps oder Instabilitäten bei der Materie-AntimaterieMischung in einem Warptriebwerk? Solche Fragen müssen unbeantwortet bleiben. Selbst wenn man die sehr unwahrscheinliche Existenz von stabilen Wurmlöchern in Erwägung zieht: Werden Reisen durch einen solchen >Tunnel< realisierbar oder nur fast möglich? Bei der Wurmloch-Thematik geht es nicht um eine Konfrontation zwischen wissenschaftlichen Fakten einerseits und Science Fiction andererseits. Sie könnte vielmehr Türen öffnen, die nach Ansicht von manchen Leuten besser geschlossen bleiben sollten.
NOCH EINMAL ZEITMASCHINEN Wurmlöcher wären bestens geeignet, um weit entfernte Regionen im All zu erreichen, aber sie haben ein noch bemerkenswerteres Potential, das in der VoyagerFolge >Eye of the Needle< angedeutet wird. In dieser Episode entdeckt die Besatzung der Voyager ein kleines Wurmloch, das eine Verbindung zum AlphaQuadranten der Milchstraße darstellt. Es gelingt, einen Kom-Kontakt herzustellen, was zu einer bitteren Erkenntnis führt: Auf der anderen Seite des Tunnels erstreckt sich nicht der vertraute Alpha-Quadrant, sondern ein um viele Jahre jüngerer. Das Wurmloch verbindet sowohl zwei verschiedene Bereiche des Alls als auch zwei verschiedene Zeiten! Auch in diesem Fall haben die Star Trek-Autoren alles richtig hinbekommen. Wenn Wurmlöcher existieren, so fungieren sie wie Zeitmaschinen! Diese überraschende Erkenntnis reifte im Lauf des letzten Jahrzehnts heran, als sich mehrere Theoretiker eingehender mit der Physik von Wurmlöchern befaßten. Wurmloch-Zeitmaschinen sind problemlos zu entwerfen: Das einfachste Beispiel (nach Kip Thorne) ist dies: Man stelle sich vor, daß ein Ende eines Wurmlochs stationär ist, während sich das andere mit hoher Unterlichtgeschwindigkeit durch eine ferne Region des Universums bewegt. Prinzipiell ist das selbst dann möglich, wenn die Länge des Wurmlochs unverändert bleibt. Erinnern wir uns an die zweidimensionale Wurmloch-Zeichnung weiter vorn in diesem Buch. Wenn man die untere Hälfte nach links zieht, streicht der Raum am B-Ende des Wurmlochs vorbei, das seine Position in bezug auf die AÖffnung nicht verändert:
Die untere Öffnung des Wurmlochs bewegt sich in bezug auf den betreffenden Bereich des Alls, während das beim A-Ende nicht der Fall ist. Nach der Speziellen Relativitätstheorie bedeutet das: Die Zeit an beiden Öffnungen vergeht unterschiedlich schnell. Nun, wenn die Länge des Wurmlochs unverändert bleibt, so muß jemand, der sich im Innern befindet, den Eindruck gewinnen, daß die beiden Enden relativ zueinander ruhen. Woraus sich der Schluß ziehen läßt, daß bei A und B die Zeit gleich schnell verstreicht. Schieben wir nun die untere Hälfte des zweidimensionalen Raums dorthin zurück, wo die Reise von B begann. Nehmen wir an, dieser Vorgang dauert für einen Beobachter in der Nähe von B einen Tag. Für jemanden, der sich in der Nähe von A befindet, könnten jedoch zehn Tage vergehen. Wenn der zweite Beobachter durch das Wurmloch zum Kalender bei B sieht, so erkennt er dort ein neun Tage früheres Datum! Und wenn er beschließt, B einen Besuch abzustatten, so reist er in die Vergangenheit. Die Existenz von Wurmlöchern würde bedeuten, daß auch Zeitreisen möglich sind. Kehren wir zu einer Frage zurück, die wir uns zu Anfang des letzten Kapitels gestellt haben: Sind Zeitreisen, stabile Wurmlöcher und exotische Materie mit negativer Energie aus physikalischen Gründen< unmöglich? Wurmlöcher stellen nur ein Beispiel für Zeitmaschinen im Kontext der Allgemeinen Relativitätstheorie dar. Angesichts der bisherigen Ausführungen im Hinblick auf diese Theorie überrascht es kaum mehr, daß sich Reisen durch die Zeit bewerkstelligen lassen. Ich möchte hier die heuristische Version von Einsteins Gleichung wiederholen: linke Seite rechte Seite = {KRÜMMUNG} {MATERIE UND ENERGIE} Die linke Seite dieser Gleichung kümmert sich um die Geometrie der Raumzeit, die rechte um Verteilung von Materie und Energie. Wir fragen zum Beispiel: Welche Krümmung des Raums ergibt sich aus einer gegebenen Verteilung von Materie und Energie? Doch es geht auch anders herum. Für eine beliebige Geometrie des Alls darunter auch geschlossene zeitartige >Kurven< beziehungsweise >Kausalitätsschleifen<, die es ermöglichen, an den Ausgangspunkt in Raum und Zeit
zurückzukehren; durch die Kollision der Enterprise mit der Bozeman kam es zu einem derartigen Phänomen - teilen uns Einsteins Gleichungen mit, welche Verteilung von Materie und Energie existieren muß. Im Prinzip können wir uns also verschiedene Zeitreise-Universen konstruieren - aufgrund der Gleichungen wissen wir um die notwendigen Verteilungsmuster von Materie und Energie Bescheid. Anschließend lautet die Schlüsselfrage: Sind derartige Verteilungen von Materie und Energie möglich? Wir haben bereits gesehen, wohin diese Frage bei Wurmlöchern führt. Stabile Wurmlöcher brauchen exotische Materie mit negativer Energie. Kurt Gödels Modell von Zeitreisen unter Berücksichtigung der Allgemeinen Relativitätstheorie erfordert ein Universum mit konstanter, überall gleich beschaffener Energiedichte ohne Druck, das rotiert und sich nicht ausdehnt. Es wurde auch eine Zeitmaschine vorgeschlagen, bei der es um >kosmische Strings<* geht und die negative Energie benötigt. Inzwischen wurde bewiesen: Wenn im Zusammenhang mit der Allgemeinen Relativitätstheorie Zeitreisen möglich sein sollen, muß die Konfiguration auch Materie zulassen, die zumindest für einen Beobachter negative Energie hat. Fast alle Star Trek-Folgen, in denen Zeitreisen oder temporale Verzerrungen eine Rolle spielen, präsentieren dem Zuschauer irgendeine Form von katastrophaler Energieentladung, die oft einen Warpkern-Kollaps betrifft. Die Enterprise geriet nur deshalb in eine Kausalitätsschleife, nachdem (obwohl Begriffe wie >nachher< und >vorher< hier ihre Bedeutung verlieren) sie mit der Bozeman zusammenstieß, wodurch es zu einem Warpkern-Kollaps kam, der das Schiff vernichtete. Diese Ereignisse wiederholten sich immer wieder, bis es der Besatzung in einem Zyklus gelang, die Kollision zu vermeiden. In >Gefangen in einem temporären Fragment stellen Picard, Data, Troi und LaForge fest, daß die Zeit an Bord der Enterprise kurz anhält, und zwar aufgrund eines beginnenden Warpkern-Kollapses und fataler Veränderungen im Triebwerkskern eines nahen romulanischen Schiffes. In >Die Zukunft schweigt wird Picard von einem gewaltigen >Energiestrudel< in die Vergangenheit geschleudert. In der ersten Zeitreise-Episode, >Implosion in der Spirale<, wird Kirks Enterprise durch eine Warpkern-Implosion um drei Tage in die Vergangenheit versetzt. In der letzten Folge von Star Trek: Die nächste Generation, >Gestern, heute, morgen<, ist eine enorme Raumzeit-Störung durch den Zeitstrom in Richtung Vergangenheit unterwegs und bedroht das ganze Universum. Ihre Ursache: Drei verschiedene temporale Versionen der Enterprise explodieren gleichzeitig an einer ganz bestimmten Stelle im All. Im tatsächlichen Universum wie auch bei Star Trek: Zeitreisen scheinen von der Möglichkeit exotischer Materie-Konfigurationen abzuhängen. Wäre eine hochentwickelte fremde Zivilisation imstande, ein stabiles Wurmloch zu
* Dünne >Saiten< bzw. >Fäden< aus extrem hoch verdichteter Materie, die beim Urknall entstanden sind und das Universum durchziehen. - Anm. d. Hrsg.
konstruieren? Oder können wir die Aussage treffen, daß kein Verteilungsmuster von Materie und Energie - wie auch immer es beschaffen sein mag - Zeitreisen ermöglicht, weil >physikalische Gründe< dagegen sprechen? Die Antwort ist bis heute unbekannt. Einige Zeitmaschinen - Gödels Modell und das auf der StringsTheorie basierende System - haben sich gewissermaßen als >unphysikalisch< herausgestellt. Zeitreisen mit Hilfe von Wurmlöchern sind noch nicht auszuschließen, aber neuere Untersuchungen weisen auf folgendes hin: Vielleicht sorgen die quantengravitationellen Fluktuationen dafür, daß sich Wurmlöcher selbst zerstören, bevor sie Reisen durch die Zeit erlauben. Bis wir eine Theorie der Quantengravitation haben, läßt sich vermutlich keine endgültige Antwort auf die Frage nach der Möglichkeit von Zeitreisen finden. Trotzdem haben sich einige Wissenschaftler, unter ihnen auch Stephen Hawking, bereits zu einer Entscheidung durchgerungen. Hawking ist davon überzeugt, daß Zeitmaschinen unmöglich sind, und zwar aufgrund der offensichtlichen Paradoxa, die ihre Existenz mit sich brächte. Er hat eine >Theorie zum Schutz der Chronologie< postuliert, in der es heißt: »Die Gesetze der Physik erlauben nicht das Erscheinen von geschlossenen zeitartigen Kurven.« Ich persönlich bin geneigt, Hawking in diesem Fall zuzustimmen. Doch in der Physik haben Machtsprüche und Anordnungen keinen Sinn. Wie ich schon sagte: Die allgemeine Relativität spielt unseren naiven Erwartungen häufig einen Streich. Zwei historische Präzedenzfälle mögen als warnendes Beispiel dienen. In zwei (mir bekannten) Fällen haben angesehene Theoretiker behauptet, daß ein bestimmtes Phänomen nach der Allgemeinen Relativitätstheorie unmöglich sei und von den Gesetzen der Physik verboten werden sollte. 1. Als der junge Astrophysiker Subrahmanyan Chandrasekhar feststellte, daß Sterne mit mehr als dem l,4fachen der Sonnenmasse nach dem Verbrauch ihres Kernbrennstoffs nicht zu Weißen Zwergen werden, sondern unter ihrem eigenen Gewicht weiter zusammenbrechen, kommentierte der hochgeachtete Physiker Sir Arthur Eddington in aller Öffentlichkeit: »Verschiedene Zwischenfälle könnten zur Rettung des Sterns führen, aber ich wünsche mir mehr Schutz. Meiner Ansicht nach sollte ein Naturgesetz existieren, das den Stern daran hindert, sich auf eine so absurde Weise zu benehmen!« Damals teilten viele Astrophysiker Eddingtons Standpunkt. Ein halbes Jahrhundert später bekam Chandrasekhar für seine längst bestätigten Theorien den Nobelpreis. 2. Gut zwanzig Jahre nach Eddingtons Antwort auf Chandrasekhars Entdeckungen kam es während einer Konferenz in Brüssel zu einem ähnlichen Ereignis. J. Robert Oppenheimer, Physiker und Vater der Atombombe, hatte folgendes berechnet: Wenn sogenannte Neutronensterne - Überbleibsel von Supernovae und noch dichter als Weiße Zwerge - eine Masse haben, die über etwa das Zweifache der Sonnenmasse hinausgeht, so kommt es zu einem stellaren Kollaps. Das Ergebnis sind Objekte, die wir heute >Schwarze Löcher< nennen. Der ebenfalls sehr geachtete John Archibald
Wheeler bezeichnete solche Vorgänge als ausgeschlossen und nannte die gleichen Gründe wie vor ihm Eddington: Die Gesetze der Physik sollten Sterne vor einem so absurden Schicksal bewahren. Ein Jahrzehnt später mußte Wheeler auf der ganzen Linie kapitulieren, und ausgerechnet er war es, der den Schwarzen Löchern ihren Namen gab.
VIER
Data beendet das Spiel Denn in die Zukunft habe ich geschaut, so weit man sehen kann, Und dort sah ich die Vision der Welt, alle Wunder des Irgendwann. Aus >Locksley Hall<, von Alfred Lord Tennyson (Text an Bord der Voyager) Ob die Star Trek-Zukunft ein stabiles Wurmloch enthält oder nicht, ob die Crew der Enterprise tatsächlich einmal in das San Francisco des neunzehnten Jahrhunderts reist - eigentlich geht es bei diesem kosmischen Pokerspiel um eine der Fragen, die uns veranlaßten, über gekrümmte Raumzeit zu sprechen: Ist das Warptriebwerk möglich? Es dürfte ziemlich unwahrscheinlich sein, daß es in der Milchstraße von stabilen Wurmlöchern wimmelt, was bedeutet: Ohne einen Warpantrieb bleiben uns entferntere Teile der Heimatgalaxis für immer verschlossen. Jetzt wird es Zeit, uns jener zentralen Frage zuzuwenden. Die Antwort besteht aus einem hoffnungsvollen: »Vielleicht!« Erneut fällt die sprachliche Weitsicht der Star Trek-Autoren auf. Ich habe gezeigt, daß sich mit Raketentriebwerken keine interstellare Raumfahrt im Rahmen der Speziellen Relativitätstheorie betreiben läßt. Erstens: Im leeren Raum kann nichts schneller sein als das Licht. Zweitens: Je schneller Objekte werden, desto langsamer verstreicht für sie die Zeit. Drittens: Selbst wenn Raketenantriebe imstande wären, Raumschiffe bis auf annähernd Lichtgeschwindigkeit zu beschleunigen - dazu wäre enorm viel Treibstoff erforderlich. Die Idee besteht darin, keine Raketen irgendeiner Art für den Antrieb zu verwenden, sondern die Raumzeit selbst - indem man sie verzerrt.* Die allgemeine Relativität verlangt von uns, bei Bemerkungen über Bewegung sehr präzise zu sein. Wir sagen, nichts kann schneller sein als das Licht, aber eigentlich sollte es heißen: Nichts kann lokal schneller sein als das Licht. Anders ausgedrückt: Nichts kann schneller sein als das Licht, und zwar in bezug auf lokale Distanzmarkierungen. Aber bei einer gekrümmten Raumzeit müssen lokale Distanzmarkierungen nicht unbedingt auch globalen Charakter haben. * Das englische >warp< bedeutet soviel wie »krümmen, verzerren«. Darauf bezieht sich der Autor mit seinem Hinweis auf die »sprachliche Weitsicht« der Star Trek-Autoren. - Anm. d. Übers.
Nehmen wir das Universum als Beispiel. Nach der Speziellen Relativitätstheorie vergeht bei allen Beobachtern, die in bezug auf ihre lokale Umgebung stationär sind, die Zeit gleich schnell. Wenn wir durchs Universum reisen und in regelmäßigen Abständen Uhren im All zurücklassen, so können wir davon ausgehen, daß sie die gleiche Zeit messen. Durch die Allgemeine Relativitätstheorie ändert sich daran nichts. Uhren, die sich nicht bewegen, messen die gleiche verstrichene Zeit. Allerdings erlaubt es die allgemeine Relativität der Raumzeit, sich auszudehnen. Objekte auf gegenüberliegenden Seiten des Universums fliegen mit annähernd Lichtgeschwindigkeit fort, aber in bezug auf ihre lokale Umgebung bewegen sie sich kaum oder gar nicht. Wenn sich der Kosmos gleichmäßig ausdehnt und groß genug ist - beides scheint der Fall zu sein -, so existieren durchaus Objekte, die wir nicht sehen und die sich mit Überlichtgeschwindigkeit von uns entfernen. Doch wenn es in jenen fernen Regionen Zivilisationen gibt, so würden sie feststellen, daß in Hinblick auf ihre unmittelbare Umgebung keine Bewegungen stattfinden. Die Krümmung des Raums öffnet eine Hintertür in den Argumenten der Speziellen Relativitätstheorie - eine Hintertür, die groß genug ist, um ein Föderationsschiff hindurchzulassen. Wenn die Raumzeit manipuliert werden kann, so wird folgendes möglich: Objekte können sich lokal langsam bewegen, doch innerhalb einer >Raumblase< wären sie fähig, große objektive Entfernungen innerhalb kurzer Zeit zurückzulegen. Wir wissen bereits, daß extreme Manipulationen - die Verbindung von zwei weit entfernten Raumbereichen durch ein Wurmloch - Abkürzungen durch die Raumzeit schaffen. Nun, selbst wenn wir auf solche Maßnahmen verzichten: Überlicht-schnelle Raumfahrt ist vielleicht global möglich, wenn auch nicht lokal. Einen Beweis für die Plausibilität dieser Idee lieferte kürzlich ein Physiker in Wales, Miguel Alcubierre. Aus Spaß beschloß er, nach einer im Rahmen der Allgemeinen Relativitätstheorie zulässigen Möglichkeit für >Warpgeschwindigkeit< zu suchen. Er konfigurierte eine spezielle Raumzeit, in der ein Raumschiff die Entfernung zwischen zwei selbst weit entfernten Orten in sehr kurzer Zeit zurücklegen kann. Während des Flugs ist das Raumschiff in bezug auf die lokale Umgebung langsam genug, um keine Zeitdilatation zu riskieren - dadurch ist gewährleistet, daß die Uhren an Bord mit denen von Ausgangspunkt und Ziel synchronisiert bleiben. Offenbar erlaubt uns die allgemeine Relativität, den Kuchen zu essen und ihn gleichzeitig zu behalten. Die Idee ist eigentlich ganz einfach. Wenn die Raumzeit lokal so verzerrt werden kann, daß sie sich vor dem Raumschiff zusammenzieht und dahinter dehnt, so gleitet das Schiff zusammen mit der entsprechenden Raumzone nach vorn, wie ein Surfbrett auf einer Welle. In lokaler Hinsicht geht die Geschwindigkeit nie über die des Lichts hinaus, denn das Licht wird praktisch mitgenommen. Was geschieht dabei? Nun, stellen wir uns vor, an Bord des Raumschiffs zu sein. Wenn sich der Raum hinter uns stark ausdehnt, stellen wir fest: Plötzlich sind wir Lichtjahre von der Starbase entfernt, die wir gerade verlassen haben. Und wenn sich der Raum vor uns zusammenzieht... Dann rückt die eben noch viele Lichtjahre entfernte Starbase plötzlich in die Reichweite gewöhnlicher Raketentriebwerke.
Für die Expansion und Kontraktion des Raums sind starke Gravitationsfelder erforderlich. In diesem Modell läßt sich die Geometrie der Raumzeit so gestalten, daß sie sich nicht in der Nähe des Schiffes oder der Raumstationen befinden. Dort ist der Raum fast flach, wodurch die Uhren des Schiffes mit denen der Raumstationen synchronisiert bleiben. An irgendeinem anderen Ort im All machen sich enorme gravitationelle >Gezeitenkräfte< bemerkbar, aber daran gibt es nichts auszusetzen, solange wir uns in sicherer Entfernung von ihnen befinden. Vermutlich hatten die Star Trek-Autoren dieses Szenario im Sinn, als sie den Warpantrieb erfanden, auch wenn die technischen Beschreibungen davon abweichen. Die zuvor aufgeführten Bedingungen für interstellare Reisen sind damit erfüllt: 1. überlichtschneller Flug, 2. keine Zeitdilatation und 3. keine Verwendung von Raketentriebwerken. Allerdings muß an dieser Stelle auf einen wichtigen Punkt hingewiesen werden: Durch die allgemeine Relativität wird die Raumzeit dynamisch und veränderbar, was die Schaffung von >Designer-Raumzeiten< ermöglicht, in denen sich fast jede Art von Bewegung durch Raum und Zeit realisieren läßt. Doch in der Theorie wird die >gewünschte< Raumzeit immer mit einem ganz bestimmten Verteilungsmuster von Materie und Energie in Beziehung gesetzt. Darauf komme ich gleich zurück. Zunächst einmal: Das Wunder der >Designer-Raumzeiten< besteht darin, daß sie uns eine Rückkehr zu Newtons Herausforderung erlauben: Sie ermöglichen Trägheitsabsorber und Traktorstrahlen. Die Idee ist ähnlich beschaffen wie beim Warp-triebwerk. Wenn sich die Raumzeit in unmittelbarer Nähe des Schiffes krümmen läßt, so bewegen sich Objekte ohne lokale Beschleunigung - die bei Newton eine große Rolle spielt, wie Sie sich erinnern. Um die starken Beschleunigungen zu vermeiden, die für hohe Unterlichtgeschwindigkeiten notwendig sind, verwenden wir den gleichen Trick wie beim Warpflug. Dadurch verringert sich der Unterschied zwischen Warp- und Impulstriebwerk. Und wenn der Traktorstrahl ein schweres Objekt bewegen soll, zum Beispiel einen ganzen Planeten... Man braucht den Raum nur auf der einen Seite des Planeten auszudehnen und auf der anderen schrumpfen zu lassen. Ganz einfach! Die Verzerrung des Raums bietet auch noch andere Vorteile. Wenn sich die Raumzeit vor der Enterprise stark krümmt, so wird Licht - oder ein Phaserstrahl vom Schiff abgelenkt. Dieses Funktionsprinzip verbirgt sich hinter den Deflektoren. Im Zusammenhang mit den Schilden ist die Rede von >kohärenten GravitonEmissionen<. Wenn Gravitonen Partikel sind, die Gravitationskraft übertragen, dann erzeugen >kohärente Graviton-Emissionen< ein kohärentes Gravitationsfeld. Und kohärente Gravitationsfelder sind genau das richtige Mittel, um die Raumzeit zu krümmen! Auch hier haben die Star Trek-Autoren ein sicheres Gespür für die Terminologie bewiesen. Vielleicht basiert die Funktion der romulanischen Tarnvorrichtung auf dem gleichen Prinzip. Mehr noch: Wenn die Enterprise ihre Deflektoren aktiviert hat, sollte sie eigentlich unsichtbar sein. Objekte, die kein eigenes Licht ausstrahlen, sehen wir nur deshalb, weil sie Licht reflektieren. Die Tarnvorrichtung krümmt den Raum und lenkt Lichtstrahlen um das romulanische Schiff herum, so daß sie nicht
davon reflektiert werden können. Das geschieht auch, wenn sich die Enterprise in ihre Deflektoren hüllt: Sie lenken Licht und destruktive Energie ab. In diesem Zusammenhang ergibt sich eine Frage, die viele Star Trek-Fans bis zur TV-Episode >Das Pegasus-Projekt beschäftigte: Warum verwendet die Föderation keine Tarnvorrichtungen? Wenn eine Zivilisation die technischen Möglichkeiten hat, Schildgeneratoren zu konstruieren, so müßte sie auch imstande sein, Tarnvorrichtungen zu bauen. In >Das Pegasus-Projekt erfahren wir, daß ein Vertrag die Föderation daran hinderte, ihre Schiffe mit entsprechenden Apparaten auszustatten - technologische Probleme gab es offenbar nicht. (In der letzten Folge von Star Trek: The Next Generation, >Gestern, heute, morgen<, scheint die Föderation den Einsatz von Tarnvorrichtungen endlich zugelassen zu haben.) Angesichts dieses allgemein-relativistischen Bildes vom Warptriebwerk gewinnt die Warpgeschwindigkeit eine konkretere Bedeutung. Sie stünde in einem direkten Zusammenhang mit dem Kontraktions- und Expansionsfaktor des raumzeitlichen Volumens vor und hinter dem Schiff. Die Regeln der Warpgeschwindigkeit scheinen recht veränderlich zu sein. Zwischen der Classic-Serie und The Next Generation beschloß Gene Roddenberry offenbar, die Sache mit der Warpgeschwindigkeit neu zu regeln: Er legte Warp 10 als oberste Grenze fest. Daraus folgte, daß die Geschwindigkeit nicht logarithmisch zunehmen konnte, wobei Warpfaktor 10 auf 210 = 1024fache Lichtgeschwindigkeit hinauslief. Nach dem Next Generation Technical Manual beträgt die >normale< Höchstgeschwindigkeit der Enterprise-D Warp 9,6 - 1909fache Lichtgeschwindigkeit. Warp 10 gilt als unendlich. Trotz dieser Festlegung wird gelegentlich von Objekten berichtet, die angeblich schneller sind als Warp 10 (man denke nur an die Würfelschiffe der Borg). Man sollte sich also besser nicht zu sehr bemühen, alle Einzelheiten zu verstehen. Soweit die guten Nachrichten. Wenn wir davon ausgehen, daß ein Warptriebwerk tatsächlich möglich sein könnte, müssen wir uns nun den Konsequenzen stellen, die auf der rechten Seite von Einsteins Gleichung beschrieben sind. Welches Verteilungsmuster von Materie und Energie ist notwendig, um die erforderliche Krümmung der Raumzeit zu bewirken? Nun, dabei sieht's fast noch schlimmer aus als bei den Wurmlöchern. Wenn Beobachter mit holier Geschwindigkeit durch ein Wurmloch reisen, so können sie negative Energie messen. Für ein Warptriebwerk ist Materie nötig, bei der selbst ein in bezug aufs Raumschiff ruhender Beobachter - jemand an Bord - negative Energie feststellt. Kein sehr überraschendes Ergebnis. Wenn Wurmlöcher offen bleiben sowie Zeitreisen und Warpgeschwindigkeit möglich sein sollen, so verlangt die Allgemeine Relativitätstheorie, daß auf einem gewissen Niveau Materie andere Materie gravitationell abstößt. Nach einem Theorem der Allgemeinen Relativitätstheorie ähnelt diese Situation der Notwendigkeit, daß für manche Beobachter Materie negative Energie hat. Überraschend ist etwas anderes: Wenn man die Quantenmechanik mit der Speziellen Relativitätstheorie kombiniert, so ergibt sich: In einem mikroskopischen
Maßstab kann die lokale Verteilung von Energie durchaus negativ sein. Im dritten Kapitel habe ich bereits darauf hingewiesen, daß sich Quantenfluktuationen oft durch eine solche Eigenschaft auszeichnen. Die bis heute unbeantwortete Schlüsselfrage lautet: Lassen die uns bekannten Gesetze der Physik zu, daß auch makroskopische Materie negative Energie haben kann? Eins steht fest: Bisher wissen wir nicht, wie sich derartige Materie erzeugen ließe. Aber sehen wir einmal von den Problemen ab, die es mit sich brächte, solches Material, mit welchen Methoden auch immer, zu produzieren. Nehmen wir einfach an, daß es eines Tages möglich sein wird, durch quantenmechanische Manipulation von Materie oder leerem Raum diese exotische Substanz zu schaffen. Selbst in einem solchen Fall wären ungeheure Energiemengen notwendig, um das Gefüge der Raumzeit auf die oben beschriebene Art zu verändern. Um ein Beispiel zu nennen: Die Sonne hat ungefähr eine Million mal soviel Masse wie die Erde, doch das Gravitationsfeld an ihrer Oberfläche reicht gerade aus, das Licht um weniger als ein Tausendstel Grad zu krümmen. Stellen Sie sich jetzt die gewaltigen Gravitationsfelder vor, die ein Raumschiff erzeugen müßte, wenn heranrasende Phaserstrahlen um neunzig Grad abgelenkt werden sollen! (Dies ist einer der vielen Gründe, warum der >Katapulteffekt< - die Enterprise verwendete ihn zum erstenmal in der Classic-Episode >Morgen ist gestern<, um in die Vergangenheit zu reisen; der Vorgang wiederholt sich in >Star Trek IV: Zurück in die Gegenwart< und wird außerdem in der TV-Episode >Die Zukunft schweigt erwähnt< - völlig unmöglich ist. Das Gravitationsfeld im Bereich der Sonnenoberfläche ist winzig, wenn man es mit den gravitationellen Effekten vergleicht, die für eine ausreichend starke Krümmung der Raumzeit notwendig wären.) Wie können wir die Energie schätzen, die aufgewendet werden muß? Nun, man stelle sich vor, ein Schwarzes Loch in den Ausmaßen der Enterprise zu erzeugen - das Gravitationsfeld eines solchen Schwarzen Lochs wäre stark genug, um Lichtstrahlen abzulenken. Seine Masse betrüge etwa zehn Prozent der Sonnenmasse. In Energiewerten ausgedrückt: Um ein derartiges Schwarzes Loch zu schaffen, wäre mehr Energie nötig, als die Sonne während ihres ganzen Daseins als Stern produziert. Wie sieht die Situation aus? Wir wissen genug über die Natur der Raumzeit, um zu beschreiben, wie man zumindest prinzipiell gekrümmten Raum verwenden kann, um interstellare Reisen à la Star Trek zu ermöglichen. Uns ist auch klar: Ohne die genannten exotischen Elemente können wir vermutlich nie Ausflüge durch die Galaxis unternehmen. Andererseits haben wir keine Ahnung, ob die dargelegten physikalischen Bedingungen irgendwo dort draußen existieren oder sich - rein theoretisch -schaffen lassen. Und selbst wenn nichts dagegen spricht: Zivilisationen, die solche Prinzipien in die Praxis umsetzen, müßten über Energiemengen verfügen, die uns heute unvorstellbar erscheinen. Man könnte natürlich einen optimistischen Standpunkt vertreten und darauf hinweisen, daß die erwähnten Möglichkeiten wenigstens nicht von vorneherein ausgeschlossen sind. Sie hängen >nur< davon ab, ob sich exotische Materie und Energie erzeugen lassen. Es gibt den einen oder anderen Grund zur Hoffnung, doch ich bleibe skeptisch. Wie mein Kollege Stephen Hawking glaube ich, daß Zeitreisen
aufgrund der vielen damit verbundenen Paradoxa unmöglich sind. Da praktisch die gleichen Bedingungen in Hinsicht auf Energie und Materie für Warpgeschwindigkeit und Deflektoren notwendig sind, rechne ich nicht damit, daß sich so etwas jemals bewerkstelligen läßt. Freilich - ich kann mich irren. Trotz allem bleibe ich optimistisch. Jenes Wissen, das uns zu dieser faszinierenden Schwelle gebracht hat, ist für mich ein Grund zum Feiern. Wir leben im Seitenarm einer von hundert Milliarden Galaxien im beobachtbaren Kosmos. Wie Insekten auf einer Gummifläche können wir die wahre Gestalt des Universums nicht direkt erkennen. Doch im Verlauf von zwanzig Generationen - von Newton bis heute haben wir die einfachen Gesetze der Physik genutzt, um mehr über Raum und Zeit herauszufinden. Vielleicht können wir nie an Bord von Raumschiffen gehen, die zu anderen Sternen fliegen. Aber selbst als Gefangene dieses kleinen blauen Planeten waren wir imstande, viele Rätsel des Weltraums zu lösen. Und bestimmt gelingen uns weitere aufregende Entdeckungen. Vielleicht erlaubt es uns die Physik nicht, durch die Galaxis zu fliegen -aber sie ermöglicht es, die Galaxis zu uns zu holen.
SEKTION ZWEI
Materie, Materie – überall
Der Leser erforscht Transporterstrahlen, Warptriebwerke, Dilithiumkristalle, Materie-Antimaterie-Wandler und das Holodeck
FÜNF
Atome oder Bits »Reg, der Transporter bietet die sicherste Möglichkeit, von einem Ort zum anderen zu gelangen.« Geordi LaForge zu Lieutenant Reginald Barclay, in: >Todesangst beim Beamen< Das Leben imitiert die Natur. In letzter Zeit höre ich immer öfter die Frage: »Atome oder Bits - wo liegt die Zukunft?« Vor dreißig Jahren befaßte sich Gene Roddenberry mit ähnlichen Spekulationen, wenn auch aus anderen Gründen. Er hatte ein prächtiges Raumschiff - mit einem kleinen Problem: Die Enterprise konnte so elegant durchs All gleiten wie ein Pinguin durchs Wasser, doch auf festem Boden mußte sie ebenso schwerfällig sein. Außerdem: Angesichts des knappen Budgets für die Fernsehfolgen kam es nicht in Frage, jede Woche ein großes Raumschiff landen zu lassen. Wie sollte man dieses Problem lösen? Ganz einfach: Man sorgt dafür, daß das Schiff nie landen muß. Man finde einen anderen Weg, um die Besatzungsmitglieder auf den Planeten zu bringen. Auf der Grundlage dieser Überlegungen entstand der Transporter.* Kein anderer technischer Aspekt - abgesehen vielleicht vom Warptriebwerk - spielt bei den Star Trek-Episoden eine so wichtige Rolle. Selbst jene Leute, die Star Trek noch nie im Fernsehen oder Kino gesehen haben, kennen den berühmten Satz: »Beamen Sie mich an Bord, Scotty.« Diese Worte sind inzwischen Teil unserer öffentlichen Kultur geworden. Vor kurzer Zeit erfuhr ich von einem jungen Mann, der unter Alkoholeinfluß eine rote Ampel mißachtete und auf der Kreuzung ausgerechnet mit einem Streifenwagen zusammenstieß. Bei der Anhörung vor Gericht fragte man ihn, ob er etwas zu sagen hätte. Er antwortete: »Ja, Euer Ehren«, holte seine Brieftasche hervor, klappte sie auf und murmelte: »Beamen Sie mich an Bord, Scotty!« * In der Science Fiction allerdings schon seit Jahrzehnten als lichtschnelles Transportmittel bekannt, gemeinhin als >Materie-Transmitter< (MT) bezeichnet. Wer kennt nicht den Film >Die Fliege< (>The Fly<) von Kurt Neumann (1958) nach einer Erzählung von George Langelaan (1957), in dem versehentlich eine Fliege in den Materietransmitter gerät und der Protagonist (und das Insekt) halb als Mensch, halb als Fliege ankommt? - Anm. d. Hrsg.
Vielleicht ist diese Geschichte erfunden, aber sie zeigt trotzdem, wie sehr sich die hypothetische Technik des Transporters in unserer Gesellschaft ausgewirkt hat. Das ist um so erstaunlicher, da kein anderes Gerät an Bord der Enterprise weniger plausibel ist. Für die Konstruktion einer solchen Apparatur müßten mehr praktische und prinzipielle Probleme gelöst werden, als Sie ahnen. Beteiligt daran ist das ganze Spektrum der Physik und Mathematik, von der Informationstheorie über Quantenmechanik und Einsteins Beziehung zwischen Masse und Energie bis hin zur Elementarteilchenphysik. Womit wir wieder bei der eingangs gestellten Frage wären: Atome oder Bits? Nun, der Transporter transferiert sowohl Personen als auch Dinge. Wie können Besatzungsmitglieder möglichst schnell und effizient auf den Planeten gebeamt werden? Man bedenke, daß es dabei um den Transfer von 10hoch28 (eine Eins mit achtundzwanzig Nullen) Atomen geht. Eine solche Frage ist durchaus angebracht, denn vor dem gleichen Dilemma stehen wir bei der Verteilung jener etwa 10hoch26 Atome, aus denen ein durchschnittliches Taschenbuch besteht. Ein möglicherweise revolutionäres Konzept - diese Ansicht vertreten zumindest die Gurus der digitalen Medien - teilt uns mit: Die Atome selbst sind eigentlich nebensächlich; es kommt in erster Linie auf die Bits an. Kehren wir zum Beispiel des Buchs zurück. Eine Bibliothek kauft eins - oder auch mehrere, wenn der Autor Glück hat -, um es den vielen anderen hinzuzufügen und gelegentlich an jeweils einen Leser auszuleihen. In einer digitalen Bibliothek werden die gleichen Informationen in Form von Bits gespeichert. Bits haben den Wert l oder 0; man faßt sie zu Gruppen von jeweils acht zusammen, Bytes genannt, die Wörter oder Zahlen darstellen. Die Informationen sind in den magnetischen Speicherzellen eines Computers abgelegt: Eine magnetisierte Stelle repräsentiert dort eine l, eine nicht magnetisierte entspricht 0. Recht viele Personen können gleichzeitig auf das betreffende Speichersegment des Computers zugreifen, was bedeutet: Interessierte Leser, die sich unter anderen Umständen das Buch kaufen müßten, können sich in eine digitale Bibliothek einloggen und die Lektüre daheim auf ihrem Bildschirm genießen. Hier ist es wirklich zweitrangig, wo sich die Atome des Buches - das physische Objekt - befinden. Die Bits bieten weitaus mehr Effizienz (allerdings nicht, was das Honorar des Autors betrifft). Und Personen? Wenn man Leute transferiert: Müssen dann ihre Atome bewegt werden oder nur entsprechende Informationen? Man könnte zunächst annehmen, daß ein Transfer der Informationen wesentlich einfacher ist. Immerhin lassen sich Daten mit Lichtgeschwindigkeit übertragen. Allerdings ergeben sich bei Personen zwei Probleme, die sich bei Büchern nicht stellen: Zuerst muß man die Informationen gewinnen, was alles andere als einfach ist, und anschließend müssen sie wieder mit Materie verbunden werden. Menschen brauchen ihre Atome, um Menschen zu sein; bei Büchern sieht die Sache ein wenig anders aus. Offenbar haben sich die Star Trek-Autoren nie ganz klar gemacht, wie der Transporter funktionieren soll. Sendet er Atome und Bits, oder überträgt er nur die Daten? Vielleicht fragen Sie sich, warum ich diesen Punkt so hervorhebe, denn das
Next Generation Technical Manual beschreibt den Vorgang folgendermaßen: Zuerst wird der Transferfokus ausgerichtet. Dann wird das zu beamende Objekt gescannt, >entmaterialisiert< und vorübergehend in einem >Strukturspeicher< untergebracht. Später wird der >Materiestrom< mit einem ringförmigen Sperrstrahl< übertragen. Allem Anschein nach transferiert also der Transporter nicht nur die Informationen, sondern auch die Materie. Allerdings steht diese Beschreibung im Widerspruch zu den Darstellungen in manchen Fernsehfolgen. Bei mindestens zwei gut bekannten Gelegenheiten hat der Transporter eine Person entmaterialisiert, um anschließend zwei rematerialisieren zu lassen. In der berühmten klassischen Episode >Kirk: 2 = ?< bewirkt eine Fehlfunktion des Transporters, daß zwei Kirks entstehen, ein guter und ein böser. In >Riker: 2 = ?< kommt es zu einem noch interessanteren Zwischenfall. In jener Folge stellt sich heraus, daß Lieutenant Riker während eines Transfers vom Planeten Nervala IV zur Potemkin verdoppelt wurde. Eine Version kehrte sicher zur Potemkin zurück, und eine Reflexion brachte die andere zum Planeten, wo sie acht Jahre lang allein lebte. Wenn der Transporter sowohl den Materiestrom als auch das Datensignal überträgt, sind derartige Verdopplungen ausgeschlossen. Die Anzahl der Atome nach dem Transfer muß mit der vor dem Beamen übereinstimmen. Es ist völlig ausgeschlossen, auf diese Weise Repliken bestimmter Individuen herzustellen. Andererseits: Wenn nur Informationen transferiert werden, so lassen sie sich vielleicht mit spezieller Materie an Bord des Raumschiffs kombinieren. In einem solchen Fall wäre es möglich, beliebig viele Kopien zu produzieren. Ein ähnliches Problem mit dem Materiestrom ergibt sich, wenn Objekte als >reine Energie< ins All gebeamt werden. In >Die geheimnisvolle Kraft< beschließt Picard, die Fesseln des Substantiellen abzustreifen und sich als energetische Entität in den Weltraum zu beamen. Nach einigen unangenehmen und auch gefährlichen Erlebnissen holt man ihn zurück, und der Körper des Captains wird mit Hilfe des Strukturspeichers reproduziert. Doch wenn ein Materiestrom gesendet wurde, gibt es anschließend nichts mehr, das sich wiederherstellen ließe. Ungeachtet des Next Generation Technical Manual neige ich hier dazu, einen agnostischen Standpunkt einzunehmen. Befassen wir uns mit den Myriaden Problemen, die beide Möglichkeiten für sich genommen bereiten: der Transfer von Atomen oder von Bits. WENN EIN KÖRPER KEINEN KÖRPER HAT Eine der interessantesten Fragen in Hinsicht auf das Beamen wird erstaunlicherweise nur selten gestellt und lautet: Woraus besteht eigentlich ein Mensch? Sind wir nur die Summe unserer Atome? Anders ausgedrückt: Wenn wir jedes einzelne Atom des Körpers reproduzieren und dabei auch den jeweiligen Zustand berücksichtigen - entsteht dann eine absolut identische Person, mit den gleichen Erinnerungen, Hoffnungen und Träumen des Originals? Es gibt allen Grund
zu der Annahme, daß so etwas tatsächlich der Fall wäre. Allerdings kommt es an dieser Stelle zu einem Konflikt mit diversen Religionen, die von der Existenz einer >Seele< ausgehen. Gemeint ist ein vom Körperlichen unabhängiger geistiger Aspekt. Nun, viele Religionen behaupten, daß die >Seele< nach dem Tod >weiterlebt<. Was passiert mit ihr bei einem Transfer? Wenn sich eine Person an Bord der Enterprise beamt, und wenn niemand irgendwelche Veränderungen an ihr beobachtet... Wäre es nicht ein Beweis dafür, daß menschliche Wesen nur die Summe ihrer Komponenten sind? Bestimmt würden sich viele Religionen durch einen solchen Befund herausgefordert fühlen. In Star Trek vermeidet man dieses Thema aus offensichtlichen Gründen. Doch wenn man einmal von der rein physischen Natur von Ent- und Rematerialisierung beim Beamen absieht: In der Serie wird immer wieder auf die Existenz einer nebulösen >Lebenskraft< hingewiesen, die über das Körperliche hinausgeht. Im zweiten und dritten Star Trek-Film, Der Zorn des Khan und Auf der Suche nach Mr. Spock geht es um Spocks >Katra<, einen lebenden Geist, der getrennt vom Körper existieren kann. In der Voyagerfolge >Cathexis< wird Chakotays >neurale Energie< - eine Art Lebenskraft - von ihm getrennt; sie wandert im Schiff umher und sucht nach einer Möglichkeit, in den Körper zurückzukehren. Ich glaube nicht, daß man beides haben kann. Entweder ist die >Seele< beziehungsweise das >Katra< oder die >Lebenskraft< -Teil des Körpers, was bedeutet, daß wir vor allem und in erster Linie materielle Geschöpfe sind. Oder sie existiert unabhängig davon, woraus der Schluß gezogen werden müßte, daß sie beim Beamen zurückbleibt. Ich möchte keine religiösen Gefühle verletzen, nicht einmal die eines Vulkaniers, und deshalb bleibe ich bei dieser Diskussion neutral. Bevor wir fortfahren, will ich nur auf folgendes hinweisen: Hinter der Idee des Transporters steckt eine Annahme - daß es nur auf die Atome und Bits ankommt -, die nicht unumstritten ist. DAS PROBLEM MIT DEN BITS Viele der Probleme, auf die ich gleich zu sprechen komme, ließen sich vermeiden, wenn zusammen mit den Atomen nicht auch die Informationen übertragen werden sollen. Wer Zugang zum Internet hat, der weiß: Es ist ganz einfach, zum Beispiel die detaillierten Konstruktionspläne eines neuen Autos zusammen mit Fotos zu übermitteln. Weitaus schwieriger wird es, den Wagen zu bewegen. Nun, selbst beim Transfer der Daten ergeben sich zwei zentrale Probleme. Das erste lautet gewissermaßen: Wie lassen wir die Leiche verschwinden? Wenn nur Informationen transferiert werden, so müssen die Atome des Originals ja doch irgendwie entsorgt bzw. am Zielort neu geschaffen werden. Damit sind erhebliche Schwierigkeiten verbunden, denn immerhin geht es hier um 10hoch28 Atome. Nehmen wir einmal an, daß diese Masse in Energie verwandelt werden soll. Wie sähe das Ergebnis aus? Einsteins Formel E = mc2 teilt es uns mit: Wenn 50 Kilogramm Materie (ein leichter Erwachsener) in Energie umgewandelt werden, so erhalten wir das energetische
Äquivalent von tausend Wasserstoffbomben mit einer Sprengkraft von jeweils einer Megatonne. Derartige Transformationen lassen sich wohl kaum umweltschonend durchführen. Das zweite Problem: Wenn ein solcher Vorgang wirklich möglich wäre, könnte man Personen ganz einfach duplizieren. Das ließe sich wesentlich leichter bewerkstelligen als ein Transfer - immerhin braucht das Original nicht eliminiert zu werden. Nun, gegen die Replikation >toter< Materie gibt es nichts einzuwenden; an Bord von modernen Föderationsschiffen wird so etwas für ganz normal gehalten. Aber bei Menschen muß so etwas zu Komplikationen führen (wie bei Riker in >Riker: 2 = ?<). Die heutige Forschung hat im Hinblick auf rekombinante DNA viele ethische Fragen aufgeworfen. Sicher würden noch weitaus mehr protestierende Stimmen laut, wenn ganze Personen >kopiert< werden könnten, zusammen mit Erinnerungen und individueller Persönlichkeit. Menschen wären wie Computerprogramme, die sich problemlos duplizieren lassen. Sollte eine Replik Fehler aufweisen, greift man einfach auf eine Back-up-Version zurück. OH, BEHALTEN WIR DIE ATOME Angesichts der oben genannten Argumente läßt sich folgendes feststellen: Sowohl in praktischer als auch in ethischer Hinsicht wäre ein Transporter vorzuziehen, der den Materiestrom zusammen mit den Daten überträgt - wie es in Star Trek angeblich der Fall ist. Das Problem lautet dann: Wie bewegt man die Atome? Auch hier liegt die Herausforderung im Bereich der Energie; die Umstände sind allerdings etwas subtiler. Was ist notwendig, um etwas im Transporter zu >entmaterialisieren Um diese Frage zu beantworten, müssen wir uns zunächst eine andere stellen: Was ist Materie? Gewöhnliche Materie besteht aus Atomen, die sich ihrerseits aus sehr dichten Atomkernen und Elektronenschalen zusammensetzen. Im Chemie- und Physikunterricht Ihrer Schulzeit haben Sie erfahren, daß der größte Teil des Atomvolumens aus leerem Raum besteht. Der von den Elektronen beanspruchte Bereich ist etwa zehntausendmal größer als die Region des Atomkerns. Wenn Atome zum größten Teil leerer Raum sind - warum durchdringt Materie dann nicht andere Materie? Nun, eine Wand wird nicht wegen der Existenz von Partikeln massiv, sondern aufgrund der elektrischen Felder zwischen ihnen. Wenn ich die Hand auf den Schreibtisch lege, verschwindet sie nicht im Holz, weil die Elektronen in der Hand die elektrische Abstoßung durch die Elektronen in den Atomen des Schreibtischs zu spüren bekommen. Der Grund ist nicht etwa ein Mangel an Platz für die Elektronen. Die elektrischen Felder sorgen nicht nur dafür, daß Materie >substantiell< wird, sich also nicht wie Dampf gegenseitig durchdringen kann. Sie halten die Materie auch zusammen. Um diese normale Situation zu verändern, muß man die elektrischen Kräfte zwischen den Atomen überwinden. Dazu ist Arbeit notwendig, was Energie erfordert. Auf diese Weise funktionieren alle chemischen Reaktionen.
Die Konfiguration von Atomen und ihrer Bindung aneinander wird durch den Austausch von Energie verändert. Wenn man zum Beispiel einer Mischung aus Ammoniumnitrat und Heizöl Energie zuführt, sind die Moleküle der beiden Substanzen in der Lage, sich neu anzuordnen, wodurch die in der ursprünglichen Struktur enthaltene Bindungsenergie frei wird. Wenn das schnell genug geschieht, besteht das Ergebnis in einer gewaltigen Explosion. Die Bindungsenergie von Atomen ist äußerst gering im Vergleich zu der von Protonen und Neutronen, die den unglaublich dichten Atomkern bilden - die Bindungsenergie im Kern ist millionenfach stärker als im Bereich der Elektronen. Nukleare Reaktionen setzen deshalb weitaus mehr Energie frei als chemische deshalb sind Atomwaffen so schrecklich wirkungsvoll. Es gibt noch eine dritte Form der Bindungsenergie, und zwar die bei den >Quarks< genannten Elementarteilchen, aus denen die Protonen und Neutronen bestehen. Sie ist noch größer als die Bindungsenergie im Atomkern. Nach den letzten Berechnungen - auf der Grundlage einer Theorie, mit deren Hilfe sich die Wechselwirkungen zwischen Quarks beschreiben lassen -würde es eine unendliche Energiemenge erfordern, um die Quarks eines Protons oder Neutrons vollständig voneinander zu trennen. Angesichts der bisherigen Ausführungen könnte man vermuten, es sei unmöglich, die Bausteine der Materie in ihre fundamentalen Bestandteile - die Quarks - zu zerlegen. Eine solche Annahme ist durchaus richtig, solange wir dabei von gewöhnlichen Temperaturen ausgehen. Die bereits erwähnte Theorie schildert uns aber auch das Verhalten von Quarks im Innern der Nukleonen (Neutron, Proton sowie ihre Antiteilchen), wodurch wir erfahren: Wenn wir Nukleonen auf etwa 1000 Milliarden Grad erhitzen (das ist eine Million mal heißer als die Temperatur im Zentrum der Sonne), verlieren Quarks ihre Bindungsenergie. Und damit noch nicht genug: Bei solchen Temperaturen verliert die Materie plötzlich den größten Teil ihrer Masse. Sie verwandelt sich in Strahlung und >entmaterialisiert<, um den Sprachgebrauch von Star Trek zu verwenden. Um die Bindungsenergie der Materie auf dem elementarsten Niveau zu überwinden (auf dieses Niveau bezieht sich das Next Generation Technical Manual), braucht man sie >nur< bis auf 1000 Milliarden Grad zu erhitzen. Dafür sind etwa zehn Prozent der Ruhemasse von Protonen und Neutronen in Form von Wärme notwendig. Wenn ein Mensch auf eine solche Temperatur erhitzt werden soll, so braucht man 10 Prozent der Energie, die für eine Vernichtung der Materie nötig wäre - gemeint ist das energetische Äquivalent von hundert Wasserstoffbomben mit einer Sprengkraft von jeweils einer Megatonne. Wenn man diese Dinge berücksichtigt, erscheint die Möglichkeit eines funktionierenden Transporters immer absurder. Aber vielleicht brauchen wir bei der >Entmaterialisierung< nicht bis auf die Ebene der Quarks hinabzugehen. Vielleicht genügt es, die Materie auf dem Niveau der Protonen und Neutronen oder gar dem der Atome entmaterialisieren zu lassen. Dann wäre zwar immer noch viel Energie erforderlich, aber weniger als bei einer völligen Umwandlung. Die Sache hat nur einen Haken: Wenn wir dieses Problem gewissermaßen unter den Teppich kehren,
bekommen wir es mit einem anderen zu tun: Wenn der Materiestrom aus einzelnen Protonen, Neutronen und Elektronen - oder gar aus ganzen Atomen - besteht, muß er transferiert werden, und zwar möglichst schnell. Um Partikel wie Protonen und Neutronen auf fast Lichtgeschwindigkeit zu beschleunigen, muß man ihnen eine Energie verleihen, die mit der Energie ihrer Ruhemasse vergleichbar ist. Das ist zehnmal mehr Energie als notwendig wäre, um Protonen in Quarks zu >zerlegen<. Wie dem auch sei: Zwar erfordert es mehr Energie pro Partikel, um Protonen bis auf annähernd Lichtgeschwindigkeit zu beschleunigen, aber das läßt sich trotzdem leichter bewerkstelligen als eine ausreichend starke Erhitzung, um die Quarks der Nukleonen freizusetzen. Aus diesem Grund können wir heute - wenn auch unter großem finanziellen Aufwand Teilchenbeschleuniger wie zum Beispiel Fermilab's Tevatron in Batavia, Illinois, bauen, in denen einzelne Protonen bis auf 99,9 Prozent der Lichtgeschwindigkeit beschleunigt werden. Andererseits gibt es noch keine Beschleuniger, um Protonen mit genug Energie zu bombardieren, damit sie >schmelzen< und ihre Quarks freigeben. Genau darin besteht das Ziel, das mit der nächsten Generation leistungsstarker Teilchenbeschleuniger (einer wird gerade beim Brookhaven National Laboratoy auf Long Island gebaut) zu erreichen hoffen: Damit soll es möglich werden, Materie zu >schmelzen<. Und wieder bin ich von der geschickten, kompetenten Terminologie der Star TrekAutoren beeindruckt. Physiker bezeichnen das Schmelzen von Protonen zu Quarks als Phasenübergang. Wenn man im Next Generation Technical Manual blättert, so stellt man fest: Unter den Transporterkomponenten, die fürs Entmaterialisieren zuständig sind, befindet sich auch die Bezeichnung >Phasenübergangsspulen<. Die zukünftigen Entwickler von Transportern haben also die Wahl. Entweder finden sie eine Energiequelle, die um einen Faktor 10 000 mehr Energie liefert als die ganze Erde bisher verbraucht hat - dann könnten sie einen atomaren >Materiestrom< produzieren, der sich ebenso wie die Informationen mit annähernd Lichtgeschwindigkeit übertragen läßt. Oder sie senken den Energiebedarf um etwa den Faktor 10 und finden eine Möglichkeit, um Menschen innerhalb eines Sekundenbruchteils auf eine Temperatur zu erhitzen, die eine Million mal höher ist als die im Zentrum der Sonne. WENN DIES DIE DATENAUTOBAHN IST, DANN NEHMEN WIR BESSER DIE ÜBERHOLSPUR Ich sitze hier an einem Power PC und staune darüber, wie schnell sich diese neue Technik entwickelt hat. Es ist kaum zu glauben, daß ich meinen ersten Macintosh erst vor knapp zehn Jahren gekauft habe. Damals war der Arbeitsspeicher 128 Kilobyte groß, und heute stehen mir 16 Megabyte zur Verfügung. Die schnelle Workstation meines Büros im Case Western Reserve's Physics Department hat sogar 128 Megabyte. In nur einem Jahrzehnt hat das RAM-Potential also um den Faktor 1000 zugenommen! Diese enorme Zunahme wird begleitet von einem ebenso
beeindruckenden Kapazitätswachstum bei Festplattenlaufwerken. Mein erster Computer hatte überhaupt keine Festplatte und mußte sich mit Disketten begnügen, die jeweils 400 Kilobyte Daten aufnahmen. Die Maschine bei mir daheim ist mit einer 500 Megabyte großen Platte ausgestattet - auch das Speichervolumen hat um den Faktor 1000 zugenommen. Ähnlich imposante Verbesserungen zeigen sich bei der Verarbeitungsgeschwindigkeit. Der Rechner in meinem häuslichen Arbeitszimmer ist etwa hundertmal so schnell wie damals der Macintosh. Die Workstation im Büro dürfte noch zehnmal schneller sein - sie schafft bis zu fünfhundert Millionen Instruktionen in der Sekunde! Die erzielten Fortschritte sind wirklich beachtlich. Die schnellsten für allgemeine Zwecke verwendeten Computer sind in den vergangenen zehn Jahren um den Faktor 100 schneller und leistungsfähiger geworden. Ganz zu schweigen von den Rechnern, die speziellen Zwecken dienen: Jene kleinen Wunder verarbeiten bis zu zehn Milliarden Instruktionen pro Sekunde. Vielleicht müssen irgendwann in der Zukunft für bestimmte Aufgaben Computer gebaut werden, die auf biologischem DNASystem basieren. Ihre Kapazität wäre noch weitaus höher als die der heutigen Rechner. An dieser Stelle könnte man sich fragen, wohin das alles führt und ob die rasche Entwicklung in Zukunft so weitergeht. Ist ein solches Tempo überhaupt erforderlich? Nehmen wir nur einmal die in letzter Zeit so oft gepriesenen (und auch kritisierten) Datenautobahnen: Die Geschwindigkeit ihrer Weiterentwicklung wird vom Endanwender bestimmt. Wir sind nur in der Lage, eine bestimmte Menge an Informationen aufzunehmen. Wer schon einmal einige Stunden lang ohne Pause im Internet unterwegs gewesen ist, der weiß, was ich meine. Ich überlege oft: Mir steht ein großes Rechenpotential zur Verfügung, aber meine eigene Produktivität hat sich nicht annähernd so stark verbessert wie die Leistung des Computers. Der Grund dafür liegt auf der Hand: Ich stoße nicht etwa an die Grenzen des Computers, sondern an meine eigenen. Man hat bereits darauf hingewiesen, daß Computer aus diesem Grund die nächste Etappe in der menschlichen Evolution darstellen könnten. Eins steht fest: Selbst ohne Emotionen ist Data den übrigen Besatzungsmitgliedern in vielerlei Hinsicht überlegen. Und in >Wem gehört Data?< wurde er als vollberechtigte Lebensform definiert. Aber ich schweife ab. Ich habe deshalb auf die Zunahme des Computerpotentials im letzten Jahrzehnt hingewiesen, weil das Beamen den Umgang mit gewaltigen Datenmengen erfordert. Es dürfte Sie kaum überraschen, daß sich auch in dieser Hinsicht enorme Probleme ergeben. Stellen wir zunächst einmal fest, wie viele Informationen in einem menschlichen Körper codiert sind. Beginnen wir mit unserer Schätzung von 10hoch28 Atomen. Für jedes einzelne Atom müssen wir die Position speichern, wozu drei Koordinaten (x, y und z) nötig sind. Außerdem müssen wir den Zustand der Atome aufzeichnen: das energetische Niveau der Elektronen; die Frage, ob ein bestimmtes Atom mit einem anderen verbunden, also Teil eines Moleküls ist; ob das Molekül vibriert oder rotiert. Und so weiter. Gehen wir von der vorsichtigen Annahme aus, daß ein Kilobyte genügt, um alle Daten zu erfassen (so viele Informationen enthält etwa eine mit
doppeltem Zeilenabstand beschriebene Schreibmaschinenseite). Daraus folgt: Wir brauchen 1028 Kilobyte für das Transfermuster eines Menschen im Strukturspeicher. Ich betone es noch einmal: Das ist eine Eins mit achtundzwanzig Nullen. Vergleichen wir dies mit der gesamten Datenmenge aller jemals geschriebenen Bücher. Die größten Bibliotheken enthalten mehrere Millionen Bände, und wenn wir diese Zahlen addieren... Nehmen wir mal an, es gibt auf der Erde eine Milliarde verschiedene Bücher (eins für jeweils fünf Menschen). Nehmen wir weiterhin an, jedes Buch enthält das Äquivalent von tausend Schreibmaschinenseiten Informationen, also etwa ein Megabyte. Die Daten aller geschriebenen Bücher würden also 10hoch12 oder eine Million Millionen Kilobyte Speicherplatz benötigen. Das sind etwa sechzehn Größenklassen weniger als der Speicherbedarf für das Übertragungsmuster eines einzelnen Menschen! So große Zahlen kann man sich nicht mehr vorstellen, und deshalb benötigen wir einen Vergleich, um alles anschaulicher zu gestalten. Das Größenverhältnis zwischen der Datenmenge, die einen Menschen ausmacht, und dem Informationsgehalt aller jemals geschriebenen Bücher auf Erden ist ebenso wie das zwischen den Daten aller jemals geschriebenen Bücher und der Informationsmenge auf dieser Seite, die sie gerade lesen. Um es stark untertrieben auszudrücken: Es ist sehr schwer, so viele Daten zu verstauen. Derzeit kann die größte im freien Handel erhältliche Festplatte etwa 10 Gigabyte - beziehungsweise zehntausend Megabyte - Daten speichern. Wie viele solche Platten wären notwendig, um die Datenstruktur eines einzelnen Menschen aufzuzeichnen? Nehmen wir an, die einzelnen Platten sind jeweils 10 cm dick. Wir müßten so viele aufeinanderstapeln, daß ihre Säule ein Drittel der Strecke bis zum Zentrum der Milchstraße lang ist: etwa zehntausend Lichtjahre. Um eine solche Strecke zurückzulegen, wäre die Enterprise mit Warp 9 fünf Jahre lang unterwegs! Das Schreiben und Lesen solcher Informationen wäre ebenfalls ziemlich problematisch. Die schnellsten digitalen Transfermethoden können derzeit nicht mehr als 100 Megabyte pro Sekunde übertragen. Wie lange würde es bei einer solchen Geschwindigkeit dauern, alle erforderlichen Daten aufzuzeichnen? Die Zeitspanne entspricht dem Zweitausendfachen des geschätzten Alters des Universums (um die zehn Milliarden Jahre)! Man stelle sich die Dramatik vor: Kirk und McCoy sind gerade aus der Strafkolonie von Rura Pente entkommen. Sie können nicht 20000 Milliarden Jahre - nicht einmal tausend Jahre - darauf warten, in Sicherheit gebeamt zu werden. Nur einige wenige Sekunden müssen genügen, um eine im wahrsten Sinne des Wortes unvorstellbare Menge an Megabytes Daten zu übermitteln. Wenn der Vorgang länger dauert, bleibt den Gegnern Zeit genug, von den Waffen Gebrauch zu machen... Ich glaube, ich habe die Schwierigkeiten deutlich genug beschrieben. Im Vergleich dazu erscheint das menschliche Genom-Projekt geradezu banal und unbedeutend dabei geht es darum, den kompletten genetischen Code der menschlichen DNA aufzuzeichnen. Dieses Bemühen verschlingt viele Milliarden Dollar; schon seit einem Jahrzehnt wird daran gearbeitet, und zwar in vielen Laboratorien rund um den Globus. Vielleicht glauben Sie, daß ich dieses Projekt nur erwähne, um die Sache mit dem Transporter noch absurder erscheinen zu lassen. Nun, die Versuchung ist groß,
aber ich denke, in dieser Hinsicht könnte das dreiundzwanzigste Jahrhundert für eine Überraschung gut sein. Mein Optimismus basiert auf der derzeitigen Entwicklungsgeschwindigkeit der Computertechnik. Wenn wir von einer Leistungsverbesserung mit dem Faktor 100 pro Jahrzehnt ausgehen und diesen Wert durch 10 teilen, um ganz vorsichtig zu sein... Unter solchen Umständen könnte in zweihundertzehn Jahren, zu Beginn des dreiundzwanzigsten Jahrhundert die Computertechnik weit genug entwickelt sein, um den oben genannten Anforderungen des Datenspeichers und Informationstransfers zu genügen. Ich mache diese Aussage, obwohl mir das Wie schleierhaft bleibt. Um mehr als 10hoch25 Kilobyte Daten in einer Vorrichtung zu speichern, die eine gewisse Maximalgröße nicht übersteigt, müßte jedes Atom des betreffenden Objekts als Datenspeicher dienen. Biologische Computer, in denen molekulare Dynamik digitale logische Prozesse imitiert und die 10hoch25 Partikel des makroskopischen Musters simultan agieren, erscheinen mir in diesem Zusammenhang besonders vielversprechend. Ich sollte allerdings darauf hinweisen, daß ich kein Computerspezialist bin. Vielleicht gründet sich mein Optimismus nur auf Arroganz. Wie dem auch sei: Ich schöpfe Hoffnung, wenn ich an das Beispiel des menschlichen Gehirns denke. Mit seiner ungeheuren Komplexität und Leistungsfähigkeit ist es selbst den modernsten aktuellen Computern um Lichtjahre voraus. Wenn die natürliche Auslese imstande ist, ein so gutes Instrument für die Informationsspeicherung und den Datenabruf hervorzubringen, so können wir auf diesem Gebiet sicher noch viel leisten. DIE SACHE MIT DEN QUANTEN Ein weiteres Wort gießt noch mehr vom kalten Wasser der Realität über uns aus: Quantenmechanik. Wenn das Transportersystem Materie scannt und sie nach dem Transfer neu erschafft, so agiert es auf einer mikrophysikalischen Ebene. Dort herrschen nicht mehr die üblichen Gesetze der Physik, sondern die exotischeren Regeln der Quantenmechanik - danach können sich Teilchen wie Wellen verhalten und umgekehrt. Ich möchte hier keinen Kursus in Quantenmechanik veranstalten und nur auf folgendes hinweisen: Im mikrophysikalischen Bereich läßt sich der Vorgang des Beobachtens nicht mehr vom Beobachteten trennen. Wenn etwas gemessen wird, so ändert sich dadurch das gemessene System, meistens für immer. Dieses einfache Prinzip läßt sich auf verschiedene Weise ausdrücken, doch die in der Öffentlichkeit bekannteste Form dürfte Heisenbergs Unschärferelation sein. Dabei handelt es sich um ein fundamentales Gesetz, das den klassischen Determinismus der Physik über Bord zu werfen scheint (obwohl das, auf einem fundamentalen Niveau, nicht der Fall ist). Es unterteilt die Welt in zwei Bereiche beobachtbarer Quantitäten, gewissermaßen das Yin und Yang. Eine seiner Botschaften lautet: Ganz gleich, welche Technologien in der Zukunft entwickelt werden - es ist unmöglich, bestimmte Kombinationen von Beobachtungsobjekten (Observablen) mit ausreichend großer Genauigkeit zu messen. Wenn man zum Beispiel die Position eines Teilchens
feststellt, so können wir nicht seine exakte Geschwindigkeit in Erfahrung bringen, was bedeutet: Wir wissen nicht, wo es sich gleich befinden wird. Wenn wir den energetischen Zustand eines Atoms messen, so bleibt uns verborgen, wie lange das Atom in seinem gegenwärtigen Zustand verweilt. Diese Beziehungen bilden das Zentrum der Quantenmechanik, und sie haben immer Gültigkeit. Solange wir in Bereichen arbeiten, wo sich die Quantenmechanik auswirkt - alles deutet darauf hin, daß er größer ist als jenes Niveau, auf dem sich quantengravitationelle Effekte auswirken; gemeint ist eine Größenordnung von etwa 10hoch-33 cm -, müssen wir den entsprechenden Gesetzen gehorchen, ob es uns paßt oder nicht. Greifen wir auf ein beliebtes Beispiel zurück, um die Unschärferelation zu veranschaulichen. Nach der Quantenmechanik können sich Teilchen wie Wellen verhalten, und Wellen haben eine interessante Eigenschaft: Sie verändern sich nur, wenn sie auf Objekte stoßen, die größer sind als ihre Wellenlänge (also der Abstand zwischen den Wellenkämmen). Sie brauchen nur das Meer zu beobachten: Ein aus dem Wasser ragender kleiner Stein bleibt ohne Auswirkungen auf die an den Strand rollenden Wellen; bei Felsen hingegen lassen sich Zonen ruhigen Wassers erkennen. Wenn wir ein Atom >beleuchten< wollen - wenn Licht davon reflektiert werden soll, damit wir es sehen können -, so müssen wir Licht mit einer Wellenlänge wählen, die klein genug ist, um das Atom nicht zu beeinflussen. Aufgrund der Quantenmechanik wissen wir, daß Lichtwellen aus kleinen >Paketen< beziehungsweise Quanten bestehen, die man Photonen nennt (so wie in den >Photonentorpedos< der Enterprise, die natürlich nicht aus Photonen bestehen). Die individuellen Photonen jeder Wellenlänge haben eine Energie, die umgekehrt proportional zur Wellenlänge ist. Je größer die von uns gewünschte Auflösung, desto kleiner muß die Wellenlänge des Lichts sein. Doch je kleiner die Wellenlänge wird, desto mehr nimmt die Energie der Lichtquanten zu. Wenn wir ein Atom mit einem hochenergetischen Photon bombardieren, um es zu beobachten, so können wir genau feststellen, wo sich das Atom in dem Moment befand, als es vom Photon getroffen wurde. Doch der Vorgang des Beobachtens selbst - der Umstand, daß wir das Atom mit einem Photon beschießen - überträgt Energie auf das Atom, wodurch sich seine Geschwindigkeit und Bewegungsrichtung verändern. Deshalb ist es unmöglich, Atome und ihre energetische Konfiguration genau genug zu messen, um ein menschliches Strukturmuster exakt zu reproduzieren. Ein Rest von Ungewißheit bei einigen Observablen ist unvermeidlich. Was das für die biologische Integrität eines Menschen nach dem Retransfer bedeutet, bleibt Spekulationen überlassen. Die Star Trek-Autoren sind sich dieses Problems durchaus bewußt gewesen. Ihnen war klar, daß die quantenmechanischen Gesetze erhebliche Probleme für die Funktion des Transporters schaffen. Daraufhin setzten sie ein Mittel ein, das Wissenschaftlern nur in einem sehr beschränkten Maße zur Verfügung steht: künstlerische Freiheit. Sie schufen >Heisenberg-Kompensatoren<, die eine >Quanten-Auflösung< von Objekten gestatten. Als man den technischen Berater von
Star Trek, Michael Okuda, danach fragte, wie Heisenberg-Kompensatoren funktionieren, antwortete er nur: »Gut, danke.« Heisenberg-Kompensatoren erfüllen auch noch einen anderen Zweck. Viele Zuschauer haben sich vielleicht wie ich gefragt, warum der Transporter nicht auch als Replikator von Lebensformen fungiert. Immerhin gibt es an Bord der modernen Föderationsschiffe Replikatoren, die auf eine verbale Anweisung hin zum Beispiel Gläser mit Wein oder Wasser produzieren. Nun, offenbar funktioniert die Replikatortechnik nur auf molekularer Ebene und nicht auf der von Quanten. Das ist angeblich die Erklärung dafür, weshalb keine Replikation lebender Wesen möglich ist. Vielleicht erklärt es auch, warum sich Besatzungsmitglieder immer wieder über die synthetisierte bzw. >replizierte< Nahrung beklagen und Riker es vorzieht, seine Omeletts auf traditionelle Weise zu braten. SEHEN IST GLAUBEN Es gibt noch ein Problem für den Transporter - als hätten wir nicht schon genug. Der Transfer auf einen Planeten dürfte bereits recht schwer sein, aber in der entgegengesetzten Richtung ergeben sich noch weitaus mehr Schwierigkeiten. Um ein Besatzungsmitglied zurückzubeamen, müssen die Sensoren der Enterprise in der Lage sein, die betreffende Person auf dem Planeten zu orten. Es ist sogar erforderlich, sie zu scannen - erst dann kann die Entmaterialisierung sowie die Übertragung des Materiestroms erfolgen. Zur technischen Ausstattung der Enterprise muß also ein Teleskop gehören, das leistungsfähig genug ist, um Dinge auf - und manchmal sogar unter - der Oberfläche des Planeten bis hin zu atomaren Details aufzulösen. Die normale Reichweite des Transporters beträgt etwa vierzigtausend Kilometer, was ungefähr dem dreifachen Durchmesser der Erde entspricht. Diese Zahl verwenden wir bei den folgenden Schätzungen. Jeder hat Fotos von den Kuppelbauten großer Teleskope gesehen. Ich denke nur an das Keck-Teleskop auf Hawaii (das größte der Welt) oder das Mt. Palomar-Teleskop in Kalifornien. Haben Sie sich jemals gefragt, warum man immer größere Teleskope plant und baut? (Es liegt nicht daran, daß die Wissenschaft von Größe besessen ist diesen Vorwurf erheben manche Leute, unter ihnen auch Mitglieder des Kongresses.) Nun, wir benötigen größere Teilchenbeschleuniger, wenn wir die Struktur der Materie in immer kleineren Bereichen erforschen wollen. Ebenso verhält es sich mit Teleskopen: Immer größere sind notwendig, um in noch fernere Regionen des Universums zu blicken. Der Grund dafür: Aufgrund seiner besonderen Natur neigt das Licht zur Diffraktion, wenn es die Linse eines Teleskops passiert. Es dehnt sich gewissermaßen etwas aus, weshalb man keinen einzelnen Lichtpunkt sieht, sondern eine verschwommene Scheibe. Wenn der Abstand zwischen zwei punktförmigen Lichtquellen geringer ist als die Größe ihrer Scheiben, so lassen sich die beiden Objekte aufgrund einer Überlappung der Scheiben nicht mehr voneinander trennen. Astronomen sprechen in diesem Zusammenhang von sogenannten >Sehscheiben<. Je
größer die Linse, desto kleiner die Sehscheibe. Also: Um immer kleinere Objekte aufzulösen, müssen Teleskope immer größere Linsen haben. Es gibt noch einen anderen wichtigen Punkt bei der Auflösung kleiner Objekte durch ein Teleskop. Die Wellenlänge des Lichts - beziehungsweise die Wellenlänge der Strahlung, die als Medium für die Übertragung von Informationen benutzt wird muß geringer sein als die Größe des zu untersuchenden Objekts (siehe die Ausführungen weiter oben). Wenn man also Materie im atomaren Bereich auflösen möchte - es geht dabei um einige Milliardstel Zentimeter -, braucht man eine Strahlung, deren Wellenlänge weniger als etwa ein Milliardstel Zentimeter beträgt. Im elektromagnetischen Spektrum bedeutet das die Verwendung von Röntgen- oder Gammastrahlen. Daraus ergibt sich sofort ein Problem, denn solche Strahlungen sind schädlich für Lebensformen. Die Atmosphäre eines Planeten wirkt in diesem Zusammenhang wie ein Filter; das ist auch bei der Lufthülle unserer Erde der Fall. Der Transporter kann also keine elektromagnetischen Strahlungen verwenden, sondern muß Neutrinos oder Gravitonen benutzen. Daraus resultieren weitere Schwierigkeiten, auf die hier jedoch nicht näher eingegangen werden soll... Unsere Berechnungsgrundlage lautet: Die Enterprise setzt Strahlungen mit einer Wellenlänge von weniger als einem Milliardstel Zentimeter ein und scannt ein vierzigtausend Kilometer entferntes Objekt bis hin zur atomaren Ebene. Unter solchen Voraussetzungen braucht sie ein Teleskop mit einer etwa 50000 Kilometer durchmessenden Linse! Wäre sie kleiner, gäbe es nicht einmal eine prinzipielle Möglichkeit, bis hin zur atomaren Tiefe aufzulösen. Ich fürchte, zukünftige Raumfahrer müssen eine andere Möglichkeit finden, um fremde Planeten zu besuchen und anschließend zu ihrem Raumschiff zurückzukehren. Ich habe mein Versprechen gehalten. Durch die Untersuchung des Transporters fanden wir Gelegenheit, uns nicht nur mit Quantenmechanik zu befassen, sondern auch mit Partikelphysik, Computerwissenschaft, Einsteins Masse-Energie-Gleichung und sogar der menschlichen Seele. Wir sollten nicht zu entmutigt sein, weil es offenbar unmöglich ist, ein Gerät mit den erforderlichen Funktionen zu konstruieren. Man könnte es auch so ausdrücken: Wenn ein Transporter wirklich funktionieren soll, müßte man die zu transferierende Materie auf eine Temperatur erhitzen, die eine Million mal höher ist als die im Zentrum der Sonne; es wäre nötig, für eine einzelne Maschine mehr Energie bereitzustellen, als die ganze Menschheit derzeit produziert; man brauchte ein Teleskop, das größer ist als die Erde, und Computer, die um einen Faktor von 1000 Milliarden Milliarden leistungsfähiger sind als unsere heutigen Modelle. Außerdem müßte ein Weg gefunden werden, die Gesetze der Quantenmechanik zu umgehen. Kein Wunder, daß sich Lieutenant Barclay so sehr vor dem Beamen fürchtete! Wenn es Gene Roddenberry im wirklichen Leben mit solchen Herausforderungen zu tun gehabt hätte... Vermutlich hätte er sich trotz des knappen Budgets entschlossen, ein Raumschiff zu bauen, das auf Planeten landen kann.
SECHS
Wieviel kostet die Energie? Nichts Unwirkliches existiert. Kir-kin-thas Erstes Gesetz der Metaphysik (Star Trek IV - Zurück in die Gegenwart) Wenn man Chicago verläßt und auf der Interstate 88 dreißig Meilen weit fährt, so weicht die urbane Hektik bei Aurora der weiten Prärie des Mittelwestens. Flach und wie endlos erstreckt sie sich, so weit der Blick reicht. Im Norden der Interstate gibt es einen Bereich, der von etwas umringt ist, das wie ein runder Burggraben aussieht. Auf dem Anwesen sieht man grasende Büffel sowie viele Enten und Gänse bei mehreren Teichen. Sechs Meter darunter hat es mit der Beschaulichkeit ein Ende. Vierhunderttausend Mal in der Sekunde trifft ein hochenergetischer Strahl aus Antiprotonen auf Protonen, wodurch Hunderte und Tausende von sekundären Teilchen entstehen: Elektronen, Positronen, Pionen und so weiter. Ich spreche vom Fermi National Accelerator Laboratory, kurz Fermilab genannt. Dieser Teilchenbeschleuniger hat derzeit das größte energetische Potential auf der ganzen Welt. Wichtiger für uns ist dies: Es handelt sich um das größte >Lager< von Antiprotonen auf unserem Planeten. Hier existiert Antimaterie außerhalb der Science Fiction. Sie ist vielmehr eine Substanz, mit der Tausende von Wissenschaftlern und Forschern ihren Lebensunterhalt bestreiten. In dieser Hinsicht ähnelt das Fermilab der U.S.S. Enterprise. Antimaterie spielt eine wesentliche Rolle für das Raumschiff: Sie liefert die Energie fürs Warptriebwerk. Ich habe bereits darauf hingewiesen, daß es keine bessere Möglichkeit für interstellare Reisen gibt (Raketenantriebe kommen dafür gewiß nicht in Frage). Wenn es zwischen Antimaterie und Materie zu einem Kontakt kommt, so verwandeln sich beide in Strahlung - die so schnell ist wie das Licht. Mit der Aufbewahrung von Antimaterie sind aus verständlichen Gründen erhebliche Probleme verbunden. Wenn die Abschirmsysteme versagen - wie bei der Enterprise kurz nach der Kollision mit der Bozeman, oder wie bei der Yamato aufgrund der ikonianischen Computerwaffe -, so ist völlige Vernichtung die Folge. Die Isolierung von Antimaterie hat für Föderationsschiffe so große Bedeutung, daß man sich fragt, wieso Lieutenant Commander Deanna Troi nur wenig von den Folgen eines Schirmfeldproblems beim Warptriebwerk weiß, als die Enterprise in >Katastrophe auf der Enterprise< mit zwei Quantenfragmenten kollidiert. Der
Umstand, daß sie >nur< eine psychologische Ausbildung hinter sich hat, ist keine Entschuldigung für eine derartige Unwissenheit! Das Abschirmsystem für Antimaterie an Bord von Raumschiffen erscheint mir plausibel. Es verwendet die gleichen Prinzipien wie das Fermilab zur >Lagerung< von Antiprotonen. Antiprotonen und Antielektronen (>Positronen< genannt) sind elektrisch geladene Teilchen. In der Gegenwart eines Magnetfelds bewegen sich solche Partikel in kreisförmigen Bahnen. Wenn man die Teilchen in elektrischen Feldern beschleunigt und sie dann einem angemessen starken Magnetfeld aussetzt, so fliegen sie in Kreisen, deren Größe sich festlegen läßt. Auf diese Weise kann man sie in einem Behälter unterbringen, ohne zu riskieren, daß sie die Wände berühren. Das gleiche Prinzip verwendet man bei den sogenannten Tokomak-Geräten: Sie dienen zur Stabilisierung und Isolation von hochenergetischem Plasma, das man für Experimente in Hinblick auf die kontrollierte Kernfusion braucht. Die Antiprotonenquelle des Fermilab enthält einen großen Ring aus Magneten. Partikelkollisionen im mittleren energetischen Bereich lassen Antiprotonen entstehen, die dann in den Ring geleitet und dort >aufbewahrt< werden, bis man sie für hochenergetische Kollisionen braucht - die finden in der Tevatron-Sektion des Fermilab statt. Das Tevatron bildet einen noch größeren Ring, mit einem Umfang von ungefähr vier Meilen. Protonen werden darin in einer Richtung beschleunigt, Antiprotonen in der anderen. Wenn man das Magnetfeld sorgfältig genug ausrichtet, bleiben die beiden Partikelströme die meiste Zeit über voneinander getrennt. An ganz bestimmten Stellen überschneiden sie sich jedoch, und die dort stattfindenden Kollisionen sind das Untersuchungsobjekt der Wissenschaftler. Wenn wir einen Materie-Antimaterie-Antrieb benutzen wollen, ergibt sich außer der Abschirmung noch ein weiteres unmittelbares Problem: Wo sollen wir uns die Antimaterie beschaffen? Soweit wir das bisher feststellen können, besteht der größte Teil des Universums aus Materie und nicht aus Antimaterie. In dieser Hinsicht können wir Gewißheit erlangen, indem wir die hochenergetischen kosmischen Strahlen untersuchen - die meisten von ihnen haben ihren Ursprung außerhalb der Milchstraße. Wenn hochenergetische kosmische Strahlen auf Materie treffen, sollten gewisse Antipartikel entstehen. Bei einer Untersuchung der >Signatur< der kosmischen Strahlung in einem breiten energetischen Spektrum stellt sich heraus: Das Antimaterie-Signal entspricht voll und ganz dem gerade genannten Phänomen; nichts deutet auf eine primordiale Antimaterie-Komponente hin. Ein weiteres mögliches Zeichen von Antimaterie im Universum wäre die Annihilationssignatur von Kollisionen zwischen Teilchen und Antiteilchen. Wo beide Materiearten vorkommen, müßte sich die charakteristische Strahlung der gegenseitigen Zerstörung feststellen lassen. Auf diese Weise suchte die Enterprise nach der kristallinen Entität, die einen Außenposten der Föderation vernichtet hatte. Offenbar hinterließ die Wesenheit eine Spur aus Antiprotonen. Die Sensoren der Enterprise konnten die spezielle Annihilationsstrahlung orten, was Picard und seine Crew in die Lage versetzte, zur Entität aufzuschließen und sie daran zu hindern, einen weiteren Planeten anzugreifen.
Was die Idee betrifft, haben die Star Trek-Autoren gute Arbeit geleistet, doch die Details stimmen nicht. Dr. Marr und Data suchen nach Gammastrahlenimpulsen im Bereich von >10 keV< - gemeint sind 10 Kiloelektronenvolt; damit wird die Energiestärke von Strahlung angegeben. Doch der hier angegebene Wert stimmt nicht und kann auf keinen Fall der Annihilationsenergie von Protonen und Antiprotonen entsprechen. Das leichteste bekannte Teilchen mit einer Masse ist das Elektron. Wenn sich Elektronen und Positronen gegenseitig auflösen, so entsteht ein Gammastrahlenimpuls mit 511 keV, was der Masse des Elektrons entspricht. Protonen und Antiprotonen würden einen Impuls mit der Ruheenergie des Protons erzeugen, etwa l GeV (Gigaelektronenvolt) - hunderttausendmal die Energie, nach der Marr und Data Ausschau halten. (Übrigens: 10 keV entspricht der Energie von Röntgenstrahlen und nicht von Gammastrahlen, die für gewöhnlich eine Energie von mehr als 100 keV haben. Aber ich möchte es hier mit der Kritik nicht übertreiben...) Astronomen und Physiker haben nach Signalen mit 511 keV und auch im Bereich von Gigaelektronenvolt Ausschau gehalten - entsprechende Strahlungen hätten einen sicheren Hinweis auf die Annihilation von Materie und Antimaterie geboten. Doch die Suche ist erfolglos geblieben. Dieser Umstand sowie die Untersuchungen bezüglich der kosmischen Strahlung deuten auf folgendes hin: Wenn es irgendwo im Universum beträchtliche Mengen von Antimaterie gibt, so hat sie keinen Kontakt mit gewöhnlicher Materie. Mit normaler Materie sind wir vertrauter als mit Antimaterie. Uns erscheint es normal, daß der Kosmos aus gewöhnlicher >Substanz< besteht. Nun, eigentlich erübrigt es sich, in diesem Zusammenhang von >normal< und >gewöhnlich< zu sprechen. Die Frage, wie sich in unserem Universum Materie gegenüber Antimaterie durchsetzen konnte, gehört zu den interessantesten ungelösten Problemen der heutigen Physik. Auf diesem Gebiet wird derzeit viel geforscht. Die Tatsache, daß weitaus mehr Materie als Antimaterie existiert, spielt für unsere Existenz - und damit auch für Star Trek - eine große Rolle. Deshalb sollten wir uns hier ein wenig Zeit nehmen, um näher darauf einzugehen. Als die Quantenmechanik entwickelt wurde, wandte man sie zunächst bei Phänomenen der Kernphysik an; insbesondere fand man endlich eine Erklärung für das Verhalten von Elektronen. Allerdings mußte man dabei berücksichtigen, daß entsprechende Untersuchungen Beschränkungen unterlagen, denn die Geschwindigkeit von Elektronen liegt meistens ein ganzes Stück unter der des Lichts. Fast zwei Jahrzehnte lang blieb das Problem ungelöst, die Effekte der Speziellen Relativitätstheorie mit der Quantenmechanik in Einklang zu bringen. Warum dauerte es so lange? Nun, die spezielle Relativität läßt sich direkt anwenden, doch die Quantenmechanik erfordert nicht nur eine ganz neue Perspektive, sondern auch neue mathematische Methoden. Während der ersten dreißig Jahre dieses Jahrhunderts waren die besten Physiker damit beschäftigt, das erstaunliche neue Bild vom Universum zu erforschen. Zu jenen Wissenschaftlern gehörte Paul Adrien Maurice Dirac. Wie sein Nachfolger Hawking - und später Data - wurde er Professor für Mathematik an der Universität von Cambridge. Als Schüler von Lord Rutherford und Kollege von Niels
Bohr war er besser als viele andere qualifiziert, die Quantenmechanik auf den Bereich des Ultraschnellen anzuwenden. Im Jahr 1928 schrieb er - wie Einstein vor ihm - eine die Welt verändernde Gleichung. Die Dirac-Gleichung beschreibt exakt das relativistische Verhalten von Elektronen unter vollen quantenmechanischen Bedingungen. Kurz nach der Entwicklung seiner Gleichung erkannte Dirac: Für die mathematische Konsistenz war ein weiteres Teilchen nötig, mit gleich starker aber entgegengesetzter Ladung wie beim Elektron. Nun, von einem solchen Korpuskel wußte man bereits - dem Proton. Doch Diracs Gleichung legte ein Teilchen mit der gleichen Masse wie beim Elektron nahe, und das Proton ist fast zweitausendmal schwerer. Die Diskrepanz zwischen Beobachtung und >naiver< Interpretation der Mathematik blieb vier Jahre lang rätselhaft. Bis der amerikanische Physiker Carl Anderson in der kosmischen Strahlung ein Teilchen entdeckte, das die gleiche Masse hatte wie ein Elektron, jedoch über die entgegensetzte - eine positive - elektrische Ladung verfugte. Dieses >Antielektron< wurde bald als Positron bekannt. Seit damals ist klar: Eine unvermeidliche Konsequenz der Kombination von spezieller Relativität und Quantenmechanik besteht darin, daß alle in der Natur vorkommenden Teilchen auch Antiteilchen haben müssen, deren elektrische Ladung (falls eine existiert) sowie die übrigen Eigenschaften das Gegenteil von dem ihrer Partikelbrüder darstellen. Wenn alle Teilchen Antiteilchen haben... Dann spielt es eigentlich keine Rolle, welche Partikel wir für >normal< halten und welche nicht. Vorausgesetzt natürlich, daß die physikalischen Vorgänge keine >Vorliebe< für die eine oder andere Materieart zeigen. In der klassischen Welt des Elektromagnetismus und der Gravitation ist das nicht der Fall. Jetzt stecken wir in einem Dilemma. Wenn es für Teilchen und Antiteilchen die gleiche Grundlage gibt - warum haben die ursprünglichen Bedingungen im Kosmos dann dazu geführt, daß sich die für uns >normale< Materie gegenüber der Antimaterie durchsetzte? Müssen wir nicht davon ausgehen, daß unmittelbar nach Entstehung des Universums Partikel und Antipartikel gleichmäßig verteilt waren? Durch diese Angabe ergibt sich eine weitere Frage: Wenn die Gesetze der Physik nicht zwischen Materie und Antimaterie unterscheiden - wieso konnte dann die eine über die andere dominieren? Entweder existiert eine fundamentale Größe im Universum - das Verhältnis von Partikeln zu Antipartikeln -, die zu Beginn der Zeit festgelegt wurde und an der die physikalischen Gesetze nichts ändern können. Oder es gibt einen Mechanismus, der die spätere dynamische Entstehung von mehr Materie als Antimaterie erklärt. In den sechziger Jahren trat der berühmte sowjetische Wissenschaftler und spätere Dissident Andrej Sacharow mit folgendem Vorschlag an die wissenschaftliche Gemeinschaft heran. Wenn bei den Gesetzen der Physik in der Anfangsphase des Universums drei Bedingungen erfüllt waren, so könnte eine dynamische Asymmetrie zwischen Materie und Antimaterie entstehen, selbst wenn zu Beginn keine solche Asymmetrie existierte. Als Sacharow diese Hypothese präsentierte, fehlten noch physikalische Theorien zur Beschreibung der drei Bedingungen. Doch seit damals haben sich Partikelphysik und Kosmologie weiterentwickelt. Heute kennen wir
mehrere Theorien, die prinzipiell den beobachteten Unterschied zwischen der Menge an Materie und Antimaterie erklären können. Allerdings: Sie alle erfordern neue physikalische Regeln und neue Elementarteilchen, um plausibel zu sein. Wir können erst dann eine Wahl treffen, wenn uns die Natur den richtigen Weg weist. Wie dem auch sei: Viele Physiker, unter ihnen ich selbst, finden Trost in der Vorstellung, daß wir eines Tages mit exakten Berechnungen feststellen können, weshalb es die für unsere Existenz so wichtige Materie in der beobachteten Menge gibt. Wenn wir bereits die richtige Theorie hätten... Welche Zahlen wären dann notwendig? Wie viele zusätzliche Protonen im Vergleich zu Antiprotonen gab es im frühen Universum, um die heutige Dominanz der Materie zu erklären? Ein Hinweis ergibt sich, wenn wir die Menge an Protonen mit der von Photonen -gemeint sind jene Elementarteilchen, die das Licht bilden - in Beziehung setzen. Wenn das Universum mit ebenso vielen Protonen wie Antiprotonen begann, so kam es zur gegenseitigen Annihilation, was Strahlung erzeugte - also Photonen. Jede ProtonenAntiprotonen-Zerstörung im frühen Kosmos hätte im Durchschnitt zwei Photonen erzeugt. Wenn wir davon ausgehen, daß ein wenig mehr Protonen als Antiprotonen existierten, so folgt daraus, daß nicht alle Protonen zerstrahlten. Wenn wir die nach den Annihilationen übriggebliebenen Protonen zählen und auch die Anzahl der Photonen feststellen, die durch das Zerstrahlen von Materie und Antimaterie entstanden (gemeint ist die Anzahl der Photonen in der kosmischen Hintergrundstrahlung, die gewissermaßen das >Echo< des Urknalls darstellt), so läßt sich daraus ableiten, wie groß das damalige Ungleichgewicht zugunsten von Materie gewesen ist. Das heutige Verhältnis zwischen Protonen im Universum und den Photonen in der kosmischen Hintergrundstrahlung beträgt etwa l zu 10 Milliarden. Mit anderen Worten: Als der Kosmos entstand, kamen auf 10 Milliarden Antiprotonen 10 Milliarden und l Protonen! Dieser winzige Überschuß an gewöhnlichem Materie (der auch für Neutronen und Elektronen in Hinsicht auf ihre Antiteilchen galt) genügte, um die gesamte beobachtete Materie im Universum zu schaffen: Galaxien, Sterne, Planeten, die Dinge um uns herum. Wir glauben heute, daß der Kosmos aus diesem Grund weitaus mehr Materie als Antimaterie enthält. Abgesehen davon, daß es sich um eine in wissenschaftlicher Hinsicht recht interessante Angelegenheit handelt, kommt ihr für Star Trek besondere Bedeutung zu: Den >Treibstoff< für Materie-Antimaterie-Triebwerke wird man nicht einfach im All einsammeln können; er muß vielmehr hergestellt werden. Um herauszufinden, wie so etwas möglich ist, kehren wir zum Fermilab zurück. Als ich über die logischen Aspekte dieses Problems nachdachte, beschloß ich, den Direktor des Fermilab - John Peoples jr. - um Hilfe zu bitten. Er leitete Planung und Bau der Antiprotonenquelle. Ich fragte ihn, wie viele Antiprotonen man pro Dollar (nach dem heutigen Geldwert) herstellen und lagern könnte. Der Direktor war freundlicherweise bereit, auf mein Anliegen einzugehen. Er beauftragte einige seiner Mitarbeiter, mir alle notwendigen Informationen zu liefern.
Das Fermilab produziert Antiprotonen durch Protonenkollisionen im mittleren Energiebereich, wobei ein Lithium-Target verwendet wird. Bei den Kollisionen entsteht gelegentlich ein Antiproton, das dann in den Lagerring geleitet wird. Wenn die Anlage mit mittlerer Effizienz arbeitet, können etwa 50 Milliarden Antiprotonen pro Stunde hergestellt werden. Nehmen wir an, das Laboratorium ist während 75 Prozent des ganzen Jahres auf diese Weise tätig, was einem Zeitraum von rund 6000 Stunden entspricht. Unter solchen Voraussetzungen werden etwa 300 Billionen Antiprotonen pro Jahr erzeugt. Jene technischen Komponenten des Fermilab, die direkt mit der Produktion von Antiprotonen zu tun haben, kosten etwa 500 Millionen Dollar (Stand 1995). Gehen wir von einer Amortisation aus, die sich über 25 Jahre erstreckt. Das Ergebnis: 20 Millionen Dollar im Jahr. Die Personalkosten (Techniker, Wissenschaftler, sonstige Mitarbeiter) betragen etwa 8 Millionen Dollar jährlich. Zu berücksichtigen sind auch die enormen Mengen an Elektrizität, die nötig sind, um Korpuskelstrahlen zu schaffen und Antiprotonen zu >lagern<. Nach den gegenwärtigen Preisen in Illinois kostet die erforderliche elektrische Energie 5 Millionen Dollar pro Jahr. Hinzu kommen Verwaltungskosten von etwa 15 Millionen Dollar. Um 300 Billionen Antiprotonen im Jahr zu produzieren, sind also 48 Millionen Dollar erforderlich. Pro Dollar wären das 6 Millionen Antiprotonen. Nun, wahrscheinlich sind diese Kosten höher, als sie es eigentlich sein müßten. Im Fermilab wird ein hochenergetischer Strahl aus Antiprotonen erzeugt; wir brauchen jedoch nur die Antiprotonen, nicht unbedingt ein so hohes Energieniveau. Möglicherweise ließen sich die Kosten um den Faktor 2 bis 4 senken. Gehen wir von der großzügigen Annahme aus, daß man mit der heutigen Technik zwischen 10 und 20 Millionen Antiprotonen pro Dollar produzieren kann. Die nächste Frage liegt auf der Hand: Wieviel Energie läßt sich daraus gewinnen? Wenn wir die Antiprotonen im Wert von einem Dollar vollständig in Energie verwandeln, so bekämen wir etwa ein Tausendstel Joule - damit kann man ein Viertel Gramm Wasser um ein Tausendstel Grad erwärmen. Nicht besonders beeindruckend, oder? Nun, wenn wir uns das Antiprotonen-Potential des Fermilab im Zentrum eines Warptriebwerks vorstellen, so sollten wir daran denken, wieviel Antimaterie in Echtzeit erzeugt werden kann. Die Kapazität beträgt etwa 50 Milliarden Antiprotonen pro Stunde. Wenn sie alle in Energie verwandelt werden, so erhalten wir ein Tausendstel Watt! Mit anderen Worten: Wir brauchen 100000 FermilabAntiprotonenquellen, um genug Energie für eine einzige Glühbirne zu produzieren! Da die Betriebskosten 48 Millionen Dollar pro Jahr betragen (siehe oben), wäre mehr als der Jahresetat der Vereinigten Staaten nötig, um Ihr Wohnzimmer zu beleuchten. Das Problem sieht so aus: Nach dem heutigen Stand der Dinge erfordert die Erzeugung eines Antiprotons weitaus mehr Energie, als sich durch die Umwandlung der Ruhemasse gewinnen läßt. Der Energieverlust bei der Produktion ist mindestens eine Million mal größer als die in der Antiprotonenmasse gespeicherte Energie. Es müssen viel bessere Methoden zur Antimaterieherstellung ersonnen werden, bevor
wir in Erwägung ziehen können, mit Materie-Antimaterie-Triebwerken zu den Sternen zu fliegen. Wenn die Enterprise ihre eigene Antimaterie herstellen soll, braucht sie eine neue Technik, die nicht nur die Kosten senkt, sondern auch den Platzbedarf. Wenn Produktionsmethoden wie bei unseren heutigen Beschleunigern verwendet werden, so sind Anlagen notwendig, die mehr Energie pro Meter erzeugen. In dieser Beziehung wird derzeit sehr intensiv geforscht. Teilchenbeschleuniger sind Werkzeuge, mit denen wir direkt die fundamentale Struktur der Materie untersuchen. Wenn sie nicht so teuer werden sollen, daß sie nicht einmal mehr von internationalen Konsortien gebaut werden können, so muß man neue Methoden der Partikelbeschleunigung entwickeln. (Die US-Regierung hat es bereits abgelehnt, einen Beschleuniger der nächsten Generation in Amerika zu bauen. Eine europäische Gruppe hat beschlossen, einen in Genf zu errichten. Zu Beginn des nächsten Jahrhunderts soll er in Betrieb genommen werden.) Der bisherige Entwicklungstrend bei der Effektivität der Energieerzeugung pro Meter Beschleuniger deutet darauf hin, daß eine Verzehnfachung in jeweils zehn bis zwanzig Jahren möglich sein könnte. In einigen Jahrhunderten könnte also ein Antimaterie produzierender Beschleuniger in der Größe eines Raumschiffs denkbar werden. Derzeit sind die Regierungen nicht ohne weiteres bereit, so teure Forschungsprojekte zu finanzieren, aber in zweihundert Jahren sind viele politische Veränderungen möglich. Selbst wenn Antimaterie an Bord des Schiffes hergestellt wird, es ändert sich dadurch nichts an dem Problem, daß zur Produktion jedes Antiprotons mehr Energie aufgewendet werden muß, als später durch seine Annihilation erzeugt wird. Warum sollte man die Energie für eine eigentlich sinnlose Antimaterieproduktion vergeuden, anstatt sie unmittelbar für den Antrieb einzusetzen? Die Star Trek-Autoren sind immer auf Zack, dachten auch über dieses Problem nach und fanden eine Lösung. Für das Impulstriebwerk und Geschwindigkeiten unterhalb der des Lichts konnte Energie in anderer Form verwendet werden, doch für den Warpantrieb kamen nur Materie-Antimaterie-Reaktionen in Frage. Da sich das Schiff mit Hilfe des Warptransits viel schneller aus einer Gefahrenzone entfernen kann, dürfte es den Aufwand wert sein, zusätzliche Energie für die Herstellung von Antimaterie zu investieren. Die Schwierigkeit mit dem Beschleuniger zur Herstellung von Antiteilchen vermied man mit der Einführung eines neuen Produktionsverfahrens. Die Autoren erfanden >quantenmechanische Ladungsumkehrer<: Diese Geräte kehren einfach die Ladung von Elementarteilchen in ihr Gegenteil um, wodurch aus Protonen und Neutronen Antiprotonen und Antineutronen werden. Das Next Generation Technical Manual weist auf folgendes hin: Zwar zeichnet sich auch dieses Verfahren durch ein sehr hohes energetisches Niveau aus, aber der Energieverlust beträgt nur 24 Prozent - das ist um viele Größenordnungen weniger als der oben beschriebene Verlust beim Einsatz eines Beschleunigers. Solche Möglichkeiten erscheinen natürlich sehr attraktiv, aber die Umkehr der elektrischen Ladung genügt leider nicht. Man denke nur daran, daß Neutronen und Antineutronen elektrisch nicht geladen sind. Alle Antipartikel haben die gegenteilige
>Quantenzahl< (Beschreibungen der Eigenschaften) ihrer Materiepartner. Protonen bestehen aus Quarks, deren Eigenschaften sich nicht nur auf eine bestimmte elektrische Ladung beschränkt. Für ihre Verwandlung von Materie in Antimaterie wären also viele verschiedene >quantenmechanische Umkehrer< erforderlich. Im Next Generation Technical Manual heißt es, daß an Bord von Raumschiffen nur im Notfall Antimaterie produziert wird. Normalerweise findet die Herstellung in speziellen >Treibstoffstationen< der Raumflotte statt. Dort verbindet man Antiprotonen und Antineutronen zu den Kernen von Antideuterium. Amüsant ist dabei folgendes: Die Starfleet-Techniker fügen den Kernen Antielektronen (Positronen) hinzu, um elektrisch neutrales Antideuterium zu erhalten - vermutlich dachten die Star Trek-Autoren, daß elektrisch nicht geladene Antiatome leichter zu handhaben sind als geladene Antikerne. (Übrigens: Bisher ist es noch nicht gelungen, in einem Laboratorium Antiatome zu erzeugen. Allerdings deuten die neuesten Berichte von Harvard darauf hin, daß wir es vielleicht noch in diesem Jahrzehnt schaffen, ein Antiwasserstoffatom zu produzieren*.) Leider entstehen dadurch erhebliche Isolierprobleme. Wenn beim Umgang mit größeren Mengen Antimaterie keine Katastrophen passieren sollen, braucht man Magnetfelder - doch die funktionieren nur bei elektrisch geladenen Teilchen! Zurück ans Reißbrett... Die Enterprise kann insgesamt 3000 Kubikmeter an Antimaterie-Treibstoff aufnehmen (der auf Deck 42 in verschiedenen Lagerungskapseln untergebracht wird). Angeblich genügt das für eine dreijährige Mission. Lassen Sie uns einmal berechnen, wieviel Energie aus soviel Antimaterie gewonnen werden kann - wobei wir davon ausgehen, daß die Lagerungskapseln Antideuterium enthalten. Ich nehme an, daß die Atomkerne in Form von verdünntem Plasma gelagert sind - das läßt sich magnetisch leichter kontrollieren als Flüssigkeiten oder feste Stoffe. In einem solchen Fall entsprächen 3000 Kubikmeter etwa 5 Millionen Gramm. Wenn bei den Annihilationsreaktionen l Gramm pro Sekunde verbraucht wird, bekämen wir etwa soviel Energie, wie die Menschheit heute täglich verbraucht. Bei den Erörterungen in Hinsicht auf das Warptriebwerk habe ich darauf hingewiesen, daß an Bord eines Raumschiffs wie der Enterprise mindestens soviel Energie produziert werden muß. Wird der Treibstoff kontinuierlich verbraucht, mit jeweils einem Gramm pro Sekunde, so reicht er 5 Millionen Sekunden oder etwa zwei Monate, Wenn die Enterprise während ihrer Mission den Materie-Antimaterie-Antrieb nur während 5 Prozent der Gesamtzeit verwendet, so geht der Treibstoff tatsächlich erst nach drei Jahren zur Neige. * Dies ist inzwischen (Ende 1995) gelungen, was in der Presse (Spiegel u. a.) einen >Antimaterie-Rummel< auslöste. - Anm. R. R.
Es gibt noch einen anderen Punkt, der für die Menge der benötigten Antimaterie eine wichtige Rolle spielt. Gemeint ist ein Aspekt, den die Star Trek-Autoren von Zeit zu Zeit vergessen. Bei der Materie-Antimaterie-Annihilation heißt es entweder alles oder nichts. Der Vorgang ist nicht konfigurierbar. Auch wenn man das Mischungsverhältnis von Materie und Antimaterie im Wandler ändert: Es bleibt ohne Einfluß auf die Menge der erzeugten Energie. Die Relation zwischen Treibstoff und Energie ändert sich nur, wenn ein Teil des Treibstoffs vergeudet wird - wenn es bei einigen Partikeln aus irgendeinem Grund nicht zur Annihilation kommt. In einigen Fernsehfolgen (>Implosion in der Spirale<, >Die Begegnung im Weltraum<, >Die schwarze Seele<) wird das Materie-Antimaterie-Mischungsverhältnis geändert, und im Next Generation Technical Manual ist die Rede davon, daß es zwischen 25 : l und l : l schwanken kann. Offenbar hängt es von der jeweiligen Warpgeschwindigkeit ab, wobei das Mischungsverhältnis l : l bei Warp 8 und noch höheren Transitgeschwindigkeiten gilt. Wenn die Enterprise schneller als mit Warpfaktor 8 fliegt, wird die Menge der Reaktanten erhöht, ohne das Verhältnis von Materie und Antimaterie zu verändern. Diese Methode ist richtig und sollte bei allen Warpgeschwindigkeiten verwendet werden, wie selbst Starfleet-Kadetten wissen. Wesley Crusher hat in der Episode >Prüfungen< darauf hingewiesen, als er bei einer Starfleet-Prüfung die Frage nach dem richtigen Mischungsverhältnis von Materie und Antimaterie als Fangfrage erkannte. Seine Antwort lautete: 1: 1. Die Star Trek-Autoren fügten dem Materie-Antimaterie-Antrieb noch eine wichtige Komponente hinzu. Ich meine hier die berühmten Dilithiumkristalle - die Autoren der Serie erfanden sie, bevor die Fermilab-Wissenschaftler beschlossen, bei der Antiprotonenquelle ein Lithium-Target zu verwenden. Sie müssen hier erwähnt werden, da sie ein zentraler Bestandteil des Warptriebwerks sind und große Bedeutung für die Ökonomie der Föderation sowie diverse Handlungsfäden haben. (Um nur ein Beispiel zu nennen: Ohne die wirtschaftliche Bedeutung von Dilithium wäre die Enterprise nie zum halkanischen Sonnensystem geschickt worden, um dort die Abbaurechte zu sichern; in dem Fall hätten wir nie das >Spiegeluniversum< kennengelernt, das uns eine böse Föderation bescherte.) Was hat es mit dieser besonderen Erfindung der Star Trek-Autoren auf sich? Die Dilithiumkristalle (ihre lange Formel lautet: 2«5»6 Dilithium 2«:»1 Diallosilikat 1:9:1 Heptoferranid) sind imstande, das Verhältnis der Annihilation von Materie und Antimaterie zu regeln. Angeblich handelt es sich um die einzige Materieart, die Antimaterie gegenüber >porös< ist. Ich verstehe das so: Bei Kristallen sind die Atome zu einem Gitter angeordnet. Vermutlich werden die Atome des Antideuteriums durch das Gitter der Dilithiumkristalle geleitet, wodurch sie eine gewisse Distanz sowohl untereinander als auch zu Atomen normaler Materie wahren. Warum suche ich hier nach einer hypothetischen Erklärung für eine hypothetische Substanz? Weil ich der Meinung bin, daß die Star Trek-Autoren auch diesmal ihrer Zeit voraus waren. Viele Jahre nachdem in Star Trek die erste von Dilithiumkri-
stallen geregelte Materie-Antimaterie-Annihilation stattfand, schlug man eine ähnliche Methode für einen recht exotischen Prozeß vor: die kalte Kernfusion. Die Blütezeit dieser Idee dauerte etwa 6 Monate. Es ging darum, verschiedene Elemente chemisch miteinander zu kombinieren und dadurch bei Zimmertemperatur die gleichen Fusionsreaktionen zu bewirken, die in der Sonne bei enorm hohem Druck und vielen Millionen Grad ablaufen. Die kalte Fusion hat mehrere unwahrscheinliche Aspekte, die Wissenschaftler skeptisch stimmten. Einer davon ist dieser: Chemische Reaktionen und atomare Bindung finden im Bereich atomarer Größe statt, der um den Faktor 10 000 größer ist als die Kerne von Atomen. Man kann sich nur schwer Reaktionen auf einem Größenniveau vorstellen, das sich so weit über dem von Atomkernen erstreckt - und das doch Vorgänge im nuklearen Bereich beeinflußt. Schließlich stellte sich heraus, daß die vermeintlichen Resultate nicht von anderen Forschungsgruppen wiederholt werden konnten. Doch bis dahin verbrachten viele Leute viel Zeit damit, nach Erklärungen für das Wunder zu suchen. Im Gegensatz zu den Verfechtern der kalten Kernfusion haben die Star TrekAutoren nie behauptet, etwas anderes zu schreiben als Science Fiction, und deshalb sollten wir es bei ihnen nicht zu genau nehmen. Dilithiumkristalle tragen nur zur Funktion des Materie-Antimaterie-Antriebs bei, der zu den erstaunlichsten und realistischsten Komponenten der Enterprise und anderer Föderationsschiffe gehört. Ich möchte hier auf einen interessanten Punkt hinweisen: Bei heutigen Experimenten mit Antielektronen (Positronen) werden ebenfalls Kristalle verwendet, und zwar aus Wolfram. Die Positronen werden vom elektrischen Feld im Kristall abgelenkt und verlieren dadurch Energie. Im ganzen Universum gibt es keine bessere Methode zur Energieproduktion als die Materie-Antimaterie-Annihilation: Dabei wird Materie vollständig in Energie verwandelt. Es ist die beste denkbare Antriebsmethode - vielleicht gibt es eines Tages tatsächlich einmal Raumschiffe, die mit entsprechenden Triebwerken durchs All fliegen. Daß es eine Menge Geld kostet, eine derartige Technologie zu entwickeln... Nun, diese Probleme müssen die Politiker des dreiundzwanzigsten Jahrhunderts lösen.
SIEBEN
Holodecks und Hologramme »Oh, wir sind wir, Sir. Sie sind ebenfalls wir. Und wir sind beide wir.« Data zu Picard und Riker, in >Begegnung mit der Vergangenheit< Auf dem Flughafen von Casablanca sagte Humphrey Bogart zu Ingrid Bergman: »Uns bleibt Paris.« Damit meinte er natürlich die Erinnerung an Paris. Als Picard ähnliche Worte an Jenice Manheim richtete, in der holographischen Nachbildung des Café des Artistes, war es vielleicht tatsächlich so gemeint. Das Holodeck bietet die Möglichkeit, Erinnerungen noch einmal >Wirklichkeit< werden zu lassen, bestimmte Orte zu besuchen und geliebte Personen zu neuem (Pseudo-) Leben zu erwecken. Das Holodeck gehört zu den interessantesten technischen Einrichtungen an Bord der Enterprise. Wer die wachsende Welt der virtuellen Realität kennt - von Videospielen oder modernen, superschnellen Computern -, ist von den Möglichkeiten des Holodecks außerordentlich fasziniert. Wer möchte seinen Träumen nicht jederzeit konkrete Gestalt geben können? Es wirkt so verlockend, daß ich ganz sicher bin: Tatsächlich existierende Holodecks könnten weitaus süchtiger machen als in der Fernsehserie. Die Episoden >Der schüchterne Reginald< und >Die Begegnung im Weltraum< vermitteln einen Eindruck davon. In der ersten der beiden Folgen wird der neurotische Offizier Lieutenant Reginald Barclay so sehr von seinen Phantasien in Hinsicht auf die Vorgesetzten abhängig, daß er Kontakte mit ihren Holodeck-Äquivalenten vorzieht. In der zweiten hat Geordi LaForge eine Beziehung mit Dr. Leah Brahms begonnen, die das Triebwerk der Enterprise entwickelte. Als er der echten Dr. Brahms begegnet, ergeben sich Probleme. Die meisten Besatzungsmitglieder nutzen das Holodeck der Enterprise zu einem eher harmlosen Zeitvertreib, was vermuten läßt, daß sich die Menschen des dreiundzwanzigsten Jahrhunderts durch andere hormonelle Instinkte auszeichnen. (Wenn das wirklich der Fall ist, so bildet Will Riker eine Ausnahme.) Angesichts der heutigen Beschaffenheit unserer Gesellschaft sollte man eigentlich vermuten, daß Sex die wichtigste Rolle bei den holographischen Projektionen spielt. (Das Holodeck würde dem Sex eine ganz neue Dimension erschließen.) Nun, es geht mir hier nicht darum, mich über solche Dinge lustig zu machen oder gar den Moralapostel zu spielen. Das Holodeck ermöglicht genau das, was an sexuellen Phantasien so reizvoll ist: Erlebnisse ohne Konsequenzen; Vergnügen ohne Schmerz; bestimmte Situationen, die sich ständig wiederholen und/oder verändern lassen.
Dieser Aspekt des Holodecks wird in der Serie nur angedeutet. Als Geordi Reginald Barclays holographischer Welt einen eher unhöflichen Besuch abstattet, gibt er folgenden Kommentar ab: »Auch ich komme ab und zu hierher. Meiner Ansicht nach kann man auf dem Holodeck anstellen, was man will - solange es ohne Einfluß auf die Arbeit bleibt.« Das klingt doch ganz nach einer fürs zwanzigste Jahrhundert typischen Warnung davor, fleischlichen Gelüsten nachzugeben. Die derzeit stattfindenden Forschungen auf dem Gebiet der virtuellen Realität werden uns früher oder später zu etwas führen, das dem Holodeck ähnelt. Vielleicht erscheint meine Besorgnis im dreiundzwanzigsten Jahrhundert ebenso seltsam wie die mahnenden Stimmen, die vor etwa fünfzig Jahren bei der Einführung des Fernsehens erklangen. Nun, sie ertönen noch immer, um gegen zuviel Sex und Gewalt auf dem Bildschirm zu protestieren. Andererseits: Ohne das Fernsehen müßten wir auf Star Trek verzichten. In einer Welt, in der man jederzeit Holokammern aufsuchen kann, besteht keineswegs die Gefahr, daß alle erschlaffen und passiv werden. Die Teilnahme an einem holographischen Szenario bedeutet vielmehr Aktivität. Trotzdem finde ich die virtuelle Realität beunruhigend, weil sie subjektiv wie die Wirklichkeit erscheint und doch weitaus weniger direkte Gefahren mit sich bringt. Von einer Welt mit direkter Sinnesstimulation ohne Konsequenzen ginge ein enormer Reiz aus. Jede neue Technik hat sowohl gute als auch schlechte Seiten und bewirkt Veränderungen in unserem Verhalten. Ich vertrete den Standpunkt, daß die Technik unser Leben im großen und ganzen leichter gemacht hat. Die Notwendigkeit einer ständigen Anpassung gehört zu den Herausforderungen, denen sich eine entwickelnde menschliche Gesellschaft stellen muß. Wie dem auch sei: Das Holodeck weist einen großen Unterschied zu den Methoden der virtuellen Realität auf, an denen derzeit gearbeitet wird. Heute benutzt man >Datenhandschuhe< und spezielle Helme, die den Augen mit mehr oder weniger aufwendiger Graphik gestaltete Szenen präsentieren. Der letztendliche Zweck besteht darin, die künstliche Welt in den Erlebniskosmos des entsprechenden Individuums zu projizieren. Beim Holodeck ist es genau umgekehrt: Dort wird die Person der künstlichen Welt hinzugefügt. Bewerkstelligt wird das mit Hilfe von Holographie und Replikation. Die Prinzipien der Holographie wurden zum erstenmal von dem britischen Physiker Dennis Gabor erläutert, der für seine Arbeit später mit dem Nobelpreis ausgezeichnet wurde. Er legte die Grundlagen dar, noch bevor das technische Potential für eine Realisierung seiner Ideen existierte. Inzwischen sind die meisten Leute mit Holographien vertraut. Man kennt sie von den dreidimensionalen Abbildungen auf Kreditkarten her, und gelegentlich erscheinen auch Bücher mit entsprechenden Titelbildern. Das Wort Hologramm geht auf die griechischen Bezeichnungen für >ganz< und >schreiben< zurück. Fotografien sind nur zweidimensionale Darstellungen einer dreidimensionalen Realität; Hologramme hingegen erfassen die ganze Wirklichkeit. Mit Hilfe der Holographie ist es möglich, ein dreidimensionales Bild zu schaffen, das man von allen Seiten betrachten kann. Den Unterschied zum
Original stellt man erst dann fest, wenn man den Gegenstand anzufassen versucht und nur leere Luft berührt. Wie gelingt es, die Informationen eines dreidimensionalen Bilds auf zweidimensionalem Film zu speichern? Um diese Frage zu beantworten, müssen wir zunächst untersuchen, was wir sehen und auf welche Weise ein Foto >gespeichert< wird. Wir sehen Objekte, weil sie entweder Licht aussenden oder reflektieren - Licht, das dann unsere Augen erreicht. Wenn ein dreidimensionales Objekt beleuchtet wird, so sorgt seine SD-Natur dafür, daß es Licht in unterschiedliche Richtungen reflektiert. Wenn wir das genaue Reflexionsmuster reproduzieren könnten, so wären unsere Augen nicht imstande, einen Unterschied zum Original zu erkennen. Zum Beispiel müßten wir in der Lage sein, bis dahin verborgene Merkmale zu erkennen, wenn wir den Kopf drehen oder uns zu Seite neigen. Der Grund: Das gesamte reflektierte Licht des Objekts ist aufgezeichnet. Wie kann man die betreffenden Informationen zunächst speichern und sie anschließend wieder zu einem Bild zusammenfügen? Aufschluß gewinnen wir, indem wir uns überlegen, wie ein Foto die Daten eines zweidimensionalen Bilds aufzeichnet. Wenn wir fotografieren, setzen wir ein spezielles Material dem Licht aus, das durch eine Linse fällt. Später wird das Material mit verschiedenen Chemikalien behandelt, wodurch es dort dunkel wird, wo zuvor das Licht aufgetroffen ist - je mehr Licht, desto stärker die Verfärbung. (Ich spreche hier von Schwarzweißfotos, doch für Farbaufnahmen gilt das gleiche Prinzip: Man nimmt einfach drei verschiedene lichtempfindliche Substanzen, jeweils eine für die primären Farben.) Die Gesamtmenge der auf einem fotografischen Film gespeicherten Informationen entspricht also der Intensität des Lichts, das jeden Punkt des Films erreicht. Wenn wir den Film entwickeln, so stellen wir fest: Jene Teile, die mehr Licht ausgesetzt waren, sind dunkler als die anderen - wir haben es also mit einer >negativen< zweidimensionalen Projektion des ursprünglichen Lichtfelds zu tun. Durch dieses Negativ projizieren wir ein Bild auf lichtempfindliches Papier, um das endgültige Foto zu erzeugen. Wenn wir es betrachten, geschieht folgendes: Von den hellen Flächen reflektiert mehr Licht als von den dunklen. Mit anderen Worten: Das vom Foto stammende Licht bildet ein zweidimensionales Intensitätsmuster auf unserer Netzhaut, und wir interpretieren dieses Muster. Die Frage lautet nun: Was soll außer der Intensität des Lichts aufgezeichnet werden? Hier kehren wir erneut zu dem Umstand zurück, daß Licht eine Welle ist. Deshalb brauchen wir für die Bestimmung der Konfiguration mehr als nur Angaben in bezug auf Strahlungsintensität. Sehen wir uns die unten abgebildete Lichtwelle an:
Bei Position A hat die Welle - sie repräsentiert hier die Stärke des elektrischen Felds - ihren Maximalwert, was dem nach oben gerichteten elektrischen Feld EA entspricht. Bei Punkt B hat das Feld genau den gleichen Wert, ist jedoch nach unten gerichtet. Wenn man nur auf die Intensität der Lichtwelle achtet, so stellt man bei A und B die gleiche Feldintensität fest. Allerdings ist in der Darstellung deutlich zu erkennen, daß Position B einen anderen Teil der Welle markiert als Position A. Diese >Position< im Verlauf einer Welle nennt man Phase. Man kann alle mit einer Welle in Zusammenhang stehenden Informationen spezifizieren, indem man Intensität und Phase beschreibt. Um alle Daten über Lichtwellen aufzuzeichnen, die von einem dreidimensionalen Objekt reflektiert werden, muß man eine Möglichkeit finden, Intensität und Phase des Lichts auf einem Film zu speichern. Das ist nicht weiter schwer. Wenn man einen Lichtstrahl teilt und die eine >Hälfte< direkt auf den Film fallen läßt, während die andere erst von dem Objekt reflektiert wird, bevor sie den Film erreicht, so gibt es zwei Möglichkeiten. Erstens: Wenn die beiden Lichtstrahlen >phasengleich< sind - wenn sich ihre Kämme bei A decken -, so ergibt sich bei A eine Amplitude, die doppelt so groß ist wie bei einer einzelnen Welle. Die nächste Abbildung veranschaulicht das:
Zweitens: Wenn die beiden Wellen bei A in der Phase verschoben sind, so neutralisieren sie sich gegenseitig. Das Ergebnis ist dann bei A eine Amplitude null, wie das unten stehende Bild zeigt:
Wenn wir bei A fotografischen Film verwenden, der nur die Intensität festhält, so zeichnet er das >Interferenzmuster< der beiden Wellen auf: den ersten Strahl und die Reflexion vom Objekt. Dieses Muster enthält nicht nur Informationen über die Intensität des reflektierten Lichts, sondern auch über die Phase. Wenn man geschickt vorgeht, kann man diese Informationen >abfragen< und ein Bild des dreidimensionalen Objekts schaffen. Nun, eigentlich braucht man gar nicht so geschickt zu sein. Wenn man den fotografischen Film mit Licht bestrahlt, das die gleiche Wellenlänge hat wie jenes Licht, auf dem das Interferenzmuster basiert, so entsteht ein Abbild des Objekts, wenn man durch den Film sieht - und zwar dort, wo es sich in bezug auf den Film befand. Wenn man den Kopf dreht, kann man um die >Kanten< des Bildes sehen. In diesem Zusammenhang gibt es ein interessantes Phänomen. Man bedecke den größten Teil des Films, hebe ihn dicht vor die Augen und blicke durch den unbedeckten Teil - erstaunlicherweise sieht man trotzdem das ganze Objekt! Der Film scheint dabei wie ein Fenster zu sein, hinter dem sich allerdings keine tatsächlich existierenden Gegenstände befinden. Das durch den Film fallende Licht wird so beeinflußt, daß die Augen den Eindruck gewinnen, es handele sich um Reflexionen, die von einem wirklich existierenden Gegenstand stammen. So etwas nennt man Hologramm. Um das Referenzlicht sowie die vom Objekt reflektierten Lichtwellen genau zu kontrollieren, verwendet man für die Herstellung von Hologrammen Laserlicht, das kohärent ist und sich durch eine gute Kollimation auszeichnet. Allerdings gibt es auch >Weißlichthologramme<, bei denen gewöhnliches Licht den gleichen Effekt erzielt. Man kann verschiedene Linsen verwenden und dreidimensionale Abbilder erzeugen, die den Eindruck erwecken, zwischen Beobachter und Film zu erscheinen -
dann hat man die Möglichkeit, um das Hologramm herumzugehen und es von allen Seiten zu betrachten. Oder man fertigt Aufnahmen an, bei denen sich die Lichtquelle nicht hinter dem Film befindet, sondern davor. Diese Methode benutzt man bei den Kreditkarten-Hologrammen. Nehmen wir an, man benutzt die zuerst genannte Methode, um Hologramme auf dem Holodeck der Enterprise sowie den holographischen Arzt an Bord der Voyager herzustellen. Um die dreidimensionalen Bilder zu erzeugen, sind dabei keine Originalobjekte erforderlich. Schon heute sind Computer leistungsfähig genug, um fürs sogenannte >Raytracing< eingesetzt zu werden: Mit dieser Technik lassen sich beliebige Objekte auf dem Bildschirm darstellen und von allen Seiten >beleuchten< - der Computer berechnet die exakte Struktur der Licht- und Schattenmuster. Denkbar wäre, daß er außerdem die Beschaffenheit des Interferenzmusters feststellt, das entsteht, wenn das Licht eines direkten Strahls mit Reflexionen des Objekts verschmolzen wird. Das vom Computer erzeugte Interferenzmuster überträgt man anschließend auf einen transparenten Schirm, der von hinten beleuchtet wird. Das Ergebnis ist die dreidimensionale >Fotografie< eines Gegenstands, der gar nicht existiert. Mit einem ausreichend leistungsfähigen Computer lassen sich ständig wechselnde Interferenzmuster projizieren, was bewegte dreidimensionale Bilder zur Folge hat. Der holographische Aspekt des Holodecks könnte sich also durchaus verwirklichen lassen. Allerdings: Hologramme allein genügen nicht. Inzwischen dürfte klar sein, daß sie keine Substanz haben. Man kann hindurchgehen - oder auch hindurchschießen, was in einer bestimmten Szene in der Folge >Wiedervereinigung?< deutlich wurde: Dort gelang es Spock und Data, die Romulaner mit holographischen Darstellungen zu täuschen. Die Substanzlosigkeit wäre auf dem Holodeck ein erhebliches Problem, denn sie würde verhindern, daß man die dargestellten Gegenstände auch berühren kann. In dieser Hinsicht sind esoterischere Techniken notwendig. Die Star TrekAutoren haben beschlossen, Transporter zu verwenden, beziehungsweise weniger komplizierte Versionen von ihnen: Replikatoren. Mit Hilfe der Transportertechnologie wird Materie repliziert und so auf dem Holodeck bewegt, daß sie mit den projizierten Geschöpfen identisch zu sein scheint. Computerprogramme übernehmen dabei die Steuerung von Stimmen und Bewegungen. Die Replikatoren erschaffen auch alle unbelebten Objekte eines Szenarios: Stühle, Tische und so weiter. Diese >Holodeckmaterie< verdankt ihre Form den Strukturmustern im Replikationsspeicher. Wenn der Transporter deaktiviert oder das betreffende Objekt vom Holodeck entfernt wird, löst sich die Materie einfach auf - so etwas passiert auch, wenn bei einem Transfer der Strukturspeicher des Transporters gelöscht wird. Dadurch können fiktive Personen auf dem Holodeck festgehalten werden, wie die beiden Detektive Cyrus Redblock und Felix Leach in der Folge >Der Große Abschied< feststellen mußten. Zu diesem Schluß gelangte auch Sherlock Holmes Gegner Professor Moriarty; in mehreren Episoden versuchte er, die ihm vom Holodeck auferlegten Beschränkungen zu überwinden. Auf diese Weise stelle ich mir das Holodeck vor: Hologramme an den Wänden vermitteln den Eindruck einer dreidimensionalen Umgebung, die sich bis zum
Horizont erstreckt; auf Transportertechnik basierende Replikatoren sind für die >festen< und beweglichen Objekte der Szene zuständig. Nun, die holographische Technik ist durchaus realistisch, im Gegensatz zu der von Transportern - man müßte also eine andere Möglichkeit finden, um Materie entstehen zu lassen und sie zu bewegen. Trotzdem: Daß eine von zwei Technologien ihren Platz in der Wirklichkeit haben könnte, ist eigentlich gar kein so schlechtes Ergebnis. Was wird unter diesen Voraussetzungen aus reinen Hologrammen wie dem holographischen Arzt der Voyager? Die Antwort lautet: absolut nichts. Ein dreidimensionales Abbild ohne Materie dürfte wohl kaum imstande sein, Werkzeuge zu benutzen und irgendwelche Behandlungen durchzuführen. Andererseits: Ein ordentlicher Arzt sollte imstande sein, gut mit Patienten umzugehen und gelegentlich das eine oder andere verständnisvolle Wort an sie zu richten. Wozu ein Hologramm ebenso fähig ist wie ein Mensch aus Fleisch und Blut.
SEKTION DREI
Das unsichtbare Universum, oder: Geräusche im Dunkeln
Hier sprechen wir von Dingen, die vielleicht existieren, aber noch nicht beobachtet wurden: extraterrestrisches Leben, multiple Dimensionen sowie ein exotischer Zoo aus anderen physikalischen Möglichkeiten und Unmöglichkeiten
ACHT
Die Suche nach Spock »Es fällt einem schwer, im Team zu arbeiten, wenn man allmächtig ist.« Q, als er sich in >Noch einmal Q< der Enterprise-Crew hinzugesellt Aggression ohne Ende, territoriale Eroberungen und Völkermord... wo sich eine Möglichkeit bietet... Die Kolonie ist so integriert, als handele es sich um einen einzigen Organismus, kontrolliert von einem Genom, das bestimmte Verhaltensweisen nicht nur erzwingt, sondern auch ermöglicht... Der physische Superorganismus regelt die demographische Mischung, um den Energiehaushalt zu optimieren... Die strengen Regeln erlauben kein Spiel, keine Kunst, kein Mitgefühl.« Die Borg gehören zu den furchterregendsten und gleichzeitig faszinierendsten fremden Wesen, die jemals auf dem Fernsehschirm erschienen sind. Faszinierend sind sie deshalb, weil meiner Ansicht nach ein ähnlich gestalteter kollektiver Organismus auf der Basis von natürlicher Auslese entstehen könnte. Das oben genannte Zitat stellt zwar eine angemessene Beschreibung der Borg dar, stammt jedoch nicht aus einer Star Trek-Episode. Ich habe jene Worte in einer Rezension des Buches Journey to the Ants (Reise zu den Ameisen) von Bert Hölldobler und Edward O. Wilson gefunden. Sie beziehen sich also nicht auf die Borg, sondern auf Insekten, die wir alle gut kennen.* In evolutionärer Hinsicht sind Ameisen sehr erfolgreich gewesen, und der Grund dafür ist nicht schwer zu verstehen. Könnte sich eine Gesellschaft intelligenter Individuen zu einem derartigen kollektiven Superorganismus entwickeln? Wären intellektuelle Verfeinerungen wie zum Beispiel Mitgefühl notwendig? Oder stellten sie eher ein Hindernis dar? * Die Rezension von Philip Morrison erschien in Scientific American (November 1994) und bezieht sich auf Hölldoblers und Wilsons Journey to the Ants: A Story of Scientific Explorations (Cambridge, MA: Harvard University Press, 1994), dt. Ausgabe: Ameisen. Die Entdeckung einer faszinierenden Welt (Basel-Boston-Berlin: Birkhäuser Verlag, 1995).
Gene Roddenberry wies einmal darauf hin, daß die Enterprise gar nicht in erster Linie dazu diente, Reisen zu den Sternen zu ermöglichen. Sie war vor allem ein Mittel zu dem Zweck, Geschichten zu erzählen. Ich finde großen Gefallen an den technischen Aspekten, aber trotzdem ist mir klar: In Star Trek geht es um jene Themen, die seit den griechischen Epen die dramaturgische Struktur aller Geschichten bestimmt haben: Liebe, Haß, Verrat, Eifersucht, Vertrauen, Freude, Furcht, Staunen... Wir finden vor allem jene Stories interessant, in denen es um Gefühle geht, die unser Leben bestimmen. Wenn der Warpantrieb nur dazu dient, unbemannte Sonden durchs All fliegen zu lassen, wenn man den Transporter nur einsetzt, um Bodenproben zu gewinnen, wenn man Medo-Scanner allein bei pflanzlichem Leben verwendet... Unter solchen Umständen hätte es Star Trek nie über die erste Staffel hinaus geschafft. Die >andauernde< Mission des Raumschiffs Enterprise besteht nicht etwa darin, mehr über die Gesetze der Physik herauszufinden. Sie ist vielmehr unterwegs, um >fremde Welten zu erforschen, neues Leben und neue Zivilisationen< Star Trek ist deshalb so erfolgreich - und langlebig -, weil das menschliche Drama weit über die bisherigen Grenzen der menschlichen Erfahrungswelt hinausgetragen wird. Wir stellen uns vor, wie sich fremde Lebewesen entwickeln - und es dabei mit Problemen zu tun bekommen, denen auch die Menschheit gegenübersteht. Wir werden mit neuen Kulturen konfrontiert, auch mit neuen Gefahren. Man empfindet dabei die gleiche Aufregung wie beim ersten Besuch eines fremden Landes. Oder wie bei der Lektüre von Geschichtsbüchern, wenn dabei die Erkenntnis in einem heranreift: Die Menschen in vergangenen Jahrhunderten haben zwar anders gelebt, aber genauso empfunden wie wir. Um eine derartige Unterhaltung richtig zu genießen, müssen wir bereit sein, über gewisse Ungereimtheiten hinwegzusehen. Zum Beispiel sind die meisten Aliens in Star Trek erstaunlich menschenähnlich, und sie alle sprechen unsere Sprache! (In der sechsten Staffel von Star Trek: The Next Generation fanden die Autoren eine Erklärung dafür. Der Archäologe Richard Galen stellte fest, daß sich das genetische Material vieler verschiedener Völker ähnelte. Offenbar reicherte eine uralte Zivilisation die primordialen Ozeane Hunderter von Welten mit bestimmten Bausteinen des Lebens an. Diese Vorstellung weist Parallelen mit der vom Nobelpreisträger Francis Crick entwickelten Theorie der Panspermie auf.*) Das ist der Aufmerksamkeit vieler Star Trek-Fans nicht entgangen. Der Nobelpreisträger Sheldon Glashow wählte für seine Kritik eine besonders farbige Ausdrucksweise. Er meinte, die fremden Wesen sähen alle so aus, als litten sie an der Elefantenkrankheit. Nun, die meisten Trekkies schenken solchen Dingen keine Beachtung und * Francis Crick, Life Itself (New York: Simon & Schuster, 1981).
konzentrieren sich statt dessen auf die beschriebenen psychologischen Aspekte. Die Autoren der Star Trek-Drehbücher sind weder Wissenschaftler noch Techniker; deshalb verwenden sie ihre schöpferische Kraft für die Gestaltung fremder Kulturen und nicht für detaillierte Erklärungen in Hinsicht auf eine hypothetische Biologie. Eins muß man den Autoren lassen: In Hinsicht auf fremdes Leben sind sie sehr kreativ gewesen. Als ich zu zählen aufhörte, gab es im Star Trek-Universum abgesehen von den Borg und dem allmächtigen Schelm Q - mehr als zweihundert verschiedene Lebensformen. Offenbar wimmelt es in unserer Galaxis von Zivilisationen mit unterschiedlichem Entwicklungsniveau. Einige von ihnen Föderation, Klingonen, Romulaner und Cardassianer - kontrollieren große Sternenreiche, während andere isoliert auf einzelnen Planeten oder in der Leere des Alls existieren. Wenn es gelänge, Beweise für die Existenz von intelligentem außerirdischen Leben zu finden... Es wäre die größte Entdeckung in der Geschichte der Menschheit darauf weisen auch die an den gegenwärtigen Suchprojekten beteiligten Wissenschaftler hin. Sie hätte enormen Einfluß darauf, wie wir uns selbst und unseren Platz im Universum sehen. Allerdings: Inzwischen wird schon seit drei Jahrzehnten gesucht, und noch immer fehlt ein definitiver Beweis für die Existenz von Leben außerhalb unseres Planeten. Den Leser dieses Buches mag das überraschen. Man könnte von folgender Annahme ausgehen: Wenn es dort draußen Leben gibt, dann müssen wir es finden. Genauso unvermeidlich waren (teilweise traumatische) Kontakte zwischen den Zivilisationen, die sich auf verschiedenen Kontinenten der Erde entwickelten. Doch wenn man genauer über die Wahrscheinlichkeit der Entdeckung von extraterrestrischem Leben nachdenkt, so wird klar, wie schwer die Suche danach ist. Nehmen wir einmal an, eine andere Zivilisation in der Galaxis weiß, welche der insgesamt etwa 400 Milliarden Sterne Planeten haben, auf denen Leben möglich ist. Nehmen wir weiterhin an, daß entsprechende Forscher in die Richtung unserer Sonne sehen. Wie groß wäre die Wahrscheinlichkeit, daß sie unsere Existenz entdecken? Das Leben auf der Erde entwickelt sich seit mehreren Milliarden Jahren, doch nur seit knapp einem Jahrhundert senden wir Signale. Erst seit fünfundzwanzig Jahren stehen uns Radioteleskope zur Verfügung, mit denen wir weit genug ins All >horchen< können. Selbst wenn eine fremde Zivilisation unseren Planeten über Jahrmilliarden hinweg beobachtete: Sie hätte erst seit knapp hundert Jahren die Möglichkeit, uns zu bemerken. Wenn wir jetzt noch von der Voraussetzung ausgehen, daß die Fremden nicht ständig beobachteten, sondern zufällige Zeitpunkte während der planetaren Entwicklung wählten... Dann sinkt die Wahrscheinlichkeit unserer Entdeckung auf l zu 100 Millionen. Und selbst dieser Wert gilt nur dann, wenn die anonymen Beobachter genau wissen, wo es Ausschau zu halten gilt! Ganze Bücher wurden über die Möglichkeit extraterrestrischen Lebens in der Galaxis geschrieben - und über die Wahrscheinlichkeit, es zu finden. Schätzungen der Anzahl von hochentwickelten Zivilisationen reichen von optimistischen mehreren Millionen bis hin zur pessimistischen Eins (wenn wir uns selbst einen
hohen Entwicklungsstand bescheinigen). Es liegt mir fern, hier auf alle Argumente einzugehen, aber einige Punkte verdienen es, daß wir uns ein wenig genauer mit ihnen auseinandersetzen. Es geht dabei um jenes Leben, das die Enterprise erforschen soll - und um die Strategien, die man heute auf der Erde anwendet, um es zu entdecken. Die Annahme, daß an anderen Orten in unserer Galaxis Leben existiert, erscheint mir plausibel. Ich habe es bereits erwähnt: Die Milchstraße besteht aus etwa 400 Milliarden Sternen. Es wäre mehr als nur erstaunlich, wenn sich allein im Bereich unserer Sonne Leben entwickelt hätte. Um die Wahrscheinlichkeit dafür zu berechnen, daß die natürliche Evolution Leben auch in anderen Sonnensystemen geschaffen hat, kann man mit folgenden Fragen beginnen: »Wie groß ist die Wahrscheinlichkeit dafür, daß die meisten Sterne Planeten haben?« oder »Wie groß ist die Wahrscheinlichkeit dafür, daß dieser besondere Stern lange genug existiert, um das Leben auf einem Planeten zu erhalten?« Anschließend wenden wir uns planetaren Fragen zu: »Ist der Planet groß genug, um eine Atmosphäre festzuhalten?« oder »Wie groß ist die Wahrscheinlichkeit dafür, daß es während der Anfangsphase ausreichend intensive vulkanische Aktivität gab, um genug Oberflächenwasser zu erzeugen?« oder »Wie groß ist die Wahrscheinlichkeit dafür, daß der Planet einen Mond hat?« oder »Wie groß ist die Wahrscheinlichkeit dafür, daß der Mond des Planeten groß und nahe genug ist, um Gezeiten zu erzeugen?« oder »Wie groß ist die Wahrscheinlichkeit dafür, daß die Gezeiten gerade stark genug sind, um Tümpel zu erzeugen - aber nicht so stark, daß es zu regelmäßigen Flutwellen kommt?« Auf einige der eben genannten Punkte komme ich später zurück. Nun, wenn man realistische Bedingungen festlegen will, so ergeben sich zwei Probleme: Wir wissen nicht genau, welche Faktoren welche Rolle spielen; und es ist unklar, in welcher Beziehung die einzelnen Parameter zueinander stehen. Es ist schon schwierig genug, die Wahrscheinlichkeit alltäglicher Ereignisse zu berechnen. Wenn man kleine Wahrscheinlichkeiten miteinander in Verbindung bringt und versucht, eine logische Kette zu bilden, so kann das Ergebnis nur aus einer noch viel kleineren Wahrscheinlichkeit bestehen, die kaum mehr einen Informationswert hat. Selbst wenn man als Resultat eine klar definierte Wahrscheinlichkeit erhält - wie soll man sie interpretieren? Man nehme nur die Wahrscheinlichkeit einer Kette von ganz bestimmten Ereignissen: Ich sitze hier auf diesem Stuhl und schreibe mit diesem Computer (und nicht mit einem der Millionen anderen auf der Welt), an diesem Ort (und nicht an einem der zahllosen anderen), zu dieser Zeit (von 86 400 möglichen Sekunden pro Tag) - die Wahrscheinlichkeit für eine solche Ereigniskette ist verschwindend gering. Ähnliches läßt sich für andere Umstände meines Lebens feststellen. In der unbelebten Natur verhält es sich ebenso. Die Wahrscheinlichkeit dafür, daß ein radioaktiver Atomkern genau dann zerfällt, wenn wir den Zerfall messen, ist außerordentlich gering. Nun, solche Wahrscheinlichkeiten berechnen wir gar nicht. Wir fragen uns vielmehr: Wie wahrscheinlich ist es, daß der Kern innerhalb eines gewissen Zeitraums zerfällt? Oder: Um wieviel wahrscheinlicher ist der Zerfall des Atomkerns in diesem Zeitraum als in einem anderen?
Wenn man die Wahrscheinlichkeit für die Existenz von Leben in unserer Galaxis berechnen möchte, so sollte man darauf achten, bei der Ereigniskette keine zu strengen Maßstäbe anzulegen. Wenn man es mit den Beschränkungen übertreibt -und das ist häufig geschehen -, so gelangt man zu dem Schluß, daß die Wahrscheinlichkeit für die Entstehung des Lebens auf der Erde fast gleich Null ist. Dieses >Argument< hat man oft herangezogen, um die göttliche Schöpfung zu >beweisen<. Ich habe es eben schon betont: Die gleiche äußerst geringe Wahrscheinlichkeit gilt dafür, daß ich am 3. Juni 1999 um genau elf Uhr siebenundfünfzig aus dem Fenster meines Wagens sehe und beobachtete, wie die Ampel von Rot auf Grün umspringt. Es dürfte extrem unwahrscheinlich sein, daß so etwas zum angegebenen Zeitpunkt passiert, aber es ist nicht unmöglich. Ich möchte hier ausdrücklich auf folgenden wichtigen Punkt hinweisen: Das Leben ist mindestens einmal in der Galaxis entstanden. Alle unsere wissenschaftlichen Erfahrungen deuten darauf hin, daß die Natur ein Phänomen nicht nur einmal präsentiert. Wir sind ein Musterfall. Unsere Existenz beweist, daß die Entstehung von Leben möglich ist. Die Tatsache, daß es hier bei uns Leben gibt, erhöht die Wahrscheinlichkeit dafür, daß auch woanders in der Milchstraße Organismen entstanden sind. (Einige Biologen geben jedoch zu bedenken, daß jenes extraterrestrische Leben nicht unbedingt intelligent sein muß.) Unsere Phantasie genügt sicher nicht, uns alle Möglichkeiten und Bedingungen für die Entstehung von intelligentem Leben vorzustellen. Andererseits können wir den Umstand unserer eigenen Existenz nutzen und fragen: Welche Eigenschaften des Universums waren für unsere Evolution notwendig oder von zentraler Bedeutung? Beginnen wir zunächst mit dem Universum im großen und ganzen. Ich habe bereits eine kosmische Besonderheit erwähnt: Im frühen Universum gab es ein zusätzliches Proton bei jeweils etwa zehn Milliarden Protonen und Antiprotonen. Andernfalls hätten sich alle Teilchen und Antiteilchen vollständig in Energie verwandelt, und dann gäbe es heute überhaupt keine Materie im Universum, weder intelligente noch andere. Die nächste offensichtliche Eigenschaft unseres Universums besteht darin, daß es sehr alt ist. Es dauerte dreieinhalb Milliarden Jahre, bis auf der Erde intelligentes Leben entstand. Unsere Existenz erforderte also einen Kosmos, der mindestens mehrere Milliarden Jahre von Bestand bleibt. Die gegenwärtigen Schätzungen für das Alter des Universums schwanken zwischen 10 und 20 Milliarden Jahren - Zeit genug. Allerdings ist es a priori nicht gerade einfach, ein Universum zu planen, das wie unser Kosmos expandiert, ohne sich schon nach relativ kurzer Zeit wieder zusammenzuziehen und im Gegenteil eines Big Bang - einem sogenannten Big Crunch - zu enden. Es wäre auch ein sich so schnell ausdehnendes Universum denkbar, daß der Materie gar keine Zeit bleibt, zu Sternen und Galaxien zu kondensieren. Die ursprünglichen Bedingungen - oder ein dynamischer physikalischer Prozeß ganz zu Anfang - müssen sorgfältig >kalibriert< gewesen sein, damit alles klappte. Das gerade geschilderte Problem ist zu einer wichtigen Frage der heutigen Kosmologie geworden. Die Anziehungskraft der Materie neigt dazu, die
Expansionsgeschwindigkeit des Universums zu reduzieren. Auf dieser Basis gibt es zwei Möglichkeiten. Entweder enthält der Kosmos genug Materie, um die weitere Ausdehnung zu stoppen und umzukehren (in dem Fall hätten wir ein geschlossenes Universum<), oder die Menge der Materie genügt nicht - dann haben wir ein >offenes< System, das immer weiter expandiert. An unserem heutigen Kosmos ist folgendes überraschend: Wenn wir die Menge der gesamten Materie schätzen, so stellt sich heraus, daß ihre Masse verdächtig nahe an der Grenze jener beiden Möglichkeiten liegt. Gewisse Dinge deuten darauf hin, daß wir in einem >flachen< Universum leben, das sich zwar immer langsamer ausdehnt, dessen Expansion jedoch nie aufhört. Überraschend ist das insbesondere dann, wenn man noch etwas anderes berücksichtigt. Wenn das Universum zu Beginn seiner Entwicklung nicht vollständig flach war, so weicht es im Lauf der Zeit immer mehr von diesem Zustand ab. Heute beläuft sich das Alter des Universums auf mindestens 10 Milliarden Jahre, und Beobachtungen deuten darauf hin, daß es fast flach ist. Woraus sich der Schluß ziehen läßt, daß es früher nur ganz wenig von einem völlig flachen Zustand abwich. Man kann sich kaum vorstellen, wie eine solche kosmische Evolution ohne einen in diese Richtung weisenden physikalischen Vorgang ablief. Vor etwa fünfzehn Jahren wurde ein solcher Vorgang zum erstenmal beschrieben. Man kennt ihn heute unter der Bezeichnung >Inflation<: Gemeint ist ein allgegenwärtiger Prozeß, der sich aufgrund von quantenmechanischen Effekten in einer frühen Phase des Universums abspielte. Erinnern wir uns: Der leere Raum ist nicht wirklich leer - Quantenfluktuationen im Vakuum können Energie übertragen. Zu Beginn des Universums entwickelte sich die Natur der Kräfte zwischen den Elementarteilchen im Zusammenspiel mit der Temperatur; unter solchen Bedingungen ist es möglich, daß die in Form von Quantenfluktuationen gespeicherte Energie zur dominanten Energie im Kosmos wird. Diese Vakuumenergie kann gravitationell abstoßen, anstatt anzuziehen. Eine Hypothese geht davon aus, daß es im Universum eine kurze inflationäre Phase gab, während der die Vakuumenergie dominierte und eine starke Ausdehnung bewirkte. Nach dem Ende dieser Periode verwandelt sich die Vakuumenergie in Materie und Strahlung, wodurch der Kosmos fast völlig >flach< wird. Ein anderes Problem bleibt jedoch. Einstein stieß darauf, als er versuchte, die Allgemeine Relativitätstheorie aufs Universum anzuwenden. Damals war noch nicht bekannt, daß sich der Kosmos ausdehnt; man hielt ihn vielmehr für statisch und glaubte, daß er sich im großen Maßstab nicht veränderte. Einstein mußte also nach einem Faktor suchen, der verhinderte, daß die gesamte Materie aufgrund ihrer eigenen Gravitation kollabierte. Er fügte seinen Gleichungen die sogenannte kosmologische Konstante hinzu - sie sorgte für eine >kosmische Abstoßung<, als Ausgleich zu der allgemeinen Gravitationskraft. Als man die nicht statische Natur des Universums entdeckte, begriff Einstein, daß die >Konstante< überhaupt nicht nötig war. Er bezeichnete ihre Einführung als >größte Eselei meines Lebens< die ihm je unterlaufen sei.
Doch wenn man die Existenz einer kosmologischen Konstante in Erwägung gezogen hat... Dann gibt es kein Zurück mehr. Ebensogut könnte man versuchen, die Zahnpasta in die Tube zurückzudrücken. Wenn ein solcher Faktor in Einsteins Gleichungen möglich ist, müssen wir erklären, warum er im beobachteten Universum fehlt. Die oben erwähnte Vakuumenergie ruft genau den Effekt hervor, den Einstein mit seiner Konstante erreichen wollte. Daraus ergibt sich die Frage: Wieso ist die Vakuumenergie im heutigen Universum nicht absolut dominant? Anders ausgedrückt: Wieso ist das aktuelle Universum nicht inflationär? Darauf haben wir noch keine Antwort gefunden. Vermutlich handelt es sich dabei um eine der wichtigsten Fragen in der heutigen Physik. Wenn wir auf der Basis unserer aktuellen Theorien Berechnungen durchführen, so lautet das Ergebnis: Die Vakuumenergie sollte um viele Größenordnungen intensiver sein, als wir aufgrund der Beobachtungen annehmen. Man hat versucht, die Differenz mit einer >Ableitung< von Vakuumenergie zu erklären, zum Beispiel durch so exotische Phänomene wie euklidische Wurmlöcher, aber solche Ideen sind reine Spekulationen. Was noch überraschender sein mag: Jüngste Beobachtungen in verschiedenen Bereichen deuten darauf hin, daß die kosmologische Konstante viel kleiner ist, als wir erklären können, jedoch nicht unbedingt den Wert Null haben muß. Vielleicht übt sie eine meßbare Wirkung auf die Evolution des Universums aus - wodurch es älter wurde, als es >normalerweise< der Fall gewesen wäre. Dieses Thema ist äußerst interessant; bei meinen gegenwärtigen Forschungsarbeiten befasse ich mich häufig damit. Wie auch immer die Lösung dieses Problems aussieht: Fest steht, daß die fast völlige >Flachheit< des Universums zu den notwendigen Voraussetzungen für die Entstehung des Lebens auf der Erde gehörte. Und kosmologische Bedingungen, die für das Entstehen von Leben auf der Erde günstig sind, wirken sich auch woanders aus. Auch auf einem fundamentalen mikrophysikalischen Niveau gibt es viele Faktoren, die es erlaubten, daß Leben auf der Erde entstand. Wenn nur eine von vielen elementaren physikalischen Größen in der Natur anders beschaffen gewesen wäre, hätte es keine Entwicklung des Lebens auf unserem Planeten gegeben. Um ein Beispiel zu nennen: Wenn die sehr geringe Massedifferenz zwischen Neutronen und Protonen (etwa ein Promille) auch nur um den Faktor 2 verändert worden wäre, so hätte sich eine ganz andere Verteilung der einzelnen Elemente ergeben, mit erheblichen Konsequenzen für das Leben auf der Erde. Ähnlich verhält es sich mit dem Energieniveau bei einem angeregten Zustand des Kohlenstoff-Atomkerns: Wenn es auch nur ein wenig anders beschaffen wäre, so könnte es im Innern von Sternen nicht zu jenen Reaktionen kommen, die Kohlenstoff produzieren. Und dann gäbe es nicht die Substanz, die heute Grundlage aller organischen Moleküle ist. Es ist sehr schwer, diesen einzelnen Punkten, die uns wie Zufälle erscheinen, die richtige Bedeutung beizumessen. Wir haben uns in diesem Universum entwickelt, und deshalb stellen wir natürlich fest, daß die Konstanten in der Natur genau den richtigen Wert haben, um unsere Entstehung zu ermöglichen. Nehmen wir einmal an, das beobachtete Universum sei Teil eines Metauniversums, das auf einem höheren
Niveau, als von uns erkennbar, existiert. Das Metauniversum besteht aus vielen einzelnen Universen, und in jedem davon könnten die Konstanten der Natur anders beschaffen sein. Wo sie inkompatibel mit der Entwicklung des Lebens sind, ist niemand zugegen, um irgend etwas zu messen. Der russische Kosmologe Andrej Linde hat diese Form des Wissens als >anthropisches Prinzip< bezeichnet. So mag sich ein intelligenter Fisch fragen, warum das Universum, in dem er lebt (das Aquarium) aus Wasser besteht. Die Antwort ist ganz einfach: Wenn es nicht aus Wasser bestünde, könnte er gar keine derartige Frage stellen. Diese Dinge sind zwar sehr interessant, aber in empirischer Hinsicht bleiben sie derzeit unlösbar. Vielleicht sollten wir sie besser Philosophen, Theologen und Science Fiction-Autoren überlassen. Finden wir uns mit der Tatsache ab, daß sich unser Universum im mikroskopischen wie im makroskopischen Bereich entwickelt hat, auf eine Weise, durch die das Entstehen von Leben möglich wurde. Wenden wir uns nun unserer Heimat zu, der Milchstraße. Wenn wir uns überlegen, wo in unserer Galaxie intelligentes Leben existieren könnte, werden die physikalischen Voraussetzungen schon etwas deutlicher. Seit mindestens 10 Milliarden Jahren gibt es Sterne in der Milchstraße, während das Leben auf der Erde nicht älter ist als etwa dreieinhalb Milliarden Jahre. Wie lange könnte es in unserer Galaxie Leben gegeben haben, bevor es auf der Erde entstand? Als unsere Galaxie vor 10 bis 20 Milliarden Jahren Gestalt annahm, bestanden die Sterne der ersten Generation vollkommen aus Wasserstoff und Helium - nach dem Urknall existierten nur diese beiden Elemente in ausreichender Menge. Die Kernfusion im Innern der Sterne wandelte Wasserstoff in Helium um. Nach dem Verbrauch des Wasserstoff-Treibstoffs setzen sich die Fusionsprozesse beim Helium fort, das zu schwereren Elementen verbrannt wird. Auf diese Weise geht es weiter, bis der solare Kern schließlich aus Eisen besteht. Eisen kann nicht zu schwereren Elementen verschmolzen werden, und das bedeutet für den betreffenden Stern: Sein nuklearer Treibstoff ist verbraucht. Die Geschwindigkeit, mit der die Kernfusion eines Sterns abläuft, hängt von der Masse ab. Unsere Sonne verbrennt seit fünf Milliarden Jahren Wasserstoff, aber sie hat noch nicht einmal die Hälfte ihrer ersten stellaren Evolutionsphase hinter sich. Sterne mit zehn Sonnenmassen -Sterne, die zehnmal so schwer sind wie unsere Sonne - verbrennen ihren Treibstoff tausendmal schneller. Sie verbrauchen ihren Wasserstoffvorrat in 100 Millionen Jahren und nicht erst in zehn Milliarden Jahren wie die Sonne. Was geschieht mit den massiveren Sternen, wenn ihr Treibstoff zur Neige geht? Wenige Sekunden nach dem Verbrennen des letzten Restes kommt es zu einer gewaltigen Explosion, und die äußere Hülle des Sterns wird fortgeschleudert - eine Supernova entsteht, eins der hellsten Objekte im ganzen Universum. Supernovae strahlen für kurze Zeit soviel Licht aus wie Milliarden von Sternen. In unserer Galaxie passiert das etwa zwei- oder dreimal in hundert Jahren. Vor fast einem Jahrtausend entdeckten chinesische Astronomen einen neuen Stern, der selbst tagsüber sichtbar war - jene Supernova schuf etwas, das wir heute Crab-Nebel nennen. Interessanterweise wurde dieses Phänomen in Westeuropa weitgehend ignoriert; zumindest wird es nicht in Aufzeichnungen erwähnt. Der Grund dürfte das
Kirchendogma der damaligen Zeit sein: Es behauptete, der Himmel sei ewig und unveränderlich. Die Leute übersahen den neuen Stern lieber, anstatt auf dem Scheiterhaufen zu enden. Fast 500 Jahre später konnten sich europäische Astronomen weit genug von dem Dogma befreien, daß es der Däne Tycho Brahe wagen konnte, Daten über eine beobachtbare Supernova in unserer Galaxie zu sammein. Viele schwere Elemente, die während der stellaren Kernfusion oder durch die Explosion entstanden, geraten in den interstellaren Raum und bilden Staub, der sich später zu Wolken verdichtet und irgendwo anders neue Sterne bildet. Einige Jahrmilliarden später entsteht eine neue stellare Generation - die sogenannte Population l, zu der auch unsere Sonne gehört -, und einige von ihnen verfügen über kleinere Staub- und Gaswolken, aus denen schließlich Planeten hervorgehen. Planeten mit schweren Elementen wie Kalzium, Kohlenstoff und Eisen. Aus diesen Substanzen bestehen wir. Jedes Atom in unserem Körper entstand vor Milliarden von Jahren im Innern einer längst toten Sonne. Diesen Aspekt des Universums finde ich besonders faszinierend und auch poetisch: Wir alle sind im wahrsten Sinne des Wortes Kinder der Sterne. Es wäre nicht besonders günstig, wenn ein Planet wie die Erde in der Nähe eines massiven Sterns entstünde. Immerhin beträgt die Lebensdauer solcher Sonnen nur etwa 100 Millionen Jahre. Nur Sterne mit der Masse unserer Sonne (oder weniger) verbringen mehr als 5 Milliarden Jahre in einer stabilen Phase der Umwandlung von Wasserstoff in Helium. Wie soll Leben auf einem Planeten entstehen, wenn die Leuchtkraft der Sonne (und damit auch die Strahlungsintensität) stark schwankt? Andererseits: Wenn es auf dem Planeten einer kleineren und leuchtschwächeren Sonne warm genug für die Entwicklung des Lebens sein soll, so müßte die betreffende Welt dem Stern so nahe sein, daß sie von gravitationellen Gezeitenkräften praktisch zerrissen wird. Wenn wir also nach Leben suchen, so sollten wir bei Sonnen Ausschau halten, die sich nicht zu sehr von unserer unterscheiden. Nun, zufälligerweise ist das Zentralgestirn unseres Sonnensystems alles andere als außergewöhnlich. Etwa 25 Prozent aller Sterne in der Milchstraße - also etwa 100 Milliarden - sind ähnlich beschaffen. Viele von ihnen sind noch älter als die Sonne; in ihren Systemen könnten 4 bis 5 Milliarden Jahre eher als bei uns Leben entstanden sein. Und nun zur Erde. Warum stellt unsere blaugrüne Welt etwas Besonderes dar? Zunächst einmal befindet sie sich im inneren Bereich des Sonnensystems. Das ist wichtig, denn die äußeren Planeten bestehen aus mehr Wasserstoff und Helium - ihr Aufbau ähnelt eher dem der Sonne. Die meisten schweren Elemente in der Gas- und Staubwolke, die unsere Sonne in der Anfangsphase umgab, scheinen in der inneren Region geblieben zu sein; die leichteren wurden durch den Strahlungsdruck weiter hinausgeblasen. Daraus könnte man schließen: Die >Lebenszone< eines Sterns von der Masse unserer Sonne reicht etwa bis zur Umlaufbahn des Mars. Die Erde ist genau richtig: weder zu groß noch zu klein, weder zu kalt noch zu heiß. Die inneren Planeten verfügten wahrscheinlich nicht über eine Atmosphäre, als sie entstanden - sie entwickelte sich erst durch Gase, die aufgrund vulkanischer
Aktivität freigesetzt wurden. Auf diese Weise sammelte sich auch Wasser an der Erdoberfläche. Ein kleinerer Planet hätte seine Wärme zu schnell abgestrahlt, als daß der Vulkanismus lange genug andauern konnte, um eine nennenswerte Atmosphäre zu bilden. Das dürfte bei Merkur und dem Mond der Fall sein. Der Mars ist ein Grenzfall. Erde und Venus hingegen haben eine relativ dichte Atmosphäre bekommen. Jüngste Messungen der radioaktiven Gasisotope im irdischen Felsgestein weisen auf folgendes hin: Vor etwa viereinhalb Milliarden Jahren entstand die Erde im Verlauf von 100 bis 150 Millionen Jahren, indem sich immer mehr Materie ansammelte und verdichtete; ein Bombardement aus Meteoriten und Meteoren fügte ihr noch mehr Substanz hinzu. Anschließend produzierte der Vulkanismus 85 Prozent der Atmosphäre im Verlauf einiger Jahrmillionen. Es ist also keineswegs überraschend, daß sich das Leben auf der Erde und nicht auf den anderen Planeten des Sonnensystems entwickelte. Ähnliche Tendenzen darf man auch anderenorts in der Galaxis erwarten - auf Planeten der Klasse M, wie man sie im Star Trek-Kosmos nennt. Die nächste Frage lautet: Wie schnell entwickelt sich erst das Leben und später auch das intelligente Leben auf der Grundlage der irdischen Erfahrungen? Die Antwort auf den ersten Teil der Frage lautet: sehr schnell. Man hat dreieinhalb Milliarden Jahre alte Fossilienfunde blaugrüner Algen gefunden, und einige Forscher sind der Ansicht, daß es schon vor 3,8 Milliarden Jahren Organismen gab. Schon hundert Millionen Jahre nach dem frühestmöglichen Zeitpunkt entstand das Leben auf der Erde. Eine sehr ermutigende Tatsache. Von der Entstehung erster Organismen auf der Erde bis hin zu Entwicklung von komplex strukturierten Vielzellern und schließlich intelligentem Leben vergingen rund 3 Milliarden Jahre. Es gibt allen Grund zu der Annahme, daß für diesen langen Zeitraum physikalische Gründe verantwortlich sind und nicht so sehr biologische. Zu Anfang enthielt die irdische Atmosphäre keinen Sauerstoff. Es gab Kohlendioxid, Stickstoff, ein wenig Methan, Ammoniak, Schwefeldioxid und Chlorwasserstoff. Doch es fehlte Sauerstoff, der nicht nur für die hochentwickelten Lebensformen auf der Erde wichtig ist, sondern auch noch eine andere bedeutende Rolle spielt. Nur wenn ausreichend Sauerstoff vorhanden ist, kann sich Ozon in der Atmosphäre bilden. Inzwischen wissen immer mehr Menschen um die Funktion von Ozon Bescheid: Es filtert die ultraviolette Strahlung, die für die meisten Organismen schädlich ist. In diesem Zusammenhang kann es kaum verwundern, daß eine wahre >Explosion< des Lebens auf der Erde erst begann, als genug Sauerstoff zur Verfügung stand. Nach den neuesten Messungen begann der Sauerstoffanteil in der Atmosphäre vor 2 Milliarden Jahren allmählich anzusteigen und erreichte 600 Millionen Jahre später das heutige Niveau. Zwar wurde Sauerstoff schon vorher erzeugt, und zwar durch die Photosynthese der blaugrünen Algen in den Urozeanen, doch er konnte sich nicht in der Atmosphäre ansammeln. Er reagiert mit vielen Substanzen, zum Beispiel mit Eisen: Was durch die Photosynthese an Sauerstoff entstand, ging sofort mit anderen Elementen Verbindungen ein. Schließlich waren in der >Ursuppe< genug Oxide enthalten, so daß freier Sauerstoff für die Atmosphäre übrigblieb. (Dieser Vorgang
fand auf der Venus nie statt, weil sich dort aufgrund der hohen Temperaturen keine Meere bildeten. So konnten keine Algen entstehen, die Sauerstoff produzierten.) Als alle Voraussetzungen für komplexe Lebensformen existierten, dauerte es etwa eine Milliarde Jahre, bis sie sich entwickelten. Wir wissen nicht, ob diese zeitlichen Maßstäbe typisch sind. Es kam zu Zwischenfällen: Hier und dort schlug die Evolution den falschen Weg ein; es kam zu klimatischen Veränderungen und Kataklysmen, die ganze Spezies aussterben ließen. Solche Ereignisse beeinflußten natürlich die allgemeine Geschwindigkeit der Lebensentwicklung. Wie dem auch sei: Die Erde beweist, daß sich intelligentes Leben in relativ kurzer Zeit - auf das Universum bezogen - entwickeln kann. Der Zeitraum wird dabei in erster Linie von physikalischen Faktoren bestimmt, von Wärme, chemischen Reaktionen und so weiter. Wenn wir davon ausgehen, daß intelligentes Leben organischer Natur sein muß und auf Sauerstoffbasis existiert - eine sehr konservative Annahme, von der sich die Star Trek-Autoren keine Fesseln anlegen ließen (sie erfanden Siliziumwesen wie den Horta, der mir besonders gut gefällt) -, so sollten wir es bei den Planeten von mehreren Milliarden Jahren alten Sternen mit etwa einer Sonnenmasse suchen. Wenn wir davon ausgehen, daß die Entstehung von Leben ein >normaler< Prozeß ist, der relativ wenig Zeit in Anspruch nimmt: Welche Hinweise gibt es dafür, daß die erforderlichen Bedingungen - vor allem organische Moleküle und Planeten -in anderen Bereichen des Kosmos existieren? Auch hier geben jüngste Forschungsergebnisse Anlaß zu Optimismus. Organische Moleküle sind in Asteroiden, Kometen, Meteoriten und auch im interstellaren All nachgewiesen. Darunter befinden sich auch komplexe Moleküle wie Aminosäuren - die Bausteine des Lebens. Bei Mikrowellenmessungen von interstellaren Gas- und Staubwolken hat man Dutzende von organischen Verbindungen entdeckt, unter ihnen auch komplexe Kohlenwasserstoffe. Heute zweifelt man kaum mehr daran, daß es überall in der Galaxis organische Materie gibt. Und Planeten? Zwar ist bis heute nur ein weiteres Planetensystem durch direkte Beobachtung nachgewiesen, aber man glaubt schon seit geraumer Zeit, daß die meisten Sterne Planeten haben. Viele verfügen über einen stellaren Begleiter; man bezeichnet sie als >Doppelsterne<. Außerdem sind viele junge Sterne von Gas- und Staubwolken umgeben; man nimmt an, daß später Planeten daraus entstehen. Verschiedene numerische Modelle bei der Simulation von Verteilung und den Umlaufbahnen solcher planetarer Massen deuten darauf hin (ich drücke mich hier mit Absicht sehr vorsichtig aus), daß sich mindestens ein erdähnlicher Planet in erdähnlicher Entfernung vom Zentralgestirn bildet. Ich habe eben schon darauf hingewiesen, daß inzwischen ein anderes Planetensystem durch direkte Beobachtung nachgewiesen werden konnte. Es ist 1400 Lichtjahre von der Erde entfernt, und erstaunlicherweise befindet es sich an einem der ungastlichsten Orte, den man sich vorstellen kann: Drei Planeten umkreisen einen Pulsar, den kollabierten Kern einer Supernova, sind ihm näher als die Venus der Sonne. Diese Planeten könnten durchaus erst nach dem Supernova-Ausbruch
entstanden sein. Nun, ihre Entdeckung bestätigt jedenfalls, daß die Entstehung von Planeten kein einzigartiger Vorgang ist. Ich möchte hier vermeiden, den Wald vor lauter Bäumen nicht zu sehen. Es erscheint fast wie ein Wunder, daß die Gesetze von Physik und Chemie - in einem expandierenden Universum, das mindestens 10 Milliarden Jahre alt ist - zur Entwicklung von Geschöpfen führten, die den Kosmos untersuchen und sich bemühen, seine Geheimnisse zu lüften. Zwar haben besondere Umstände zur Entstehung von Leben auf der Erde geführt, aber offenbar sind diese Umstände nicht auf die Erde beschränkt. Die oben dargelegten Argumente weisen darauf hin, daß es in unserer Galaxie eine Milliarde Sonnensysteme mit Leben geben könnte. Und die Milchstraße ist nur eine von 100 Milliarden Galaxien - unter solchen Bedingungen fällt es mir schwer zu glauben, daß wir allein sind. Hinzu kommt, daß die meisten Sterne der Population l früher entstanden als die Sonne - bis zu 5 Milliarden Jahre früher. Angesichts des bereits erwähnten Zeitrahmens bedeutet das: In vielen fremden Sonnensystemen kann sich intelligentes Leben Jahrmilliarden vor dem auf der Erde entwickelt haben. Vielleicht ist die Galaxis voller Zivilisationen, die schon Hunderte von Millionen Jahren vor uns existierten - es hängt davon ab, wie lange intelligentes Leben von Bestand bleiben kann. Wenn man dabei unsere eigenen Erfahrungen berücksichtigt, so muß man leider die Möglichkeit in Betracht ziehen, daß diese Zivilisationen bereits nach einigen tausend Jahren von Katastrophen wie Krieg und Hunger dahingerafft wurden. In diesem Fall wäre das meiste intelligente Leben längst aus der Milchstraße verschwunden. Ein Forscher drückte es vor 20 Jahren so aus: »Die Frage, ob es dort draußen intelligentes Leben gibt, hängt letztendlich davon ab, wie intelligent das Leben ist.«* Wie sollen wir jemals Gewißheit erlangen? Schicken wir Raumschiffe ins All, um fremde Welten Zu erforschen, neues Leben und neue Zivilisationen, um dorthin vorzustoßen, wo noch nie jemand gewesen ist? Oder werden wir vielleicht von unseren galaktischen Nachbarn entdeckt, weil sie die von uns ausgesandten Signale entdecken, unter ihnen die Fernsehbilder der Star Trek-Serien? Ich glaube weder an das eine noch an das andere, und mit dieser Ansicht befinde ich mich in guter Gesellschaft. Zunächst einmal: Wir wissen inzwischen, mit wie vielen großen Problemen die interstellare Raumfahrt verbunden ist. Ob Warptriebwerk oder nicht: Es wären Energien notwendig, die all das übersteigen, was wir uns derzeit vorstellen können. Wenn wir ein Raumschiff mit Hilfe von Materie-Antimaterie-Annihilation auf drei Viertel der Lichtgeschwindigkeit beschleunigen wollen, um während einer zehnjährigen Reise den nächsten Stern zu besuchen, so wäre eine Energiemenge erforderlich, die dem (heutigen) Energiebedarf der USA für die nächsten hunderttausend Jahre entspricht! * Bernard M. Oliver, >The Search for Extraterrestrial Life<, Engineering and Science, Dezember 1974.
Für ein Warptriebwerk benötigte man noch viel mehr Energie. Außerdem: Um die Chance zu erhöhen, wirklich Leben zu finden, müßte man sich einige tausend Sterne aus der Nähe ansehen. Ich furchte, das läßt sich im Verlauf des nächsten Jahrtausends nicht einmal mit Lichtgeschwindigkeit bewerkstelligen. Soweit die schlechten Nachrichten. Nun zu den guten: Es besteht keine Gefahr für uns, von Fremden aus dem All angegriffen zu werden. Die Außerirdischen dürften das Energieproblem ebenfalls entdeckt und daraus den Schluß gezogen haben, daß es leichter ist, aus der Ferne nach fremdem Leben zu suchen. Warum setzen wir die Energie nicht dazu ein, mit Sendungen auf unsere Existenz hinzuweisen? Es wäre viel billiger. Wir könnten dem nächsten Sonnensystem eine aus zehn Worten bestehende Botschaft schicken, die sich mit ausreichend großen Radioantennen empfangen ließe - dafür genügt Elektrizität im Wert von einem Dollar. Doch wenn wir senden, anstatt ins All zu lauschen, riskieren wir, von den meisten intelligenten Lebensformen überhaupt nichts zu bemerken. Ich leihe mir hier ein Argument des Nobelpreisträgers Edward Purcell aus. Höher entwickelten Zivilisationen sollte es leichter fallen als uns, starke Signale zu senden. Da wir uns erst seit etwa achtzig Jahren mit der Radiotechnik befassen, gibt es kaum Zivilisationen, die weniger entwickelt und trotzdem imstande sind, unsere Signale zu empfangen. Deshalb erscheint es mir angebracht, daß wir einen Rat meiner Mutter beherzigen und erst zuhören, bevor wir sprechen. Allerdings hoffe ich, daß nicht alle fortgeschritteneren Zivilisationen so denken. Wo und wie sollen wir mit dem Lauschen beginnen? Wenn wir nicht die geringste Ahnung haben, welchen Kanal es zu wählen gilt, bleibt die Suche nach Signalen praktisch hoffnungslos. Lassen wir uns von Star Trek leiten. In der Fernsehfolge >Die Begegnung im Weltraum< findet die Enterprise eine Lebensform, die sich im leeren All von Energie ernährt. Besonders schmackhaft findet sie eine ganz bestimmte Strahlung: 1420 Millionen Schwingungen pro Sekunde beziehungsweise Hertz, eine Wellenlänge von 21 cm. Um Pythagoras zu gedenken: Wenn es eine Sphärenmusik gäbe, so wäre dies ihre Eröffnungssequenz. Tausendvierhundertzwanzig Megahertz: die natürliche Frequenz der Spin-Präzession eines Elektrons, während es ein Atom des häufigsten Elements im Universum umkreist: Wasserstoff. Es ist die (um einen Faktor von mindestens 1000) auffälligste Radiofrequenz in der Galaxis. Und sie gehört zu dem Frequenzfenster, das es Licht und anderen Strahlungen erlaubt, die Atmosphäre von erdähnlichen Welten zu durchdringen. Außerdem gibt es im Bereich dieser Frequenz nur geringes >Hintergrundrauschen<. Radioastronomen haben sie benutzt, um festzustellen, wo sich Wasserstoff (und damit Materie) in unserer Galaxis befindet dadurch gelang es ihnen, die Form der Milchstraße festzustellen. Jede intelligente Spezies, die über Radiowellen Bescheid weiß, kennt diese Frequenz. Sie ist wie ein kosmisches Funkfeuer. Vor fast vierzig Jahren schlugen die Astrophysiker Giuseppe Cocconi und Philip Morrison diese Frequenz als natürlichen Sende- und Empfangskanal vor. Bis heute hat niemand Einwände erhoben. Hollywood erriet nicht nur die richtige Frequenz fürs Lauschen, sondern half auch, das notwendige Geld aufzutreiben. Kleinere Horchprojekte werden schon seit dreißig
Jahren durchgeführt, doch das erste Programm im großen Maßstab begann im Herbst 1985, als Steven Spielberg einen großen Kupferschalter betätigte - das markierte den offiziellen Beginn von META (Megachannel Extra Terrestrial Array). Dieses Projekt ist das geistige Kind des Elektronikspezialisten Paul Horowitz. Das 26-MeterRadioteleskop in Harvard, Massachusetts, stellt eins der wichtigsten Werkzeuge von META dar, und finanziert wird das Projekt von der Planetary Society. Mr. ET Steven Spielberg - hat hunderttausend Dollar gestiftet. Verwendet wird ein Computer mit 128 Parallelprozessoren, die 8388608 Frequenzkanäle gleichzeitig untersuchen können, im Bereich von 1420 Megahertz und der sogenannten zweiten Unterschwingung von 2840 Megahertz. Mehr als fünf Jahre lang wurden Daten gesammelt, und inzwischen hat META den Himmel dreimal abgesucht. Natürlich muß man beim Horchen ins All gewisse Dinge berücksichtigen. Zunächst einmal: Selbst wenn ein Signal mit 1420 Megahertz gesendet wird - deshalb muß es nicht auch auf dieser Frequenz empfangen werden. Das liegt am berühmtberüchtigten Doppier-Effekt: Das Pfeifen eines Zugs klingt höher, wenn er sich nähert - und tiefer, wenn er sich entfernt. Das gilt auch für Radiosignale, die von einem beweglichen Sender ausgehen. Da die meisten Sterne in der Galaxis eine Eigengeschwindigkeit von einigen hundert Kilometern pro Sekunde relativ zu uns haben, dürfen wir den Doppier-Effekt nicht ignorieren. (Die Star Trek-Autoren haben ihn berücksichtigt und den Transporter mit >Doppler-Kompensatoren< ausgestattet, um Bewegungsunterschiede zwischen Raumschiff und Transferobjekt auszugleichen.) Die META-Forscher gingen von der Annahme aus, daß diese Verschiebung eventuellen fremden Zivilisationen bekannt sein muß. Deshalb suchen sie nach 1420Megahertz-Signalen, die relativ zu drei Bezugspunkten verschoben sind: a) dem Bewegungsmuster unserer lokalen Sterngruppe, b) dem Bewegungsmuster des galaktischen Zentrums, und c) der kosmischen Hintergrundstrahlung als Mikrowellenrest des Urknalls. Unter solchen Voraussetzungen lassen sich von der Erde stammende Signale leicht erkennen, denn sie alle gehen vom irdischen Bezugspunkt aus, der anderes beschaffen ist als die oben genannten. Aus diesem Grund >verraten< sich terrestrische Signale durch ein charakteristisches >Zirpen< in den META-Daten. Welche Informationen würde ein extraterrestrisches Signal übertragen? Cocconi und Morrison schlugen vor, nach den ersten Primzahlen Ausschau zu halten: l, 3, 5, 7, 11, 13... Genau diese Zahlenfolge klopfte Picard in >Versuchskaninchen<, als er während der Gefangenschaft darauf hinweisen will, daß er zu einer intelligenten Spezies gehört. Von einem Stern ausgehende Impulse können wohl kaum eine solche Serie produzieren. Die META-Forscher haben unter anderem nach einem noch einfacheren Signal gesucht: einem Dauerton auf einer bestimmten Frequenz. Eine solche >Trägerwelle< läßt sich leicht entdecken. Horowitz und der Astronom Carl Sagan haben inzwischen eine Analyse von fünf Jahren META-Arbeit vorgelegt. Über 100000 Milliarden Signale wurden empfangen, und 37 wurden in die engere Wahl gezogen. Allerdings: Keins davon hat sich wiederholt. Horowitz und Sagan gehen sicherheitshalber davon aus, daß bisher noch keine definitiven Daten vorliegen. Als Ergebnis konnten sie jedoch Grenzwerte
festlegen, wie viele hochentwickelte Zivilisationen es innerhalb verschiedener Entfernungsbereiche geben könnte, die versucht haben, mit uns in Kontakt zu treten. Die Suche nach Radiosignalen, die von außerirdischen Intelligenzen stammen könnten, ist ungeheuer komplex, und bisher hat man nur in einem kleinen Frequenzbereich gelauscht. Hinzu kommt, daß die Signale eine recht hohe Energie haben müssen, um vom META-Teleskop erfaßt zu werden: Es wäre notwendig, sie mit einer Stärke auszustrahlen, die der gesamten von der Erde empfangenen Sonnenenergiemenge entspricht, also etwa 1017 Watt. Wir brauchen die Hoffnung also nicht aufzugeben. Das Horchen allein ist schon schwer genug. Die METAGruppe baut nun einen größeren und leistungsfähigeren Detektor (BETA), der die Suche etwa um den Faktor 1000 verstärken wird. Wir halten auch weiterhin Augen und Ohren offen. Der Umstand, daß wir bisher nichts entdeckt haben, sollte uns nicht entmutigen. Mein Freund Sidney Coleman, Physikprofessor an der Harvard-Universität, verglich es einmal mit der Suche nach einem geeigneten Haus: Man sieht sich hundert an und findet nichts. Doch zum Glück braucht einem nur eins zu gefallen... Ähnlich verhält es sich hier. Ein einziges, unmißverständliches Signal - so unwahrscheinlich es auch sein mag - würde unsere Einstellung dem Universum gegenüber grundlegend verändern und den Beginn einer neuen Epoche in der menschlichen Evolution einleiten. Wer jetzt enttäuscht darüber ist, daß unsere Kontakte mit Außerirdischen nicht auf fernen Welten in fremden Sonnensystemen stattfinden können, der sei mit einem Hinweis auf die Cytherianer getröstet. Diese hochentwickelte Zivilisation im Star Trek-Kosmos setzte sich mit anderen Intelligenzen in Verbindung, indem sie Sonden ausschickte und fremde Reisende - darunter die Enterprise - zu sich holte. In gewisser Weise verhalten wir uns ähnlich, wenn wir nach Signalen von den Sternen horchen.
NEUN
Die Menagerie der Möglichkeiten »Das ist Ihre neue Forschungsmission! Es geht nicht darum, Sterne und Nebel zu kartographieren. Statt dessen sollen Sie die unbekannten Möglichkeiten der Existenz untersuchen.« Q zu Picard, in >Gestern, heute, morgen< Mehr als dreizehn Jahre lang bescherte uns Star Trek immer neue Fernsehabenteuer, und während dieser Zeit fanden die Autoren Gelegenheit, interessante Ideen aus allen Bereichen der Physik zu präsentieren. Manchmal bekamen sie dabei alles richtig hin; manchmal nicht. Ab und zu verwenden sie nur die gleichen Fachbegriffe wie Physiker. In einigen Fällen greifen sie auch auf den Inhalt der Worte zurück. Wenn man die Themen auflistet, mit denen sich Star Trek häufig befaßt, so glaubt man, einen Blick auf die Fachgebiete der modernen Physik zu werfen: Spezielle und Allgemeine Relativitätstheorie, Kosmologie, Elementarteilchenphysik, Zeitreise, Verzerrung des Raums, Quantenfluktuationen und so weiter. In diesem vorletzten Kapitel möchte ich einige der faszinierendsten Konzepte der heutigen Theoretischen Physik vorstellen, bei denen die Star Trek-Autoren Anleihen machten. Damit meine ich insbesondere Theorien, auf die ich bisher noch nicht eingegangen bin. Die Konzepte unterscheiden sich sehr voneinander, und deshalb führe ich sie hier in Glossarform an, ohne sie zu ordnen oder in eine bestimmte Reihenfolge zu bringen. Auch für das letzte Kapitel wähle ich diese Darstellungsform, um auf die zehn größten (wissenschaftlichen) Fehler der Serie hinzuweisen. Sie wurden nicht nur von mir ausgewählt, sondern auch von anderen Physikern und einigen Trekkies. In beiden Kapiteln beschränke ich mich auf die ersten zehn Punkte von Listen, die sich fortsetzen ließen. DIE GROSSE DER GALAXIS UND DES UNIVERSUMS Die Galaxis ist die Bühne, auf der das Star Trek-Drama stattfindet. Während der Serie spielen Entfernungs- und Größenangaben immer wieder eine wichtige Rolle. Der Zuschauer hört ständig von Astronomischen Einheiten (AE, die Entfernung der Erde von der Sonne: rund 150 Millionen Kilometer) und Lichtjahren. Außerdem fügt man der Milchstraße besondere Merkmale hinzu: Im Zentrum bekam sie eine >Große Barriere< (so in STAR TREK V: Am Rande des Universums), am Rand eine >galak-
tische Barriere< (so in >Spitze des Eisbergs<, >Stein und Staub< und >Die fremde Materie<). Um eine Vorstellung davon zu gewinnen, wo die Star Trek-Abenteuer stattfinden, sollten wir uns vor Augen führen, was wir heute über die Größe der Milchstraße, ihrer Nachbarn und des Universums wissen. Aufgrund der enormen Distanzen verzichtet man darauf, konventionelle Maßeinheiten wie Kilometer zu verwenden. Statt dessen haben Astronomen Vergleichslängen definiert, zum Beispiel die Astronomische Einheit. Dieses Maß eignet sich gut, um Entfernungen innerhalb des Sonnensystems zu beschreiben. Der letzte Planet Pluto ist demnach fast 40 AE von der Sonne entfernt. In STAR TREK: Der Film wird behauptet, daß die V'ger-Wolke 82 AE durchmißt - sie wäre also doppelt so groß wie unser Sonnensystem! Um interstellare Distanzen zu messen, nehmen wir Bezug auf die Geschwindigkeit des Lichts. Das Licht (oder die Enterprise mit Warp 1) braucht etwa acht Minuten, um von der Sonne zur Erde zu gelangen. (So weit sollten alle Planeten der Klasse M von ihrer jeweiligen Sonne entfernt sein.) Wir können also sagen: Eine AE entspricht acht Lichtminuten. Nun, die Distanz zur nächsten Sonne, Alpha Centauri - dort lebte offenbar der Erfinder des Warpantriebs, Zefrem Cochrane - beträgt gut vier Lichtjahre! Das ist die typische Entfernung zwischen Sternen in unserer galaktischen Region. Ein mit unseren modernsten Raketentriebwerken ausgestattetes Raumschiff würde mehr als zehntausend Jahre brauchen, um Alpha Centauri zu erreichen. Mit Warp 9 - das entspricht etwa dem 15OOfachen der Lichtgeschwindigkeit - dauert es sechs Stunden, um ein Lichtjahr zurückzulegen (also etwa 24 Stunden bis Alpha Centauri). Unsere Sonne ist etwa 25000 Lichtjahre vom Zentrum der Galaxis entfernt. Mit Warp 9 braucht man 15 Jahre für eine solche Reise. Dennoch schaffte es Sybok in STAR TREK V: Am Rande des Universums, die Enterprise unter seine Kontrolle zu bringen und mit ihr zum Mittelpunkt der Milchstraße zu fliegen. Das wäre nur dann möglich gewesen, wenn sich die Enterprise bereits in unmittelbarer Nähe des Zentrums befunden hätte. Die Milchstraße ist eine Spiralgalaxie mit einer großen zentralen Scheibe aus Sternen. Sie durchmißt etwa 100000 Lichtjahre, und ihre Dicke beträgt einige tausend Lichtjahre. In der ersten Folge der neuen Star Trek-Serie wurde die Voyager 70 000 Lichtjahre weit transferiert - sie muß sich also auf der anderen Seite der Galaxis befinden. Mit Warp 9 würde sie etwa 50 Jahre brauchen, um wieder in die Nähe heimatlicher galaktischer Gefilde zu gelangen. Das Zentrum unserer Galaxis bildet eine Art >Buckel<: eine dichte Ansammlung aus Sternen mit einem Durchmesser von mehreren tausend Lichtjahren. Im Mittelpunkt befindet sich wahrscheinlich ein Schwarzes Loch mit einigen Millionen Sonnenmassen. Man vermutet heute Schwarze Löcher von 100 000 bis mehr als einer Milliarde Sonnenmassen im Zentrum der meisten Galaxien. Ein Halo aus sehr alten Sternen umgibt die Milchstraße. Gebildet wird er von sogenannten Kugelsternhaufen, die zu den ältesten Objekten des Milchstraßensystems gehören. Mit unseren gegenwärtigen Meßmethoden haben wir ein Alter von bis zu 18 Milliarden Jahren festgestellt - sie sind also noch älter als der
>schwarze Haufen< in der Folge >Der einzige Überlebende< - angeblich war er 9 Milliarden Jahre alt. Man nimmt an, daß ein noch größerer Halo aus >dunkler Materie< (dazu später mehr) die Galaxis umhüllt. Für Teleskope aller Art ist dieser Halo unsichtbar; die Bewegungen von Sternen und Gas in der Milchstraße deuten auf seine Existenz hin. Möglicherweise enthält er bis zu zehnmal soviel Masse, wie in den Sternen der ganzen Galaxis enthalten ist. Die Milchstraße ist eine durchschnittlich große Spiralgalaxie und besteht aus etwa 400 Milliarden Sternen. Im beobachtbaren Universum gibt es etwa 100 Milliarden Galaxien, und jede enthält mehr oder weniger so viele Sterne wie unsere! Von den sichtbaren Galaxien haben etwa 70 Prozent spiralförmige Struktur. Die übrigen sind Ellipsen, manche von ihnen zehnmal so groß wie die Milchstraße. Die meisten Galaxien bilden Haufen. In unserer >Lokalen Gruppe< sind die nächsten Sternsysteme zwei kleinere Satellitengalaxien, die unsere Milchstraße umkreisen. Man kann sie von der südlichen Hemisphäre aus sehen: die Große und die Kleine Magellansche Wolke. Die nächste größere Galaxie, der Andromedanebel, ist etwa 6 Millionen Lichtjahre entfernt. Von dort stammten die Kelvaner, die in >Stein und Staub< Kirks Enterprise übernahmen, um damit in ihre Heimat zurückzukehren. Selbst mit Warp 9 wären sie etwa 4000 Jahre lang unterwegs gewesen! Das Licht braucht Zeit, um zu uns zu gelangen, was bedeutet: Je größer die Entfernung im All, desto weiter reicht unser Blick in die Vergangenheit. Wir können mit unseren Teleskopen inzwischen eine Entwicklungsphase des Universums untersuchen, in der es erst etwa 300000 Jahre alt war. Davor existierte die Materie in Form von heißem, ionisiertem Gas, das von elektromagnetischer Strahlung nicht durchdrungen werden kann. Wenn wir in verschiedene Richtungen blicken, so sehen wir Strahlung, die entstand, als sich Materie und Strahlung voneinander trennten. Man spricht in diesem Zusammenhang auch vom kosmischen MikrowellenHintergrund. Durch entsprechende Analysen - vor allem mit Hilfe des 1989 von der NASA gestarteten COBE-Satelliten - erfahren wir, wie der Kosmos dreihunderttausend Jahre nach dem Urknall aussah. Und schließlich: Das Universum expandiert gleichförmig. Deshalb erwecken andere Galaxien den Eindruck, sich von uns zu entfernen. Je größer die Distanz, desto schneller entfernen sie sich von uns - zwischen diesen beiden Faktoren besteht eine unmittelbare Proportionalität. Die Schnelligkeit der Expansion wird von einer Größe namens Hubble-Konstante beschrieben. Zum Beispiel bewegen sich 10 Millionen Lichtjahre entfernte Galaxien mit einer Geschwindigkeit von 150 bis 300 Kilometern pro Sekunde von uns weg. Wenn wir auf der Grundlage dieses Wertes zurückrechnen, so stellen wir fest: Alle beobachteten Galaxien im Universum befanden sich zu einem Zeitpunkt vor etwa 10 bis 20 Milliarden Jahren an ein und derselben Stelle, an der sie im Urknall entstanden.
DUNKLE MATERIE Ich habe bereits darauf hingewiesen: Offenbar ist unsere Galaxie in eine gewaltige Wolke aus unsichtbarer Substanz gehüllt.* Wenn man die Bewegungen der Sterne, interstellaren Gaswolken und selbst der Magellanschen Wolken untersucht, wenn man außerdem Newtons Gesetze berücksichtigt, soweit sie die Orbitalgeschwindigkeit von Objekten relativ zu ihren Massen betreffen, in deren Gravitationsbereich sie sich befinden -dann ergibt sich, daß ein etwa kugelförmiger Halo die Galaxie umgibt und bis zu 250000 Lichtjahre weit in den intergalaktischen Raum reicht. Er besteht aus Materie, die mindestens 90 Prozent der gesamten Milchstraßenmasse ausmacht (vermutlich aber weit mehr). Bei Beobachtungen anderer Galaxien, auch der elliptischen, und von Galaxiehaufen stellt sich heraus: Ihre Bewegungen lassen sich nur erklären, wenn weitaus mehr Materie existiert als allein die leuchtende, also sichtbare. Derzeit nimmt man an, daß 90 bis 99 Prozent der Gesamtmasse des Universums aus dieser Substanz bestehen. Die dunkle Materie erscheint auch im Star Trek-Universum, bei The Next Generation und Voyager. In der Voyagerfolge >Cathexis< fliegt das Raumschiff in einen >Nebel< aus dunkler Materie - er präsentiert sich als dunkle Wolke, in die man nicht hineinsehen kann. Picards Enterprise ist mehrmals entsprechenden Objekten begegnet, darunter dem schon erwähnten >schwarzen Haufen<. Eine der wichtigsten Eigenschaften der dunklen Materie besteht jedoch darin, daß sie Licht nicht etwa abschirmt, sondern Strahlung weder emittiert noch (in wesentlichen Mengen) absorbiert. Andernfalls könnte man sie mit Teleskopen entdecken. Wenn wir uns im Innern einer Wolke aus dunkler Materie befänden - und das ist wahrscheinlich der Fall -, so wären wir nicht imstande, sie zu sehen. Die Frage nach Art, Ursprung und Verteilung der dunklen Materie ist eins der aufregendsten ungelösten Rätsel der heutigen Kosmologie. Dieses unbekannte Material dominiert die Massedichte des Universums, woraus folgt: Seine Verteilung muß bestimmt haben, wie und wann die beobachtbare Materie gravitationell kollabierte, um Galaxienhaufen, Galaxien, Sterne und Planeten zu bilden - unsere Existenz hängt direkt von jener Substanz ab. Hinzu kommt, daß die Menge der dunklen Materie im Kosmos über das letztendliche Schicksal des Universums entscheidet, ob es mit einem Knall endet oder mit einem Wimmern. Das heißt: Entweder reicht die Masse der dunklen Materie aus, die Expansion abzubremsen, dann wird sich das Universum früher oder später wieder zusammenziehen, um schließlich in einem >Big Crunch< dort aufzuhören, wo es angefangen hat; oder die Masse reicht nicht aus, dann wird sich das Universum immer weiter ausdehnen, bis der letzte Stern erloschen ist. * In meinem Buch The Fifth Essence: The Search for Dark Matter (New York: Basic Books, 1989) befasse ich mich ausführlich mit diesem Thema.
Höchst interessant sind Hinweise darauf, daß dunkle Materie aus Teilchen bestehen könnte, die völlig anders beschaffen sind als die Protonen und Neutronen normaler Materie. Wenn man die Geschwindigkeit der nuklearen Reaktionen im frühen Universum und die spätere Entstehung von leichten Elementen bedenkt, so gibt es vielleicht nicht genug Protonen und Neutronen, um die dunkle Materie im Bereich von Galaxien und Galaxienhaufen zu bilden. Um einen weiteren Punkt zu nennen: Im heißen Plasma des frühen Universums kam es zu kleinen Fluktuationen bei der Materieverteilung, und dadurch konnten die heute beobachteten Galaxien und Haufen >kondensieren<; es scheint, daß für einen solchen Vorgang die Existenz einer unbekannten Art von Elementarteilchen erforderlich ist - Teilchen, die in bezug auf elektromagnetische Strahlung völlig neutral sind. Wenn die dunkle Materie tatsächlich aus anders gearteten Elementarteilchen besteht, so bieten sich drei Schlußfolgerungen an: 1. Die dunkle Materie ist nicht nur >da draußen<. Sie befindet sich auch bei Ihnen im Zimmer, während Sie dieses Buch lesen. Ihr Körper wird davon durchdrungen, ohne daß Sie etwas spüren. Die exotischen Teilchen >verklumpen< nicht zu astronomischen Objekten, sondern bilden ein diffuses >Gas< überall in der Galaxis. Ihre Wechselwirkung mit gewöhnlicher Materie ist bestenfalls sehr gering, was sie in die Lage versetzt, einfach durch die Erde zu fliegen. Nun, solche Partikel kennen wir bereits. Ich denke nur an die Neutrinos, die Star Trek-Fans gut bekannt sind und auf die ich später eingehe. 2. Die dunkle Materie könnte auch hier auf der Erde entdeckt werden, wenn wir spezielle Elementarteilchen-Detektoren verwenden. Solche Geräte (mit unterschiedlicher Ortungsempfindlichkeit für einige hypothetische Partikel der dunklen Materie) werden derzeit entwickelt und gebaut. 3. Die Entdeckung solcher Teilchen könnte die Elementarteilchenphysik grundlegend revolutionieren. Es wäre durchaus möglich, daß diese Partikel das Ergebnis von Vorgängen sind, die sich innerhalb der ersten Sekunde nach der Entstehung des Universums abgespielt haben. Sie stünden also in Zusammenhang mit Energieniveaus, die sich nur mit Hilfe höchst leistungsfähiger Beschleuniger untersuchen ließen. So faszinierend diese Möglichkeit auch sein mag: Noch sind wir nicht sicher, ob die dunkle Materie tatsächlich so exotisch ist. Es ist durchaus vorstellbar, Protonen und Neutronen so zusammenzusetzen, daß sie strahlungsneutral sind. Nehmen wir an, die Milchstraße wäre mit Schneebällen und Felsblöcken Bevölkert - sie wären kaum zu entdecken. Die plausibelste Erklärung in diesem Zusammenhang lautet vielleicht: In unserer Galaxie gibt es viele Objekte, die fast groß genug sind, um Sterne zu sein, jedoch nicht genug Masse haben, um in ihrem Innern eine Kernfusion zu >zünden<. Solche Objekte nennt man >Braune Zwerge<. Data und seine Kollegen an Bord der Enterprise haben bei mehreren Gelegenheiten darüber gesprochen (zum Beispiel in >Andere Sterne, andere Sitten<). Derzeit finden einige interessante Experimente statt: Man möchte mit ihnen herausfinden, ob Braune Zwerge - man bezeichnet sie in diesem Kontext als MACHOs (für >Massive Astrophysical
Compact Halo Objects<) -eine wesentliche Komponente der dunklen Halo-Materie sein könnten. Zwar sind solche Objekte nicht direkt zu sehen, aber wenn eins von ihnen das Licht eines Sterns passiert, so müßte der betreffende Stern aufgrund der MACHO-Gravitation heller erscheinen. Dieses Phänomen des >Gravitationslinsen<Effekts wurde von Einstein schon in den dreißiger Jahren vorhergesagt, und heute steht uns die notwendige Technik zur Verfügung, um es zu messen. In jeder Nacht werden Millionen von Sternen beobachtet, um herauszufinden, ob irgendwo das >Linsenphänomen< stattfindet. Die Empfindlichkeit der Meßgeräte reicht aus, um einen dunklen Halo aus MACHOs zu entdecken - vorausgesetzt, die dunkle Materie setzt sich zum größten Teil aus ihnen zusammen. Die bisher ermittelten Daten deuten indes darauf hin, daß der Halo nicht aus Braunen Zwergen besteht, doch die Frage ist nach wie vor offen. NEUTRONENSTERNE Damit sind die kollabierten Kernreste von Sternen gemeint, die so massiv waren, daß sie zu Supernovae wurden. Zwar haben sie ungefähr die Masse unserer Sonne, aber ihre Größe reicht kaum über die von Manhattan hinaus! Auch hier haben die Star Trek-Autoren sicheres Gespür für die richtige Terminologie bewiesen. Die Enterprise bekam es mehrmals mit Material von einem Neutronenstern zu tun, mit einer Substanz namens >Neutronium<. Neutronensterne bestehen fast vollständig aus Neutronen, die so dicht gepackt sind, daß sie praktisch einen gewaltigen Atomkern bilden - der Name ergibt also durchaus einen Sinn. Der Planetenkiller in der gleichnamigen Fernsehfolge bestand ganz offensichtlich aus reinem Neutronium deshalb konnten die Phaser nichts gegen ihn ausrichten. Doch die Sache hat einen Haken: >Neutronium< kann nur unter dem gewaltigen Druck stabil sein, der in einer von enormer Gravitation auf 15 Kilometer Durchmesser zusammengeballten Masse eines Sterns herrscht. Außerhalb eines Neutronensterns kann eine derartige Substanz nicht existieren. Für die Enterprise gab es mehrere Abenteuer in der Nähe von Neutronensternen. Als die Naniten in >Die Macht der Naniten< begannen, die Computer an Bord zu übernehmen, untersuchte die Crew des Schiffes gerade einen Neutronenstern, der zu platzen drohte. In der Episode >Das künstliche Paradies< muß die Enterprise Moab IV vor einem stellaren Kernfragment schützen. Zweifellos gibt es in unserer Galaxie Millionen von Neutronensternen. Die meisten von ihnen verfügen über unglaublich starke Magnetfelder, und wenn sie sich außerdem noch schnell drehen, werden sie zu einem galaktischen Funkfeuer. Von beiden Polen geht Strahlung aus, und wenn das Magnetfeld relativ zur Rotationsachse geneigt ist, so werden einzelne Signalschübe gesendet. Auf der Erde empfangen wir die periodischen Radiosignale und nennen ihre Quellen deshalb >Pulsare<. Sie stellen die besten Uhren im ganzen Universum dar: In einem Jahr gehen sie weniger als eine Mikrosekunde >vor< oder >nach<. Außerdem senden einige von ihnen mehr als 1000 Impulse pro Sekunde. Das bedeutet: Ein Objekt, das wie ein großer Atomkern ist und eine Sonnenmasse hat, die
von der eigenen Gravitation auf 15 bis 20 Kilometer Durchmesser zusammengepreßt wird, dreht sich pro Sekunde mehr als tausendmal! Das stelle man sich einmal vor. Die an der Oberfläche eines solchen Neutronensterns wirksame Rotationsgeschwindigkeit reicht am Äquator bis an die Hälfte der Lichtgeschwindigkeit heran! Pulsare sind ein gutes Beispiel dafür, daß sich die Phantasie der Natur durchaus mit dem Einfallsreichtum von Science Fiction-Autoren messen kann. ANDERE DIMENSIONEN In >Das Spinnennetz< ist Captain Kirk mal sichtbar und mal nicht. Die Ursache dafür ist eine sogenannte räumliche Interphases Sie verbindet verschiedene Dimensionsebenen, die normalerweise in Form von Paralleluniversen existieren. Schon vorher wurde Kirk mit Paralleluniversen konfrontiert: Eins bestand aus Antimaterie (>Auf Messers Schneide<), und das andere konnte man in >Ein ParallelUniversum< per Transporter besuchen. In The Next Generation gibt es das QKontinuum, Dr. Paul Manheims nichtlineares >Zeitfenster in andere Dimensionen< sowie den Subraum, der zahllose Dimensionen enthält - fremde Wesen können sich darin verstecken, wie die Ereignisse von >In den Subraum entfuhrt zeigen. Die Vorstellung ist weit verbreitet, daß es noch mehr gibt als die vier uns vertrauten Dimensionen der Raumzeit. Vor kurzer Zeit hat ein Harvard-Psychiater ein erfolgreiches Buch geschrieben (was ihm offenbar Probleme mit der medizinischen Fakultät bescherte). Darin berichtet er von seinen Psychoanalysen bei Patienten, die behaupteten, von Außerirdischen verschleppt worden zu sein. Als man ihn während eines Interviews fragte, woher die Extraterrestrier kamen, soll er geantwortet haben: »Aus einer anderen Dimension.« Das Interesse an höheren Dimensionen basiert auf der Speziellen Relativitätstheorie. Als Hermann Minkowski den dreidimensionalen Raum mit der Zeit zur vierdimensionalen Raumzeit verband, lag die Vermutung nahe, daß man auf diese Weise weitermachen konnte. Die Allgemeine Relativitätstheorie lehrte uns später, daß die Gravitationskraft mit der Krümmung des Raums gleichzusetzen ist. Daraufhin spekulierte man, daß höhere Kräfte vielleicht auf Krümmungen in anderen Dimensionen zurückgingen. Insbesondere zwei Wissenschaftler dachten damals darüber nach: 1919 der polnische Physiker Theodor Kaluza, und 1926 - unabhängig von Kaluza - der schwedische Physiker Oskar Klein. Sie postulierten, der Elektromagnetismus ließe sich in einem fünfdimensionalen Universum mit der Gravitation vereinen. Sie nahmen an, daß die elektromagnetische Kraft mit einer >Krümmung< in der fünften Dimension in Verbindung steht, so wie eine Krümmung der vierdimensionalen Raumzeit Gravitationskraft erzeugt. Die Idee ist nicht schlecht, aber sie bringt einige Probleme mit sich. Wenn man sich zusätzliche Dimensionen im Universum vorstellt, so muß man erklären, warum wir sie nicht ebenso wahrnehmen wie Raum und Zeit. Die Antwort auf diese Frage ist
sehr wichtig, denn sie ergibt sich immer wieder, wenn Wissenschaftler die Möglichkeit von höheren Dimensionen im Universum untersuchen. Stellen wir uns einen Zylinder mit einem intelligenten Käfer darin vor. Solange der Umfang des Zylinders groß ist im Vergleich zum Käfer, kann sich das Insekt in beiden Dimensionen bewegen und dabei spüren, daß es auf einer zweidimensionalen Fläche umherkriecht. Wenn der Umfang des Zylinders sehr klein wird, so gelangt der Käfer zu dem Schluß, auf einem eindimensionalen Objekt zu kriechen, das ihm nur Bewegungen nach oben oder unten ermöglicht. Wie soll der Käfer herausfinden, daß es sich nicht um ein eindimensionales Objekt, sondern um einen Zylinder mit geringem Umfang handelt? Nun, mit einem Mikroskop könnte er die Dicke der vermeintlichen >Linie< feststellen. Allerdings: Um so kleine Dinge wie die Dicke des Zylinders aufzulösen, muß eine Wellenlänge verwendet werden, die maximal dem Durchmesser des Zylinders entspricht. Im fünften Kapitel habe ich darauf hingewiesen: Wellen werden nur von den Objekten zurückgeworfen, die größer sind als die Wellenlänge selber. Da die Strahlungsenergie zunimmt, wenn sich die Wellenlänge verringert, ist ein gewisses Minimum an Energie erforderlich, um die >zusätzliche Dimension< in den Auflösungsbereich des Mikroskops zu rücken.
Wenn sich eine fünfte Dimension aus irgendeinem Grund zu einem kleinen Kreis >eingerollt< hat, so müßten wir viel Energie auf einen kleinen Bereich konzentrieren, um Wellen hindurchzuschicken und ihre Existenz zu beweisen. Die Welt würde den Eindruck erwecken, ganz und gar vierdimensionaler Natur zu sein. Wir wissen, daß der Raum drei Dimensionen hat, weil wir ihn mit Wellen untersuchen können, die sich in drei Dimensionen ausbreiten. Wenn sich die fünfte Dimension nur mit Wellen erreichen läßt, die mehr Energie brauchen, als wir selbst mit unseren leistungsfähigsten Beschleunigern produzieren können, dann hat die zusätzliche Dimension nicht den geringsten Erfahrungswert für uns - sie bleibt unsichtbar.
Die Kaluza-Klein-Theorie mag sehr interessant sein, aber sie bleibt unvollständig. Erstens: Sie erklärt nicht, warum die fünfte Dimension zu einem kleinen Kreis eingerollt sein soll. Zweitens: Abgesehen von Elektromagnetismus und Gravitation kennen wir jetzt auch noch zwei weitere fundamentale Kräfte in der Natur, die starke und die schwache Wechselwirkung. Warum bei der fünften Dimension aufhören? Warum sollten wir nicht genug Dimensionen >erfinden<, um alle grundlegenden Kräfte zu vereinen? Die moderne Elementarteilchenphysik geht tatsächlich von einer solchen Möglichkeit aus. Die jüngsten Forschungsbemühungen beziehen sich auf die sogenannte Superstringtheorie. Zuerst ging es darum, die Allgemeine Relativitätstheorie zu erweitern, um eine in sich geschlossene Theorie der Quantengravitation zu schaffen. Ziel bleibt dabei auch weiterhin eine einheitliche Theorie, die alle Wechselwirkungen zusammenfaßt. Ich habe bereits die Schwierigkeiten bei der Entwicklung einer Theorie betont, die die Allgemeine Relativitätstheorie mit der Quantenmechanik zu kombinieren versucht. Die größten Probleme dabei betreffen die Quantenfluktuationen der Raumzeit. Nach der Elementarteilchentheorie führen Quantenanregungen in Feldern - zum Beispiel in einem elektrischen Feld - zu Elementarteilchen beziehungsweise Quanten. Wenn man von Quantenanregungen in einem Gravitationsfeld ausgeht nach der Allgemeinen Relativitätstheorie wäre das gleichbedeutend mit Quantenanregungen der Raumzeit -, so beschert uns die Mathematik Resultate, die keinen Sinn ergeben. Die Stringtheorie basiert auf folgender Annahme: In mikroskopischen Bereichen (in Größenordnungen von 10hoch-33 cm) könnten Quantengravitationseffekte wichtig werden, und dort ließe sich das, was wir bisher für punktartige Elementarteilchen gehalten haben, in Form von vibrierenden Strings darstellen. Die Masse jedes Teilchens entspräche dann der Vibrationsenergie dieser Strings. Für diese recht ungewöhnliche Energie gibt es einen besonderen Grund. In den siebziger Jahren stellte man fest, daß solche Vorstellungen nur dann einen Sinn ergeben, wenn Teilchen existieren, die die Eigenschaften von Quantenfluktuationen in der Raumzeit - unter der Bezeichnung >Gravitonen< bekannt - teilen. Dadurch wird die Allgemeine Relativitätstheorie berücksichtigt, und zwar auf eine Weise, die sich mit der Quantenmechanik vereinbaren läßt. Nun, eine Quantentheorie der Strings weist mathematische Widersprüche auf, solange sie sich auf 4, 5 oder 6 Dimensionen beschränkt. Inzwischen ist klar: Eine solche Theorie bildete nur dann ein schlüssiges System, wenn man 10 oder gar 26 Dimensionen berücksichtigt! In >Die Reise ins Ungewisse< hat Lieutenant Reginald Barclay nach dem Kontakt mit einer cytherianischen Sonde einen Intelligenzquotienten von 1200; auf dem Holodeck begegnet er Albert Einstein und diskutiert mit ihm darüber, welche der beiden Möglichkeiten besser geeignet ist, um die Quantenmechanik mit der Allgemeinen Relativitätstheorie zu verbinden. Diese Fülle von Dimensionen verwirrte zuerst, aber sie bot auch eine gute Gelegenheit. Vielleicht konnte man alle fundamentalen Naturkräfte in einer Theorie von zehn oder mehr Dimensionen vereinen - wobei sich abgesehen von den vier uns
vertrauten Dimensionen alle anderen >einrollen< und einen Durchmesser im Planckschen Größenmaßstab (10hoch-33 cm) haben (worauf Lieutenant Barclay hinwies). Dadurch wären sie heute für uns unmeßbar. Leider ist man noch immer nicht über das Stadium der Hoffnung hinaus. Bis heute haben wir keine Ahnung, ob die Bemühungen bezüglich Strings irgendwann einmal zu einer >großen einheitlichen Theorie< führen können. Es verhält sich wie mit der Kaluza-Klein-Theorie: Niemand weiß, warum sich eventuell existierende höhere Dimensionen einrollen, wodurch in weiten Bereichen des Universums nur vierdimensionale Raumzeit existiert. Die Moral dieser Geschichte lautet also: Ja, vielleicht gibt es weitere Dimensionen im Universum. Tatsächlich spricht einiges dafür. Allerdings sind diese zusätzlichen Dimensionen kaum imstande, als Versteck für fremde Wesen zu dienen, die psychiatrische Patienten (oder Commander Riker) entführen. Sie stellen keine >Paralleluniversen< dar. Darüber hinaus lassen sie sich nicht so mit den vier Dimensionen der Raumzeit vermischen, daß Objekte durch sie von einem Ort zum anderen gleiten, wie es der Subraum des Star Trek-Universums zu erlauben scheint. Trotzdem können wir nicht die Möglichkeit ausschließen, daß mikroskopische oder auch makroskopische >Brücken< zu anderen (parallelen) Universen existieren. Die Allgemeine Relativitätstheorie läßt es zu, sich Zonen starker Krümmung - man denke nur an Schwarze Löcher oder ein Wurmloch - als Verbindungen zwischen sonst separierten und vielleicht recht großen Regionen der Raumzeit vorzustellen. Auf der Grundlage unseres gegenwärtigen Wissens rechne ich nicht damit, derartige Phänomene außerhalb von Schwarzen Löchern und Wurmlöchern anzutreffen. Aber da sie nicht ausgeschlossen sind, steht es Föderationsschiffen frei, immer wieder welche zu finden. ANYONEN In der Fernsehfolge >So nah und doch so fern< kommt es zu einem Transporterunfall mit einem romulanischen Schiff, das eine neue Tarnvorrichtung ausprobiert: Die davon bewirkte >Phasenverschiebung< läßt Geordi LaForge und Ro Laren verschwinden. Man hält sie für tot, doch in Wirklichkeit sind sie >nur< unsichtbar und haben keine Möglichkeit, sich ihren Freunden und Kollegen mitzuteilen - bis Data einen >Anyonensender< modifiziert und die beiden Vermißten zurückholt. Ich bin ziemlich sicher, daß die Star Trek-Autoren noch nie etwas von Anyonen gehört haben - was wieder einmal ihr Geschick in Hinsicht auf die richtige Wortwahl beweist. Anyonen sind theoretische Konstruktionen meines Freundes Frank Wilczek, der als Physiker am Institute for Advanced Study in Princeton arbeitet, und seiner Mitarbeiter. Übrigens erfand er noch ein weiteres Teilchen, ein hypothetisches Partikel der dunklen Materie, das er >Axion< nannte - nach einem Waschmittel. Bei Star Trek gibt es auch >Axionenchips< als Bestandteile der neuralen Netzwerke komplexer Maschinen. Aber ich schweife ab.
In unserem dreidimensionalen Raum heißen die kleinsten Elementarteilchen Fermionen und Bosonen. Was in welche Kategorie gehört, hängt von ihren Spin ab. Jede Art von Elementarteilchen hat eine Quantenzahl, die Auskunft gibt über den Wert seines Spins. Sie kann ganzzahlig (0, 1,2...} oder halbzahlig (V2, 3/2, 5/2.--) sein. Teilchen mit ganzzahligem Spin heißen Bosonen, und die mit halbzahligem Spin nennt man Fermionen. Das quantenmechanische Verhalten von Fermionen und Bosonen unterscheidet sich voneinander. Beim Austausch von zwei identischen Fermionen wird die quantenmechanische Wellenfunktion, die ihre Eigenschaften beschreibt, mit minus l multipliziert. Hingegen bleibt der Austausch von Bosonen ohne Wirkung auf die Wellenfunktion. Woraus folgt: Zwei Fermionen können sich nicht am gleichen Ort befinden. Wäre das doch der Fall, bliebe durch ihren Austausch die Konfiguration gleich, aber die Wellenfunktion müßte mit minus l multipliziert werden - und nur bei 0 führt die Multiplikation durch minus l nicht zu einer Veränderung. Die Wellenfunktion verschwände also. Dies ist der Ursprung des berühmten, von Wolfgang Pauli formulierten Ausschließungsprinzips, das zunächst für Elektronen galt: Zwei identische Fermionen können nicht den gleichen quantenmechanischen Zustand haben. Wenn wir davon ausgehen, daß sich Partikel nur in zwei Dimensionen bewegen so wie die zweidimensionalen Wesen, denen die Enterprise begegnete (siehe nächster Punkt); oder bei Experimenten mit speziellen Gitterstrukturen in Kristallen, wodurch Elektronen gezwungen werden, sich gewissermaßen in einer zweidimensionalen Ebene zu bewegen -, so ändern sich die gewöhnlichen quantenmechanischen Gesetze, die im dreidimensionalen Raum gelten. Dann wird der Spin nicht länger gequantelt, und Teilchen können diese Größe mit praktisch jedem Wert besitzen. Dann haben wir keine Fermionen oder Bosonen mehr, sondern Anyonen.* Das ist der Ursprung des Namens; mit dieser Idee befaßten sich Wilczek und seine Kollegen. Zurück zu den Star Trek-Autoren. Amüsant finde ich folgenden Umstand: Die Zahl, mit der die Wellenfunktion der Teilchen bei einem Partikelaustausch multipliziert wird, heißt >Phase<. Fermion-Wellenfunktionen werden mit der Phase minus l multipliziert, die von Bosonen mit l, wodurch sich nichts an ihnen ändert. Anyonen multipliziert man mit einer Kombination aus l und einer imaginären Zahl (imaginäre Zahlen sind die Quadratwurzeln von negativen Zahlen), und deshalb kann man wirklich von einer >Phasenverschiebung< in bezug auf normale Teilchen sprechen. Es klingt also zumindest plausibel zu behaupten, daß ein >Anyonensender< die Phase von etwas verändert, oder? * >Any< bedeutet soviel wie >jeder, jedes, beliebig< Any-onen (Anyonen) wären also >beliebige Teilchen< - Anm. d. Übers.
KOSMISCHE STRINGS In der Episode >Das kosmische Band< begegnet die Enterprise zweidimensionalen Wesen, die sich verirrt haben. Die Geschöpfe leben auf dem >Fragment eines kosmischen Strings<. Beschrieben wird dieses Phänomen als ein extrem dünnes, fadenartiges Gebilde im All, von dem jedoch eine sehr starke Gravitationskraft ausgeht und das mit einigen charakteristischen >Subraum-Frequenzen< vibriert. Man hat postuliert, daß kosmische Strings während eines Phasenübergangs im frühen Universum entstanden sind. Einer der größten Experten für diese theoretischen Objekte kam vor kurzer Zeit zu unserer Fakultät an der Case Western Reserve University, und deshalb höre ich in letzter Zeit ziemlich viel über kosmische Strings. Ihre Eigenschaften hätten eine gewisse Ähnlichkeit mit den Dingen, die eine Gefahr für die Enterprise darstellten. Während des Phasenübergangs bei einer Substanz - zum Beispiel wenn Wasser kocht oder gefriert - ändert sich die Konfiguration der Teilchen, aus denen die Substanz besteht. Wenn Wasser gefriert, entsteht eine Kristallstruktur. Wenn Kristalle in unterschiedliche Richtungen wachsen, so bilden sich zufällige Linienmuster, die im Winter an einem Fenster recht hübsch aussehen. Während eines Phasenübergangs im frühen Universum veränderte sich die Konfiguration von Materie, Strahlung und leerem Raum (der Energie übertragen kann, wie ich hier noch einmal unterstreichen möchte). Stellen wir uns vor: Im Verlauf des Übergangs entstehen in unterschiedlichen Bereichen des Alls verschiedene Konfigurationen. Sie wachsen, und irgendwann treffen sie sich, manchmal an einem Punkt, gelegentlich entlang einer Linie. Dadurch kommt es zu einer Begrenzung der Regionen. An den Grenzlinien sammelt sich Energie und bildet einen kosmischen String. Wir wissen nicht, ob solche Strings damals tatsächlich entstanden, aber wenn das der Fall war und wenn es sie heute noch gibt, dann könnten sie einige faszinierende Effekte verursachen. Sie wären unglaublich dünn - noch dünner als ein Proton -, hätten jedoch die enorme Massedichte von bis zu einer Billion (einer Million Millionen) Tonnen pro Zentimeter. Vielleicht sind sie wie >Samen<, an denen sich Materie sammelt und Galaxien bildet. Sie würden auch >vibrieren<, dabei jedoch keine Subraumschwingungen erzeugen, sondern Gravitationswellen. Möglicherweise entdecken wir die Gravitationssignatur eines kosmischen Strings, noch bevor wir Gelegenheit zu einer direkten Beobachtung derartiger Phänomene bekommen. Soviel zu den Ähnlichkeiten mit dem String aus Star Trek. Jetzt zu den Unterschieden. Aufgrund des besonderen Ursprungs kann es keine Fragmente von kosmischen Strings geben. Entweder bilden sie in sich geschlossene Schleifen, oder sie existieren in Form von langen Fäden, die sich durchs Universum winden. Etwas anderes kommt hinzu: Trotz ihrer großen, dichten Masse üben kosmische Strings keine Gravitationskraft auf weit entfernte Objekte aus. Ein Himmelskörper wird nur dann plötzlicher Gravitation ausgesetzt, wenn ein String in der Nähe vorbeistreicht. Nun, diese Punkte spielen jedoch keine zu wichtige Rolle. Im großen und ganzen haben die Star Trek-Autoren ordentliche Arbeit geleistet.
QUANTENMESSUNGEN In der letzten Staffel von Star Trek: The Next Generation gab es eine wundervolle Folge mit dem Titel >Parallelen<. Worf wechselt darin zwischen zwei verschiedenen >Quantenrealitäten< hin und her. In dieser Episode geht es um einen besonders faszinierenden Aspekt der Quantenmechanik: die Theorie der Quantenmessungen. Wir leben in einem Größenbereich, der es unmöglich macht, quantenmechanische Phänomene direkt zu beobachten. Daher hat unser intuitiv-subjektives Bild vom Universum klassischen Charakter. Wenn wir über Quantenmechanik sprechen, dann benutzen wir Ausdrücke der klassischen Sprache, um die quantenmechanische Welt mit vertrauten Begriffen zu beschreiben. Diese Vorgehensweise bezeichnet man als Interpretation der Quantenmechanik, und auf Philosophen übt sie große Faszination aus. Aber sie ist falsch. Viel angebrachter wäre es, die Interpretation der >klassischen Mechanik< zu diskutieren. Mit anderen Worten: Wie kann die von unseren Augen wahrgenommene klassische Welt - die nur vager Ausdruck einer umfassenderen Realität ist, die sich wiederum durch eine quantenmechanische Struktur auszeichnet in angemessenen quantenmechanischen Variablen verstanden werden? Wenn wir darauf bestehen, quantenmechanische Phänomene im Rahmen klassischer Konzepte zu interpretieren, so bekommen wir es zwangsläufig mit Phänomenen zu tun, die uns paradox, absurd und unmöglich erscheinen. So sollte es auch sein. Die klassische Mechanik kann quantenmechanische Erscheinungen nicht richtig erklären; daher vermitteln entsprechende klassische Beschreibungen den Eindruck von Sinnlosigkeit. Unter diesem Vorbehalt präsentiere ich die nächsten Punkte in Begriffen der klassischen Mechanik, da mir nur diese sprachlichen Werkzeuge zur Verfügung stehen. Zwar habe ich die notwendigen mathematischen Hilfsmittel, um die Quantenmechanik zu beschreiben, aber wie die aller anderen Physiker sind auch meine geistigen Bilder klassischer Natur - ganz einfach deswegen, weil alle meine direkten Erfahrungen >klassisch< sind. Im fünften Kapitel habe ich bereits auf eine der erstaunlichsten Merkmale der Quantenmechanik hingewiesen: Wenn beobachtete Objekte eine bestimmte Eigenschaft haben, so kann man nicht unbedingt annehmen, daß sie diese Eigenschaft auch vor der Beobachtung besaßen. Der Vorgang des Beobachtern ist imstande, die Beschaffenheit des beobachteten physikalischen Systems zu beeinflussen. Die quantenmechanische Wellenfunktion eines Systems beschreibt vollständig seine Konfiguration, und zwar zu jedem beliebigen Zeitpunkt. Außerdem entwickelt sich die Wellenfunktion auf der Basis von bestimmten physikalischen Gesetzen. Allerdings: Schwierig wird's, weil die Wellenfunktion gleichzeitig zwei oder drei sich gegenseitig ausschließende Konfigurationen umfassen kann. Wenn sich ein Teilchen im Uhrzeigersinn dreht, so stellen wir fest: Der Spin ist >up<. Bei einer Drehung gegen den Uhrzeigersinn sprechen wir in diesem Zusammenhang von >down<. Die quantenmechanische Wellenfunktion kann die gleiche Wahrscheinlichkeit für beide Möglichkeiten enthalten: Spin up und Spin down. Wenn man die Spin-Richtung mißt, so ergibt sich entweder Spin up oder Spin
down. Nach der Messung enthält die Wellenfunktion des Teilchens nur noch die gemessene Komponente. Wenn man >Spin up< gemessen hat, so bleibt es dabei: Alle weiteren Messungen ergeben ebenfalls Spin up. Das erscheint seltsam. Man könnte fragen: Wie ist es möglich, daß das Teilchen vor der Messung sowohl Spin up als auch Spin down harte? Die richtige Antwort lautet: Es hatte keins von beiden. Die Spin-Konfiguration vor der Messung war unbestimmt. Der Umstand, daß die ein Objekt beschreibende quantenmechanische Wellenfunktion keine festen Werte für Observablen enthält, ist insbesondere dann beunruhigend, wenn man an Lebendiges denkt. Man nehme nur das bekannte Paradoxon >Schrödingers Katze<. (Erwin Schrödinger gehörte zu den Wissenschaftlern, die in den zwanziger Jahren dieses Jahrhunderts dabei halfen, die Gesetze der Quantenmechanik zu entdecken. Die >Schrödinger-Gleichung< beschreibt den zeitlichen Verlauf der quantenmechanischen Wellenfunktion.) Man stelle sich einen geschlossenen, undurchsichtigen Behälter mit einer Katze vor. Ein auf die Katze gerichteter Revolver ist mit einer bestimmten radioaktiven Masse verbunden, die mit einer gewissen quantenmechanischen Wahrscheinlichkeit zerfällt. Wenn das geschieht, löst sie den Revolver aus, und dann stirbt die Katze. Was ist mit der Wellenfunktion, die die Katze beschreibt, bevor wir den Behälter öffnen? Handelt es sich bei ihr um die lineare Überlagerung von lebender und toter Katze? Eine solche Annahme scheint überhaupt keinen Sinn zu ergeben. Unser Bewußtsein ist immer eindeutig, nie unbestimmt. Kommt bewußtes Denken einer Messung gleich? Wenn ja, so könnte man folgendes sagen: Zu jedem beliebigen Zeitpunkt gibt es eine (nie ganz auf den Wert Null sinkende) quantenmechanische Wahrscheinlichkeit für mehrere verschiedene Möglichkeiten unser bewußtes Denken befindet letztendlich darüber, was wir erleben. Wenn das stimmt, hätte die Realität zahllose Verzweigungen. Praktisch jeden Augenblick entscheidet unser Bewußtsein, welche Abzweigung wir nehmen. Und: Unabhängig von unserer Wahrnehmung existieren viele Alternativen. Diese auf >viele Welten< hinauslaufende Interpretation der Quantenmechanik könnte dazu führen, daß in einer anderen quantenmechanischen Wellenfunktion Stephen Hawking dieses Buch schreibt und ich das Vorwort verfasse. Des weiteren dürfte sie der Grund für Worfs Kummer sein. Data weist während der TV-Episode darauf hin. Worfs Schiff passiert einen >Quantenriß< in der Raumzeit, und gleichzeitig wird ein Subraum-Impuls gesendet. Dadurch werden die Barrieren zwischen den Quantenrealitäten durchlässig, und Worf wechselt in unregelmäßigen Abständen von einer Wellenfunktion zur nächsten, erlebt dadurch zahlreiche alternative Quantenwirklichkeiten. So etwas kann natürlich nie geschehen, denn sobald eine Messung erfolgte, hat sich das System sowie der Meßapparat (hier Worf) verändert. Wenn er etwas erlebt, gibt es für ihn kein Zurück mehr. Besser gesagt: Dann kann er nicht in die vorherige Verzweigung der Realität zurückkehren. Das Erleben genügt, um eine Wirklichkeit zu schaffen und sie zu stabilisieren. Das liegt in der Natur der Quantenmechanik. Die gleiche Star Trek-Folge berührt auch noch einen anderen Aspekt der Quantenmechanik. Die Enterprise-Crew kann feststellen, daß Worf aus einer anderen
Quantenrealität stammt: Angeblich unterscheidet sich seine >Quantensignatur im atomaren Bereich< von allen anderen in ihrer Welt. Data meint, eine solche Signatur sei einzigartig und ließe sich durch keinen physikalischen Prozeß verändern. Nun, das ist technisches Kauderwelsch, aber es bezieht sich auf einen interessanten Faktor der Quantenmechanik. Wenn man alle möglichen Zustandsformen eines Systems zusammenfaßt, so ergeben sie einen sogenannten Hubert-Raum. Diese Bezeichnung geht auf den deutschen Mathematiker David Hubert zurück, dem es fast gelungen wäre, die Allgemeine Relativitätstheorie vor Einstein zu entwickeln. Manchmal zerbricht ein Hilbert-Raum zu mehreren >Superselektionssektoren< - kein lokaler physikalischer Prozeß kann ein System von einem Sektor zum nächsten transferieren. Eine bestimmte Größe kennzeichnet jeden Sektor, zum Beispiel die gesamte elektrische Ladung des Systems. In gewisser Weise könnte man von einer individuellen Quantensignatur sprechen, denn alle lokalen Quantenereignisse betreffen den gleichen Sektor. Außerdem bestimmt sie die Art der Ereignisse und Observablen. Die Verzweigungen der quantenmechanischen Wellenfunktion eines Systems müssen sich innerhalb eines einzelnen Superselektionssektors befinden, wenn sie zugänglich sein sollen. Selbst wenn Worf imstande wäre, sich über die Grundregeln der Quantenmechanik hinwegzusetzen, in dem er von einem >Realitätszweig< zum anderen springt: Es gäbe keine externen Observablen, die so etwas bestätigen. Was die >viele Welten< betreffende (oder eine beliebige andere) Interpretation der Quantenmechanik anbelangt: Es läuft immer darauf hinaus, daß man nur jeweils eine Welt wahrnehmen kann. Glücklicherweise gibt es andere Gesetze der Physik, die verhindern, daß (wie in der letzten Next Generation-Episode) mehrere Versionen der Enterprise gleichzeitig existieren. Das Energieerhaltungsgesetz - ein klassisches Konzept - genügt völlig, um so etwas unmöglich zu machen. SOLITONEN In der Episode >Die Soliton-Welle< nimmt die Enterprise an einem Experiment teil, das Dr. Ja'Dor vom Planeten Bilana III entwickelte. Dabei wird eine >SolitonWelle< - eine gebündelte Wellenfront aus Subraum-Verzerrungen - verwendet, um ein Testschiff ohne Antrieb auf Warpgeschwindigkeit zu beschleunigen. Der Planet am Ziel des Transits muß ein Ablenkfeld schaffen, um die Welle aufzulösen. Das Experiment geht schief, und nur im letzten Augenblick kann eine Katastrophe verhindert werden. Solitonen sind keine Erfindung der Star Trek-Autoren. Der Name bezieht sich auf solitary waves< (einzelne Wellen) und damit auf ein Phänomen, das der schottische Ingenieur John Scott Russell im Jahr 1834 zum erstenmal beobachtete. Als er für die Union Canal Society in Edinburgh eine Studie über die Konstruktion von Schleppkähnen durchführte, bemerkte er etwas Sonderbares. Er beschrieb es folgendermaßen:
Ich beobachtete die Bewegung eines Kahns, der von zwei Pferden durch einen schmalen Kanal gezogen wurde. Plötzlich hielt das Boot an - aber nicht die Wassermenge, die es im Kanal in Bewegung versetzt hatte. Vor dem Bug des Kahns sammelte sie sich und wirkte sehr aufgewühlt. Plötzlich ließ sie das Boot hinter sich zurück und rollte recht schnell nach vorn, bildete dabei eine deutlich sichtbare Erhebung, einen runden Buckel aus Wasser, der durch den Kanal glitt, ohne Form, Ausmaße und Geschwindigkeit zu verändern. Ich ritt am Ufer entlang und verfolgte die Welle, die sich mit etwa acht oder neun Meilen in der Stunde bewegte und dabei ihre ursprüngliche Form wahrte. Sie mochte etwa dreißig Fuß lang und einen Fuß bis anderthalb Fuß hoch sein. Die Höhe verringerte sich allmählich, und nach ein oder zwei Meilen verlor ich die Welle in den Kanalkurven aus den Augen. So geschah es, daß es im August 1834 zu meiner ersten Begegnung mit diesem seltsamen und wundervollen Phänomen kam, das ich Übertragungswelle (>Wave of Translation) genannt habe. * * John Scott Rüssel, Report of the 14"1 Meeting of the British Association for the Advancement of Science (London: John Murray, 1844). Später nannte Scott Russell seine Entdeckung solitary wave<, und dieser Begriff hat sich bis heute gehalten, obgleich Solitonen in vielen verschiedenen Bereichen der Physik entdeckt wurden. Um sie genauer zu definieren: Solitonen sind nichtstreuende, klassisch gedehnte Objekte von begrenzter Größe, die sich von Punkt zu Punkt ausbreiten. Genau aus diesem Grund kann es nicht zu einer wie in >Die Soliton-Welle< angedeuteten Katastrophe kommen. Zunächst einmal: Von der Soliton-Welle gehen keine >starken Interferenzen^ aus - damit würde sie ihre Energie rasch verbrauchen. Aus dem gleichen Grund kommt es auch nicht zur Aufnahme zusätzlicher Energie oder zu einer Frequenzänderung. Normale Wellen sind gedehnte Objekte, die bei ihrer Ausbreitung Energie verlieren. Doch klassische Kräfte - sie gehen auf eine Wechselwirkung mit dem Raum zurück und heißen >Felder< - sorgen dafür, daß Solitonen intakt bleiben und sich ausbreiten können, ohne dabei Energie an die Umgebung zu verlieren. Es handelt sich bei ihnen um separate energetische Lösungen der Gleichungen, die Bewegungen beschreiben. Im Prinzip verhalten sie sich wie substantielle Objekte wie Elementarteilchen. In einigen mathematischen Modellen der starken Wechselwirkung, die Quarks zusammenhält, könnte man das Proton als Soliton interpretieren - in dem Fall bestünden wir alle aus Solitonen! In der Elementarteilchenphysik vermutet man Felder, die vielleicht einmal zu SolitonSternen führen - Objekte, die so groß wie Sterne, jedoch nur ein kohärentes Feld sind. Solche Phänomene müssen erst noch entdeckt werden, aber sie könnten durchaus existieren.
QUASARE In der Episode >Das Pegasus-Projekt< - sie berichtet uns vom Algon-Vertrag, durch den es der Föderation verboten ist, Tarnvorrichtungen zu benutzen - erforscht Picards Enterprise den Mecoria-Quasar. In einer Episode der Classic-Serie, >Notlandung auf Galileo 7<, erfahren wir, daß Kirks Enterprise die Anweisung hatte, bei jeder sich bietenden Gelegenheit Daten über diese speziellen Objekte zu gewinnen. Für beide Schiffe wäre es sehr unwahrscheinlich, Quasare in den peripheren Bereichen der Milchstraße zu finden. Der Grund: Es sind die energiereichsten Objekte im bekannten Universum (sie haben die Strahlungsintensität ganzer Galaxien, sind aber so klein, daß sie sich nicht von einem Teleskop auflösen lassen); man vermutet, daß die überaus intensiven Emissionen von Schwarzen Löchern ausgehen, die im Zentrum einiger Galaxien gewaltige Massen von Sternen verschlingen. Bisher ist nur ein solcher Mechanismus bekannt, der bei vergleichsweise geringer Größe so viel Energie freisetzt. Wenn Materie in ein Schwarzes Loch fällt, geht intensive Strahlung von ihr aus (während sie ihre potentielle Gravitationsenergie verliert). Wenn im Mittelpunkt mancher Galaxien Schwarze Löcher mit der Masse von Millionen oder gar Milliarden Sonnen existieren, so können sie ganze Sternsysteme verschlingen - dadurch wird genug Energie für Quasaremissionen frei. Aus diesem Grund gehören Quasare häufig zu sogenannten >aktiven Galaxiskernen<. Und deshalb kann niemandem daran gelegen sein, in die Nähe eines solchen Objekts zu gelangen. Die Begegnung damit wäre fatal. NEUTRINOS Neutrinos sind meine Lieblingsteilchen, weshalb ich sie mir bis zum Schluß aufgespart habe. Bei meinen Forschungsarbeiten bekam ich oft Gelegenheit, mich mit ihnen zu befassen. Wir wissen nur wenig über sie, aber sie könnten uns viel über die grundlegende Struktur und den Aufbau des Universums lehren. In vielen Star Trek-Folgen werden Neutrinos erwähnt. Zum Beispiel kommt es zu hohen NeutrinoEmissionen, wenn ein Objekt das bajoranische Wurmloch passiert. In der Episode >Auf schmalem Grat< erfahren wir, daß Geordi LaForges Visor Neutrinos orten kann - man richtet eine Neutrinobake ein, um ihn von einem ungastlichen Planeten zu retten. In >Ungebetene Gäste< sorgt ein >Neutrinofeld< für Schwierigkeiten bei dem Versuch, einige körperlose Lebensformen (verurteilte Verbrecher) an Bord der Enterprise zu beamen. Wegen eines Rätsels beim Zerfall von Neutronen sagte man zum erstenmal die Existenz von Neutrinos voraus. Innerhalb von Atomkernen sind Neutronen stabil. Freie Neutronen zerfallen jedoch nach etwa zehn Minuten zu Protonen und Elektronen. Die elektrische Ladung schafft dabei keine Probleme: Ein Neutron ist elektrisch neutral, während ein Proton positiv und ein Elektron negativ geladen ist.
Die Masse von Proton und Elektron entspricht fast der Masse des Neutrons; es bleibt also nicht genug freie Energie übrig, um bei dem Zerfall andere massive Teilchen zu erzeugen. Doch manchmal kann man beobachten, daß Proton und Elektron in die gleiche Richtung fortfliegen. Das ist eigentlich unmöglich, da jedes emittierte Teilchen einen eigenen Impuls (Bewegungsmoment, die >Wucht< des Teilchens) hat. Wenn das ursprüngliche Neutron ruhte, so war sein Impuls null, woraus folgt: Bei dem Zerfall mußte noch etwas entstanden sein, um einen entsprechenden Impuls in die andere Richtung zu tragen. In den dreißiger Jahren schlug Wolfgang Pauli ein solches hypothetisches Teilchen vor. Enrico Fermi nannte es >Neutrino< (>kleines Neutron<). Er wählte diesen Namen, weil Paulis Teilchen elektrisch neutral sein mußte, um keinen Einfluß auf die Ladungserhaltung beim Zerfall auszuüben. Darüber hinaus konnte es bestenfalls nur eine sehr geringe Masse haben - immerhin bleibt bei dem Zerfall von Neutronen in Protonen und Elektronen kaum Energie übrig. Da Neutrinos elektrisch neutral sind und nicht der starken Wechselwirkung unterliegen (die Quarks bindet und Atomkerne zusammenhält), reagieren sie kaum auf normale Materie. Sie entstehen bei nuklearen Kernreaktionen, wie sie zum Beispiel in der Sonne stattfinden, was bedeutet: Es gibt sie überall. Sechshundert Milliarden Neutrinos durchdringen uns in jeder Sekunde - ein Teilchenorkan, der von der Sonne ausgeht und John Updike zu einem Gedicht inspiriert hat. Wir spüren nichts davon, weil die Neutrinos unseren Körper einfach passieren, ohne irgendwelche Spuren zu hinterlassen. Neutrinos können im Durchschnitt durch eine zehntausend Lichtjahre dicke kompakte Masse fliegen, bevor sie mit der Materie interagieren. Wie kann man unter solchen Umständen feststellen, daß Neutrinos tatsächlich existieren und nicht nur theoretischer Natur sind? Nun, ein wundervoller Aspekt der Quantenmechanik besteht darin, daß sie über Wahrscheinlichkeiten Auskunft gibt. Deshalb habe ich eben von >im Durchschnitt gesprochen. Die meisten Neutrinos durchdringen selbst eine zehntausend Lichtjahre dicke Masse, ohne anzuecken, aber wenn man genug Neutrinos und ein ausreichend großes Target hat - dann darf man hoffen. Dieses Prinzip fand im Jahre 1956 zum erstenmal praktische Anwendung. Frederick Reines und Clyde Cowan brachten ein mehrere Tonnen schweres Target in der Nähe eines Atomreaktors unter. Es gelang ihnen, einige Reaktionen zu beobachten. Zu dieser empirischen Entdeckung des Neutrinos (eigentlich des Antineutrinos) kam es, als die Physik schon seit 20 Jahren von der Existenz eines derartigen Teilchens ausging. Heute verwenden wir viel größere Detektoren. 1960 füllten Ray Davis und seine Mitarbeiter einen 100000 Gallonen fassenden unterirdischen Tank in der Homestake Gold Mine, South Dakota, mit Reinigungsflüssigkeit. Durchschnittlich einmal am Tag traf ein von der Sonne stammendes Neutrino auf ein Chloratom und verwandelte es in Argon. Es spricht für Geschick und Kompetenz jener Forscher, daß sie die nukleare Alchimie in so winzigen Mengen messen konnten. Folgendes stellte sich
heraus: Jener erste Detektor und auch alle anderen maßen einen solaren Neutrinostrom, der nicht der vorhergesagten Intensität entsprach. Dieses >solare Neutrino-Rätsel< deutet vielleicht darauf hin, daß eine neue, Neutrinos vorbehaltene Kategorie der Grundlagenphysik erforderlich ist. Der bislang größte Neutrino-Detektor wird in der Kamiokande-Mine in Japan gebaut. Er soll über 30 000 Tonnen Wasser enthalten und Nachfolger eines 5000Tonnen-Modells werden - das 1987 (zusammen mit einem anderen Detektor) einige Neutrinos von einer Supernova empfing, die man in der 150000 Lichtjahre entfernten Großen Magellanschen Wolke beobachtete! Das bringt mich zum Anfang zurück. Neutrinos sind eins der neuen Werkzeuge, mit denen Physiker weitere Fenster zum Universum öffnen wollen. Indem wir unsere konventionellen elektromagnetischen Detektoren verwenden und alle Möglichkeiten der Entdeckung von Elementarteilchen nutzen, lüften wir vielleicht die Geheimnisse der Galaxis, bevor wir zu den Sternen reisen und sie direkt erforschen können. Wenn man freilich einen Neutrino-Detektor in der Größe von Geordis Visor entwickeln könnte - das wäre uns eine große Hilfe.
ZEHN
Unmögliches: Das nicht zu entdeckende Land Geordi: »Man könnte meinen, die Gesetze der Physik seien plötzlich aus dem Fenster geworfen worden.« Q: »Warum auch nicht? Sie sind so lästig.« In >Eine echte Q< »Ich möchte, daß auch das Unmögliche überprüft wird, Pille.« Kirk zu McCoy, in >lmplosion in der Spirale< »Sie beschreiben die... Nicht-Existenz!« Kirk zu Spock, in >Auf Messers Schneide< Natürlich darf man als Wissenschaftler bei Star Trek nicht zu strenge Maßstäbe anlegen. Es kommt allerdings vor, daß die Autoren die Grenzen des Unwahrscheinlichen überschreiten und in die Region des Unmöglichen vorstoßen. Viele Star Trek-Fans vertreiben sich die Zeit damit, in jeder einzelnen Fernsehfolge selbst nach halb verborgenen technischen Fehlern zu suchen. Physiker und Physikstudenten hingegen interessieren sich in erster Linie für die offensichtlichen Diskrepanzen und Widersprüche. Bei Kaffeepausen bietet so etwas viel Gesprächsstoff. Um ganz ehrlich zu sein: Manchmal geht es bei derartigen Diskussionen nicht um Fehler, sondern um das genaue Gegenteil. Ich erinnere mich an den Tag, als einer meiner früheren Studenten aus Yale zu mir kam: Martin White, heute an der Universität von Chicago tätig. Er besuchte mich, nachdem er STAR TREK VI: Das unentdeckte Land gesehen hatte. Ich erwartete ein Gespräch über Gravitationswellen aus einer recht frühen Entwicklungsphase des Universums. Statt dessen ließ sich Martin über eine ganz bestimmte Szene des Films aus: Sie dauerte nur 15 Sekunden, hatte ihn jedoch zutiefst beeindruckt. Zwei mit Helmen ausgestattete Mörder besuchen Kanzler Gorkons Raumschiff - das durch einen Beschuß mit Photonentorpedos manövrierunfähig wurde und in dem Schwerelosigkeit herrscht und erschießen mehrere Personen, darunter auch Gorkon. Was Martin (und auch viele andere Mitglieder der Fakultät) so sehr begeisterte, war der Umstand, daß die im Schiff umherschwebenden Blutstropfen perfekt kugelförmig waren. Auf der Erde sind alle Tropfen tränenförmig, und zwar aufgrund der allgegenwärtigen Gravitation. Doch in völliger Schwerelosigkeit, wie an Bord von Gorkons Raumschiff, wären selbst Tränen kugelförmig. Indem sie diese physikalische Tatsache berücksichtigten,
machten die Tricktechniker von Star Trek viele Physiker glücklich. Eigentlich ist das gar nicht schwer... Doch auch die Fehler beschäftigen uns. Die vielleicht denkwürdigste von einem Physiker bemerkte Star Trek-Panne betrifft gar nicht die Physik. Der Hinweis stammt von dem berühmten Teilchenphysiker (und Autor von wissenschaftlichen Fachbüchern) Steven Weinberg, der den Nobelpreis bekam, weil er wichtige Beiträge für die Entwicklung des Standardmodells der Elementarteilchen-Wechselwirkungen leistete. Ich weiß, daß bei ihm der Fernseher läuft, während er sich mit komplexen Berechnungen befaßt. Deshalb schrieb ich ihm und fragte ihn nach Star Trek. Er antwortete, der größte Fehler würde sich zu Anfang jeder Folge wiederholen und bestünde in der Teilung eines Infinitivs: »to boldly go...« In den meisten Fällen sind es allerdings die physikalischen Fehler, die das Interesse der Physiker wecken. Vielleicht liegt es daran, daß sich Physiker dadurch in ihrer Ansicht bestätigt sehen, die Physik sei ein ganzes Stück von der öffentlichen Kultur entfernt. Möglicherweise gesellt sich auch ein gewisses Überlegenheitsgefühl hinzu: Immerhin erlauben es uns solche Schnitzer, Schriftsteller und Drehbuchautoren zu kritisieren. Man kann sich wohl kaum vorstellen, daß Napoleon in einem Film Deutsch anstatt Französisch spricht oder daß die Unterzeichnung der Unabhängigkeitserklärung ins neunzehnte Jahrhundert verlegt wird. Wenn ein physikalischer Fehler von ähnlicher Größenordnung in einer wissenschaftlich orientiertem Fernsehserie auftaucht, so neigen Physiker dazu, die Stimme der Kritik recht laut erklingen zu lassen. Es überraschte mich festzustellen, wie viele meiner geschätzten Kollegen - von Kip Thorne über Weinberg bis hin zu Sheldon Glashow, ganz zu schweigen von Stephen Hawking, vielleicht dem berühmtesten Physikerund-Trekker - die Star Trek-Serien im Fernsehen verfolgen. Ich habe eine Liste von >wichtigen Fehlern< zusammengestellt; sie basiert auf Gesprächen mit diesem und jenem Physiker sowie auf E-mails von Star Trek-Fans. Mein Augenmerk gilt dabei hauptsächlich (aber nicht ausschließlich) Schnitzern in bezug auf die allgemeine Physik. Ich gehe also nicht auf so populäre Kritikpunkte ein wie zum Beispiel: »Warum bildet das Licht der Sterne Streifenmuster, wenn ein Raumschiff auf Warpgeschwin-digkeit beschleunigt?« Dem technischen Kauderwelsche schenke ich ebenfalls keine Beachtung - gemeint ist der unüberlegte Gebrauch von wissenschaftlichen und pseudowissenschaftlichen Ausdrücken, um bestimmte Szenen mit >futuristischem Flair< aufzumotzen. Außerdem bin ich bemüht gewesen, überwiegend bisher noch unerwähnte Beispiele zu verwenden. »IM WELTRAUM HÖRT MAN KEINE SCHREIE.« Dieser Werbespruch für Alien ist durchaus richtig, aber bei Star Trek scheint man davon keine Ahnung zu haben. Um es noch einmal zu betonen: Schallwellen breiten sich NICHT im All aus! Doch als die Raumstation im Orbit des Planeten Tanuga IV explodiert, kann man es an Bord der Enterprise nicht nur sehen, sondern auch hören. Schlimmer noch: Man hört die Explosion zur gleichen Zeit. Selbst wenn sich
Schallwellen im leeren Raum ausbreiten könnten - was nicht der Fall ist -, ihre Geschwindigkeit ist um mehrere Größenordnungen geringer als die des Lichts. Man braucht nur bei einer Sportveranstaltung im Stadion zuzusehen, um festzustellen: man sieht die Dinge, bevor man sie hört. Bei einem Experiment in der Schule bringt man einen elektrischen Summer in einem Glasbehälter unter, aus dem man anschließend die Luft pumpt. Dadurch wird das Summen erst leiser und verschwindet schließlich. Schon im siebzehnten Jahrhundert wußte man, daß Schall ein Medium braucht, um sich auszubreiten. Wenn der Glasbehälter luftleer ist - wenn in ihm ein Vakuum herrscht -, so gibt es keinen Träger für die Schallwellen, und deshalb hört man das Summen nicht. Um es genauer auszudrücken: Schall besteht aus Druckwellen oder Störungen, die sich in einem elastischen Medium vorwiegend als Longitudinalwellen fortpflanzen. Wenn man das Medium fortnimmt, können sich die Wellen nicht mehr ausbreiten. Übrigens: Das Beispiel mit dem Glasbehälter schuf ein Rätsel, das ich an anderer Stelle in diesem Buch erwähnt habe und das in der Geschichte der Physik eine wichtige Rolle spielte. Zwar kann man den Summer nicht mehr hören, aber er bleibt sichtbar! Wenn Licht also eine Art Welle ist - in welchem Medium breitet es sich dann aus, sobald keine Luft mehr existiert? Diese Überlegungen trugen maßgeblich zu der Annahme bei, daß ein sogenannter >Äther< existiert. Über lange Zeit hinweg habe ich überhaupt nicht darauf geachtet, ob es im Weltraum zu Geräuschen kommt. Doch als Steven Weinberg und einige andere darauf hinwiesen, daß es bei Explosionen und so weiter im Star Trek-Universum krachte, sah ich mir noch einmal die Episode >Riker unter Verdacht an, in der die Raumstation von Tanuga IV explodiert. Und tatsächlich: Kawumm! Ähnliches geschah in der nächsten Folge, die ich mir ansah: Ein Shuttle mit gestohlenen Trilithiumkristallen entfernte sich von der Enterprise und explodierte in der Nähe des Planeten Arkaria. Ich überprüfte auch den neusten Star Trek-Film, Begegnung der Generationen: Dort sorgt sogar eine platzende Sektflasche für Geräusche im All. Ein Kollege von mir - Mark Srednicki von der U. C. Santa Barbara - wies auf einen noch viel größeren Schnitzer hin. In einer Episode werden Schallwellen als Waffen gegen ein Raumschiff in der Umlaufbahn verwendet. Das allein ist schon schlimm genug, doch angeblich erreichen die Schallwellen eine Intensität von 1812 Dezibel. Daran muß ein Physiker Anstoß nehmen, denn die Dezibelskala ist logarithmischer Natur, ebenso wie die Richterskala. Das bedeutet: Die jeweilige Anzahl der Dezibel entspricht bereits der Zehnerpotenz. Die Skala ist folgendermaßen strukturiert: 20 Dezibel sind zehnmal lauter als 10, 30 Dezibel sind zehnmal lauter als zwanzig, und so weiter. Achtzehn hoch zwölf Dezibel wären also gleichbedeutend mit zehn hoch achtzehn hoch zwölf Dezibel. Das ist l gefolgt von 11568313814300 Nullen mal lauter als ein Düsenflugzeug!
SCHNELLER ALS EIN PHASER Mit der überlichtschnellen Warpgeschwindigkeit in Star Trek müssen wir uns abfinden - sie basiert auf den Feinheiten der allgemeinen Relativität sowie auf exotischen neuen Materieformen (wie wir an anderer Stelle in diesem Buch erfahren haben). Doch für gewöhnliche Objekte stellt die Lichtgeschwindigkeit die oberste Grenze dar, eine Barriere, die nicht durchdrungen oder überwunden werden kann. Manchmal gerät diese schlichte Tatsache in Vergessenheit. In >Was summt denn da?< bringen die Scalosianer Kirk dazu, etwas zu trinken, das seine Bewegungen enorm beschleunigt - dadurch soll er auf >scalosianisches Niveau< gebracht werden, mit dem Ziel, ihn zum Partner der Königin Deela zu machen. Die Scalosianer leben auf einer hyperbeschleunigten Existenzebene und können von den Besatzungsmitgliedern der Enterprise nicht wahrgenommen werden. Vor der Heirat versucht Kirk, die Königin mit einem Phaser zu erschießen. Aber da sie sich enorm schnell bewegen kann, weicht sie dem Strahl einfach aus. Frage: Was ist an dieser Szene verkehrt? Antwort: alles! Einige Star Trek-Fans haben es bemerkt: Jene beschleunigte Existenz, die es Deela ermöglicht, dem Phaserstrahl auszuweichen, sorgt dafür, daß der Rest dieser Episode absurd wird. Die Lichtgeschwindigkeit beträgt 300 Millionen Meter pro Sekunde. Deela ist nur etwa einen Meter von Kirk entfernt, als er auf sie schießt - diese Strecke legt der Strahl in l/300 Millionstel Sekunden zurück. Wenn diese Zeitspanne für Deela wie eine Sekunde sein soll, so müßte die scalosianische Uhr um einen Faktor von 300 Millionen schneller gehen. In dem Fall entsprächen 300 Millionen scalosianische Sekunden einer Enterprise-Sekunde. Allerdings: 300 Millionen Sekunden sind etwa zehn Jahre. Na schön, verzeihen wir den Star Trek-Autoren diesen Fehler. Unglücklicherweise gibt es hier noch ein größeres Problem, auf das mehrere mir bekannte Physiker aufmerksam geworden sind und das sich nicht lösen läßt. Phaser sind Energiewaffen, was bedeutet, daß sich ihre Strahlen mit Lichtgeschwindigkeit bewegen. Tut mir leid, aber hier gibt's keinen Ausweg. Wenn Phaser reine Energiewaffen sind und keine Partikelstrahlen emittieren - was der Beschreibung im Technical Manual entspricht -, so legt der Strahl dreihunderttausend Kilometer pro Sekunde zurück. Selbst wenn die eigenen Bewegungen um einen Faktor von 300 Millionen beschleunigt sind: Man kann einem Phaserstrahl nie ausweichen. Warum nicht? Um zu wissen, daß er heranrast, muß man ihn sehen. Und um ihn zu sehen, muß Licht von ihm ausgehen Licht, das ebenso schnell ist wie der Strahl. Es läuft also alles darauf hinaus: Man bemerkt den Phaserstrahl erst, wenn man von ihm getroffen wird! Daran ändert sich nichts, solange der Phaser eine Energiewaffe bleibt. Ein ähnliches Problem ergibt sich in der Voyager-Episode >The Phage<, als man versucht, einen Phaserstrahl zu überlisten.
Manchmal liegt der Fehler jedoch nicht bei den Star Trek-Autoren, sondern bei den Kritikern. Man wies mich auf einen vermeintlichen Fehler in Begegnung der Generationen hin: Eine Sonne scheint über einem Planeten, und als sie verschwindet, wird es auf der Welt sofort dunkel. Das ist natürlich unmöglich, denn das Licht der Sonne braucht eine gewisse Zeit, um den Planeten zu erreichen. Allerdings: Bei Begegnung der Generationen sieht man diesen Vorgang von der betreffenden Welt aus. Wenn man auf der Oberfläche des Planeten steht und beobachtet, wie die Sonne implodiert, wird es tatsächlich dunkel. Warum? Weil die visuellen Informationen über die stellare Implosion sowie den plötzlichen Mangel an Licht zwar verzögert, aber gleichzeitig eintreffen! In dieser Hinsicht haben die Star Trek-Autoren alles richtig gemacht - um dann mit einer viel zu kurzen Verzögerungszeit Mist zu bauen. Wir erfahren, daß die fatale Sonde nach dem Start nur elf Sekunden braucht, um die Sonne zu erreichen. Sie fliegt ganz offensichtlich mit Unterlichtgeschwindigkeit: Es dauert weniger als das Doppelte dieser Zeit, bis die Leute auf dem Planeten sehen, wie der Stern implodiert. Daraus muß der Schluß gezogen werden, daß das Licht weniger als elf Sekunden brauchte, um die Welt zu erreichen. Die Erde ist acht Lichtminuten von der Sonne entfernt. Selbst wenn die Sonne jetzt explodiert - wir erfahren es erst in acht Minuten. Es fällt mir schwer zu glauben, daß der Klasse M-Planet in Begegnung der Generationen nur etwa zehn Lichtsekunden von einem Stern entfernt ist, der unserer Sonne ähnelt. Der Abstand von der Sonne betrüge etwa drei Millionen Kilometer ein ganzes Stück weniger als ein Zehntel des Merkurabstands von der Sonne. Der Planet könnte also kaum mehr sein als ein glühender Schlackehaufen . DER PLOT HAT EINEN KNACKS, WENN DER EREIGNISHORIZONT EINEN RISS BEKOMMT. Zwar habe ich versprochen, technischem Kauderwelsch keine Beachtung zu schenken, aber ich muß darauf hinweisen, daß sich die Voyager-Serie in dieser Hinsicht besonders hervortut. Während Captain Janeway und ihre Gefährten versuchen, einen Rückweg nach zu Hause zu finden, nutzen sie praktisch jede Gelegenheit, spezielle Fachbegriffe zu verwenden. Nun, wissenschaftliche Ausdrücke bedeuten etwas, und wenn man sie gedankenlos bunt zusammenwürfelt, sind Fehler ein unvermeidliches Resultat. Im dritten Kapitel habe ich erwähnt, daß ein Ereignishorizont keinen >Riß< haben kann, der Rettung für die Voyager bedeutet (in der nicht besonders gut gelungenen Folge >Phage<) - für einen Physiker klingt so etwas vollkommen grotesk. Ein Riß im Ereignishorizont... Ebensogut könnte man davon reden, das eine Ende eines Kreises zu entfernen oder ein bißchen schwanger zu sein. Der Ereignishorizont eines Schwarzen Loches ist keine physikalische Größe, sondern eine imaginäre Grenzlinie, hinter der alles im Einflußbereich des Loches gefangenen bleibt. Eine Eigenschaft des gekrümmten Raums besteht darin, daß die Flugbahnen aller Objekte - auch des Lichts - zum Schwarzen Loch zurückführen, sobald man sich innerhalb eines bestimmten Radius befindet. Entweder existiert der
Ereignishorizont eines Schwarzen Loches, oder er existiert nicht. Wenn er existiert, so weist er für nichts irgendwelche Schlupflöcher auf. WIEVIEL SUBSTANZ HAT DER ARZT? Einer der interessantesten technischen Aspekte der Voyager-Sene ist der holographische Arzt. In einer wundervollen Szene fragt ein Patient den Doktor, wieso er >fest< sein kann, obwohl er nur ein Hologramm ist. Eine gute Frage. Der Arzt antwortet, indem er ein >magnetisches Begrenzungsfeld< ausschaltet und zeigt, daß er ohne dieses Feld völlig substanzlos ist. Nach der Reaktivierung des Begrenzungsfelds gibt er dem Fragesteller einen Klaps, um auf seine >feste< Struktur hinzuweisen. Eine großartige Demonstration - aber leider ist sie unmöglich. Im sechsten Kapitel war bereits die Rede davon: Magnetfelder sind ein gutes Hilfsmittel im Umgang mit geladenen Teilchen, die dadurch auf kreisförmige Bahnen gezwungen werden. Aber Licht ist elektrisch neutral und reagiert nicht auf ein Magnetfeld. Hologramme bestehen nur aus Licht, was für den Doktor der Voyager bedeutet: Er kann niemandem einen Klaps geben. SIND DIE HÄNDE EMPFINDLICHER ALS DER HlNTERN? BEZIEHUNGSWEISE: INTERPHASE ODER NICHT INTERPHASE. An einer Stelle passiert in Star Trek etwas, das ich als Ghost-Fehler bezeichne. Damit meine ich einen Kinofilm, dessen Hauptdarsteller - ein Geist - durch Wände gehen und keine Gegenstände heben kann, weil seine Hände einfach hindurchgleiten. Allerdings: Wenn er auf einem Stuhl oder einer Couch Platz nimmt, verschwindet das Hinterteil nicht in den Polstern. Auch der Boden unter seinen Füßen scheint ihm genug Halt zu geben. Im letzten Kapitel habe ich beschrieben, wie Geordi LaForge und Ro Laren durch einen romulanischen >Interphasengenerator< in Hinsicht auf normale Materie >aus der Phase< gerieten. Zu ihrer großen Überraschung stellten sie fest, daß sie unsichtbar waren, durch Wände und andere Leute gehen konnten. Ro Laren glaubte sich daraufhin tot (vielleicht hat sie einmal eine alte Aufzeichnung des Films Ghost gesehen). Doch Geordi und Ro standen auf dem Boden und waren auch imstande, sich zu setzen. Materie ist Materie; in diesem Zusammenhang unterscheiden sich Boden und Sessel nicht von den Wänden. Füße und Gesäß sind soweit ich weiß - nicht fester als Hände. In dieser Episode gibt es noch einen weiteren ernsten Fehler, der auch die Glaubwürdigkeit anderer Folgen beeinträchtigt. In der Physik geht man von folgendem Grundsatz aus: Zwei Objekte, die Einfluß auf andere Dinge nehmen können, sind auch imstande, sich gegenseitig zu beeinflussen. Dieses Prinzip führt uns geradewegs zu Newton und seinem Wechselwirkungsgesetz: Übt ein Körper A auf einen Körper B eine Kraft aus, so übt stets auch der Körper B auf den Körper A eine Kraft aus, die von gleicher Größe, aber entgegengesetzter Richtung ist. Wenn
Geordi und Ro die Enterprise in ihrer neuen >Phase< sehen konnten, dann so kam es zu Wechselwirkungen zwischen ihnen und Licht (einer elektromagnetischen Welle). Nach Newtons Gesetz müßten sie dann ebenfalls sichtbar sein (zumindest ihre Netzhaut). Glas ist transparent, weil es kein sichtbares Licht absorbiert. Um Licht wahrzunehmen, muß man es absorbieren. Und indem man Licht absorbiert, kommt es zu einer Wechselwirkung, die zur Folge hat, daß man für andere Leute sichtbar wird. Das gilt auch für die unsichtbaren Interphasen-Insekten, die in der Folge >Traumanalyse< an den Körpern der Besatzungsmitglieder festhaften. Welche Kraft erlaubt es ihnen, auf normaler Materie zu ruhen, ohne sie zu durchdringen? Die Antwort lautet: Elektromagnetismus - die elektrostatische Abstoßung zwischen den geladenen Teilchen in den Atomen der verschiedenen Körper. Elektromagnetische Wechselwirkungen bedeuten jedoch, daß man Teil der Welt ist, ob man will oder nicht. DAS KIND MIT DEM BADE AUSSCHÜTTEN In der Fernsehfolge >In der Hand von Terroristen< legt die Enterprise beim Remlar Array an, wo sie von Baryon-Partikeln gereinigt werden soll, die sie während vieler Warptransfers im Verlauf von fünf Jahren absorbiert hat. Vor der Reinigung muß die Crew das Schiff verlassen, denn der Neutralisierungsstrahl ist gefährlich für lebendes Gewebe. Und ob! Die einzigen stabilen Baryonen sind (1) Protonen und (2) Neutronen in Atomkernen. Die gesamte uns umgebende Materie besteht aus diesen Teilchen. Wenn man die Enterprise davon >reinigt<, bleibt von ihr nicht mehr viel übrig. WIE KALT IST KALT? Der Lieblingsschnitzer meines Kollegen, des Star Trek-Fans Chuck Rosenblatt betrifft ein Objekt, das auf eine Temperatur von -295 Grad Celsius abgekühlt wird. Das ist eine bemerkenswerte Leistung, denn auf der Celsiusskala beträgt der absolute Nullpunkt -273°. Der absolute Nullpunkt ist - wie der Name schon andeutet - die niedrigste Temperatur überhaupt. Es handelt sich um die Temperatur, bei der alle molekularen und atomaren Bewegungen sowie Vibrationen und Rotationen aufhören. Zwar ist es unmöglich, diese theoretische Tiefsttemperatur zu erreichen, aber atomare Systeme sind bis auf ein Millionstel Grad darüber abgekühlt worden. (Während ich dieses Buch schreibe, ist in dieser Hinsicht ein neuer Rekord gelungen: Inzwischen hat man eine Temperatur von 2 Milliardstel Grad über dem absoluten Nullpunkt erreicht.) Da Temperaturen mit molekularen und atomaren Bewegungen in Verbindung stehen, kann man nie weniger bekommen als überhaupt keine Bewegung. Woraus folgt: Selbst in tausend Jahren wird der absolute Nullpunkt absolut sein.
ICH HABE DAS LlCHT GESEHEN! Ich muß gestehen: Diesen Fehler hätte ich eigentlich selbst bemerken sollen, doch der Hinweis kam von Ryan Smith, einem Physikstudenten im ersten Semester. Er machte mich darauf aufmerksam, als ich bei einer Vorlesung erwähnte, dieses Buch zu schreiben. Wenn die Enterprise ihre Phaser einsetzt, so sieht man die Strahlen. Das ist natürlich unmöglich - es sei denn, der Phaser emittiert Licht in alle Richtungen. Licht wird erst dann sichtbar, wenn es von etwas reflektiert wird. Haben Sie jemals einen Vortrag besucht, bei dem man einen Laser-Zeiger verwendet hat? Für gewöhnlich handelt es sich dabei um rote Helium-Neon-Laser, und man sieht nur die Stelle, wo der Strahl die Leinwand berührt. Wenn man auch den >Strahlbalken< beobachten möchte, so muß man für eine Staubwolke sorgen - man klopfe zum Beispiel zwei trockene Kreideschwämme aneinander. (Versuchen Sie es mal; dadurch entsteht ein beeindruckendes visuelles Spektakel.) Bei Laserlightshows verwendet man Dampf oder Wasser als Reflektoren. Wir sehen Phaserstrahlen also nur, wenn es Staub im All gibt - oder wenn die Strahlen das Ziel treffen. ASTRONOMEN WERDEN PINGELIG Eigentlich ist das gar nicht überraschend: Die meisten Leute bemerken wissenschaftliche Fehler dort, wo ihr eigenes Fachgebiet betroffen ist. Als ich meine Kollegen befragte, kamen die Beispiele vor allem aus den jeweiligen fachspezifischen Arbeitsbereichen. Einige Astronomen schickten mir E-mail und wiesen darin auf astronomische Fehler bei Star Trek hin. Ein Astronomiestudent verwandelte das lobenswerte Bemühen der Star Trek-Autoren um astronomische Exaktheit in einen Fehler. In der Episode >Die Begegnung im Weltraum< verwechselt ein junges, im All lebendes Wesen die Enterprise mit ihrer Mutter und saugt ihre Energie ab. Im letzten Augenblick findet LaForge eine Möglichkeit, das Wesen von der Außenhülle des Schiffes zu lösen. Angelockt wird es von einer Strahlung, die das Schiff emittiert - ihre Wellenlänge beträgt 21 cm. Eine Änderung dieser Frequenz >verdirbt die Milch<, woraufhin das Baby-Wesen losläßt. In dieser Folge greifen die Autoren auf etwas zurück, das ich im achten Kapitel erwähnt habe, nämlich den Umstand, daß die 21-cm-Strahlung eine universelle, von Wasserstoff erzeugte Strahlung ist, mit deren Hilfe Astronomen interstellare Gaswolken untersuchen. Allerdings sind die Autoren offenbar der Ansicht, daß alles in dieser Wellenlänge strahlt, auch die Enterprise. Nun, der für die Strahlung verantwortliche atomare Übergang im Wasserstoff ist sehr selten: Ein Atom im interstellaren Raum verursacht sie im Durchschnitt nur einmal in 400 Jahren. Aber da es viel Wasserstoff im Universum gibt, ist das 21-cm-Signal stark genug, um auf der Erde empfangen zu werden. Die Autoren haben in diesem Fall eine Eins für guten Willen verdient - und eine 4 minus für falsche Anwendung (was noch recht großzügig ist). Ein NASA-Wissenschaftler wies mich auf einen Fehler hin, den ich übersehen hatte - und der einem NASA-Fachmann natürlich auffallen mußte. Föderationsschiffe
schwenken normalerweise in einen geostationären Orbit ein. Das bedeutet: Die Orbitalperiode des Schiffes entspricht dann der des Planeten. Dadurch bleibt das Raumschiff über derselben Stelle auf der Oberfläche des Planeten, so wie die Wettersatelliten der Erde. Doch wenn die Enterprise vor dem Hintergrund eines Planeten erscheint, so bewegt sie sich meistens in bezug auf die Oberfläche. Sie befindet sich also nicht in einem geostationären Orbit - wodurch sich beim Einsatz des Transporters erhebliche Probleme ergeben könnten. DlE VERDAMMTEN NEUTRINOS Ich muß hier noch einmal auf die Neutrinos zu sprechen kommen. Da ich in diesem Buch kaum auf Deep Space Nine eingegangen bin, sollte ich zum Schluß vielleicht einen Fehler aus dieser Serie bringen. Der Tip stammt von David Brahm, einem weiteren Physiker und Trekker. Irgendwie hat Quark einen Apparat bekommen, mit dem sich die Gesetze der Wahrscheinlichkeit in seiner Nähe verändern lassen. Ein solches Gerät könnte an Spieltischen recht nützlich sein und stellt somit eine Verlockung dar, der kaum ein Ferengi widerstehen kann. Doch Dax kommt Quark auf die Schliche, da sie zufälligerweise den Neutrinostrom in der Raumstation mißt. Überrascht stellt sie fest, daß alle Neutrinos >links< sind, das heißt: Relativ zu ihrer Bewegungsrichtung drehen sie sich nach links. Daraus schließt Dax, daß irgend etwas nicht mit rechten Dingen zugeht. Immerhin fehlen die >rechten< Neutrinos. Um Quark zu entlarven, haben die Star Trek-Autoren ausgerechnet ein Phänomen gewählt, das der Wirklichkeit entspricht. Soweit wir heute wissen, gibt es nur Neutrinos mit nach links gerichtetem Spin! Es handelt sich um die einzigen Teilchen im ganzen Universum, die nur in einem Spin-Zustand existieren. Wenn Dax darüber Bescheid gewußt hätte, wäre ihr also überhaupt nichts Ungewöhnliches aufgefallen. Dieses Beispiel macht, soweit es mich betrifft, die Physik von Star Trek so interessant. Es zeigt, daß die Wirklichkeit exotischer und sonderbarer sein kann als die Science Fiction.
Epilog Soviel zu Schnitzern und Physik. Wenn Sie Ihren Lieblingsfehler oder den von Ihnen bevorzugten physikalischen Aspekt vermissen, so wenden Sie sich mit entsprechenden Vorschlägen an den Verlag. Wenn genug Vorschläge eingesandt werden, gibt es vielleicht eine Fortsetzung, so wie bei Star Trek. Einen geeigneten Titel hätte ich schon. Wie war's mit Die Physik von Star Trek II: Der Zorn des Krauss? Ich beende dieses Buch nicht mit Hinweisen auf wissenschaftliche Fehler, um die Star Trek-Autoren übermäßig zu kritisieren. Ich möchte nur darauf hinweisen, daß es viele Möglichkeiten gibt, die Serie(n) zu genießen. Solange Star Trek-Folgen im Fernsehen laufen, haben Trekker aller Art - von Schülern bis hin zu Universitätsprofessoren - etwas, worüber sie am nächsten Morgen reden können. Außerdem sind Autoren und Produzenten herausgefordert, mit den raschen Weiterentwicklungen der Physik Schritt zu halten. Ich beende dieses Buch dort, wo ich es begonnen habe: nicht bei Fehlern, sondern bei den Möglichkeiten. Die Wunder der modernen Physik - zu der ich auch die Leistungen von Galilei und Newton zähle - haben unsere Welt ebenso geprägt wie die anderen intellektuellen Leistungen des Menschen. Es ist ein Irrtum zu glauben, daß die Wissenschaft abseits unserer Kultur existiert. Fest steht: Sie bildet einen integralen und sehr wichtigen Bestandteil unserer Zivilisation. Die Erforschung des Universums gehört zu den erstaunlichsten Leistungen des menschlichen Geistes, und ich finde es bedauerlich, daß sie kein ebenso großes Publikum hat wie etwa die Inspirationen von Literatur, Musik und Malerei. Star Trek betont die Rolle der Wissenschaft bei der zukünftigen Entwicklung des Menschen. Dadurch wird auch die Verbindung zwischen Wissenschaft und Kultur sichtbar. Ich habe mehrmals meine Ansicht geäußert, daß die Wissenschaft des dreiundzwanzigsten Jahrhunderts wahrscheinlich nur wenig Ähnlichkeit mit dem aufweisen wird, was die Phantasie der Star Trek-Autoren heute auf den Fernsehschirm bringt. Ich glaube aber eher, daß die Wissenschaft in gut zweihundert Jahren noch weit verblüffender sein wird. Die Physik von heute und morgen bestimmt die Zukunft ebenso, wie die Entdeckungen von Newton und Galilei unsere Gegenwart formten. Ich bin unter anderem deshalb Wissenschaftler, weil ich an die Fähigkeit des Menschen glaube, auch weiterhin verborgene Wunder des Universums zu entdecken. Und darum geht es auch in Star Trek. Vielleicht sollte Gene Roddenberry das letzte Wort haben. Am 25. Jahrestag der Star Trek-Serie, ein Jahr vor seinem Tod, sagte er: »Der Mensch ist ein bemerkenswertes Wesen, mit vielen Möglichkeiten. Ich hoffe, daß Star Trek gezeigt hat, wozu wir imstande sind - wenn wir an uns selbst und an unsere Fähigkeiten glauben.«
Danksagung Ich bin vielen Personen zu Dank verpflichtet, die mir bei diesem Buch halfen. Zunächst einmal möchte ich meinen Physiker-Kollegen danken, die sich immer bereit zeigten, mir Auskunft zu geben. Insbesondere danke ich Stephen Hawking für das Vorwort sowie Steven Weinberg, Sheldon Glashow und Kip Thorne für ihre Informationen in bezug auf Star Trek. John Peoples, Direktor des Fermi National Accelerator Laboratory, stellte einige seiner Mitarbeiter zur Verfügung, um mir bei den Berichten über die Antimaterieproduktion und -lagerung im Fermilab zu helfen. Ich danke Judy Jackson von der Public Relations-Abteilung für Fotografien und sonstige Unterstützung. Cyrus Taylor, wie ich Fakultätsmitglied der Western Reserve University, führt derzeit Experimente im Fermilab durch und beantwortete verschiedene technische Fragen. Paul Horowitz von der Harvard University gab mir Informationen über die vom ihm geleiteten SETI- und META-Projekte: Ich erhielt Dutzende von Fotos und Unterlagen über die Suche nach extraterrestrischer Intelligenz. Von George Smoot bekam ich die COBE-Fotografie unserer Galaxie, und Philip Taylor wies mich auf Solitonen hin. Einige Physiker, die sich ebenfalls für Star Trek interessieren, halfen mir mit ihren Beobachtungen. Ich danke insbesondere Mark Srednicki, Martin White, Chuck Rosenblatt und David Brahm - sie nannten mir bestimmte Beispiele aus der Serie. Ich möchte auch den Trekkern danken, die auf meine elektronischen Anfragen reagierten, die ich in verschiedenen Star Trek-Mailboxen hinterließ. Scott Speck, >Westy< bei der NASA, T. J. Goldstein, Denys Proteau, J. Dilday und andere beschrieben wissenschaftliche Fehler in einzelnen Fernsehfolgen, bestätigten damit meine Auswahl oder fügten ihr weitere Schnitzer hinzu. Einige Studenten der Gase Western Reserve University, vor allem Ryan Smith, haben ebenfalls meinen Dank verdient. Weitere wichtige Beiträge kamen von anderen Trekkern. Ich danke Anna Fortunato, die erste Fassungen des Manuskripts las und nützliche Verbesserungsvorschläge unterbreitete. Auch von Mark Landau bei HarperCollins bekam ich wertvolle Ratschläge. Jeffrey Robbins, zu jenem Zeitpunkt Redakteur bei der Oxford University Press, half mir mit wichtigen Informationen in bezug auf den Warpantrieb. Mein Onkel Herb Title - ein eingefleischter Star Trek-Fan - las das Manuskript, ebenso mein Forschungskollege Peter Kernan. Von beiden erhielt ich den einen oder anderen hilfreichen Kommentar. Auch meine Frau Kate stand mir mit ihrem Rat zur Seite. Ich bin Greg Sweeney und Janelle Keberle zu Dank verpflichtet: Sie liehen mir ihre komplette katalogisierte Sammlung von Star Trek-Videokassetten - sie stand mir vier Monate lang zur Verfügung, während ich an diesem Buch arbeitete. Die Aufnahmen waren sehr wichtig für mich und erwiesen sich als unentbehrliche Helfer bei den Recherchen. Ich danke Greg und Janelle dafür, daß sie mir ihre Sammlung anvertrauten.
Ein spezieller Dank gebührt der zuständigen Redakteurin bei Basic Books: Ohne Susan Rabiner wäre dieses Buch-Projekt nicht möglich gewesen. Sie überzeugte mich davon, daß sich so etwas bewerkstelligen ließ; außerdem machte sie sich bei Basic und HarperCollins dafür stark. In diesem Zusammenhang danke ich auch Kermit Hummel, dem Chef von Basic Books, für seine Unterstützung. Die endgültige Fassung dieses Buches geht auch auf die engagierten und kompetenten Bemühungen der Korrektorin Sara Lippincott zurück. Wir verbrachten viele Stunden damit, uns Faxe zu schicken und zu telefonieren. Das Ergebnis besteht sicher in einem wesentlich besseren Manuskript. Schließlich möchte ich noch dem Dekan, der Fakultät, dem Lehrpersonal sowie den Studenten des College of Arts and Sciences und der Fakultät für Physik der Case Western Reserve University danken. Diese Personen haben mich nicht nur unterstützt, sondern sind oft auch nachsichtig gewesen, während ich an diesem Buch arbeitete. Sie schufen eine Atmosphäre von Kollegialität und Anregung, was mir die Kraft gab, bis zum Schluß durchzuhalten. Wie immer konnte ich die ganze Zeit über auf die Unterstützung meiner Familie zählen. Kate und meine Tochter Lilli erlaubten mir, bis spät in die Nacht Star TrekFolgen zu sehen, obwohl sie manchmal lieber geschlafen hätten.