SPEKTRUMDISKURS
MISSBRAUCH, SCHULD UND FREIER WILLE
E VOLU TION DE S MENSCHEN
ZO OLO GIE
Das Weltall aus der Sicht des Spitzer-Teleskops
(Fast) keine Vermischung mit dem Neandertaler
Das seltsame Treiben der Wanderhirten-Ameisen
7 ,40 € (D/A) · 8,– € (L) · 14,– sFr. D6179E
JUNI 2010
06/10
A STRONOMIE
EDITORIAL Reinhard Breuer Chefredakteur
Viehhaltung der besonderen Art Wer Ameisen nur als krabbelnde Störenfriede im Haus oder im Schwimmbad kennt, ahnt vermutlich nicht, dass er es mit einer Welt macht der Superlative zu tun hat. Hier nur einige Kostproben: Über 12 500 Arten der Hautflügler sind bekannt; Entomologen schätzen ihre Menge aber auf fast das Dop pelte. Seit über 100 Millionen Jahren bevöl kern diese Insekten den Planeten, deren heutige Anzahl auf einige Billionen (1015) Individuen geschätzt wird. Die Biomasse aller Ameisen entspricht jener der Menschen. Ihre Staaten können wenige dutzend Tiere enthal ten, aber auch mal mehrere Millionen. Einige Völker besitzen eine Königin, andere tausen de. Und die Ameisenstaaten können sich zu gigantischen Gebilden zusammenschließen: Die größte bekannte Ameisenkolonie er streckt sich entlang der Küste von Italien bis ins nordwestliche Spanien – knapp 6000 Kilometer mit Milliarden Individuen. Bahnbrechende Forschungen über Amei sen beschreiben Bert Hölldobler und Edward O. Wilson auch in ihrem neuesten Werk »Der Superorganismus« (Rezension S. 100). Hölldobler war einige Zeit am Institut für Zoologie der Universität Frankfurt und dort Kollege von Ulrich Maschwitz, einem Spezia listen für die Ökologie Staaten bildender Insekten. Dieser erzählt zusammen mit seinen Mitarbeitern Martin Dill und Volker Witte eine, wie ich finde, schier unglaubliche Geschichte. Die Forscher sind in jahrelanger Arbeit und bei zahllosen Expeditionen dem merkwürdigen Verhalten der Wanderhirten ameisen auf die Spur gekommen. Was diese »nomadischen Viehzüchter« mit ihren Herden spezieller Pflanzenläuse anstellen und welche
SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Symbiose sie mit ihrem Haus(ge)tier dabei eingehen, hat mich fasziniert. Auch, was es in der Verhaltensforschung noch alles zu entde cken gibt (S. 44). Essays haben in Spektrum seit Langem die Funktion, Forschern Gelegenheit zu geben, ihre Thesen zu vertreten, was sie bisweilen durchaus persönlich und subjektiv tun. Besonders erfreulich dabei: wie Sie als Leser darauf reagieren – mit Lob und Kritik. Auch die im Zweimonatstakt erscheinende Serie mit Porträtinterviews regt Sie zu Diskussio nen an. Beispiele: das Interview mit dem Klimaforscher Gerald Haug (SdW 3/2010, S. 78, mit Leserbriefen in der Aprilausgabe) oder der Essay des Bioethikers Edgar Dahl über die Menschenwürde (SdW 3/2010, S. 70, mit Leserbriefen im Maiheft; die vollständigen Debatten stehen jeweils auf www.spektrum.de). In dieser Ausgabe begegnen sich im »Spektrum-Diskurs« (abermals) Edgar Dahl und der Berliner Philosoph Michael Pauen. Dahl nimmt den Missbrauchsskandal zum Anlass, das Thema Willensfreiheit, Verant wortung und Schuld neu zu reflektieren. Pauen, den wir im letzten Jahr porträtierten (SdW 1/2009, S. 54), hat sich mit dieser Problematik immer wieder auch in Büchern beschäftigt (SdW 2/2010, S. 100). Jetzt geht die Auseinandersetzung konkret darum, wie sich Verantwortung, Schuld und Strafe mit einer womöglich beschränkten Willens freiheit vereinbaren lassen (S. 72). Ein heikles Thema – und ich hoffe erneut auf Ihre kritische Stellungnahme.
Gerade erschienen: unser neues Dossier über das Leben auf der Erde und im Labor
Herzlich Ihr
3
Inhalt 24 astronomie & physik Aufregende Einblicke mit dem Infrarotteleskop Spitzer
44
34 astronomie & physik Surfen auf der Raumkrümmung
aktuell 12 Spektrogramm Exoplanet mit Methanmangel · Emotio nen überdauern das Vergessen · Neue Vormenschenart · Pilz als Pflanzenken ner · Gemeinsam schwach · Ruhende Sonne verheißt kalte Winter u. a.
15 Bild des Monats Staubige Kinderstube für Sterne
16 Strahlzeit am Genfer Hadronencollider Erste Ergebnisse am LHC nach dem Neustart stimmen optimistisch
18 Scharfe Bilder einer fernen Sonnenfinsternis
medizin & biologie Dschungel-Ameisen als Wanderhirten
astronomie & physik
medizin & biologie
24 r Spitzers Blick ins All
44 r Wie Ameisen zu Wanderhirten werden
Dem Infrarotteleskop Spitzer gelangen aufregende Blicke auf Galaxienhaufen im jungen Universum sowie auf Exoplaneten Schlichting!
33 Kurzer Blick in die Ferne Der Horizont ist dort, wo sich die von einem Schiff hinterlassene Bläschenspur im Unendlichen verliert? Von wegen!
34 Einsteins Raumzeit Abenteuer im Weltall: Durch geschicktes Ausnutzen der Raumkrümmung könnte ein Fahrzeug im Prinzip auch im Vakuum »vorwärtspaddeln«
Für ihre Herden von Schmierläusen sind bestimmte Dschungel-Ameisen zu nomadischen Viehzüchtern geworden. Die Geschichte einer ungewöhnlichen Symbiose
54 r Gene der Neandertaler Schon in den letzten Jahren ermöglichten Analysen von Neandertalererbgut Einblicke in ihre und unsere Evolutions geschichte, die weit gehend getrennt voneinander verliefen
Verfinsterung eines fernen Sterns macht Begleiter sichtbar
20 Warum Schlafmittel wie Valium süchtig machen Sie wirken auf das Belohnungszentrum des Gehirns ähnlich wie Opiate
23 Springers Einwürfe Enttäuschende Modelle
Titelmotiv: Science Photo Library / MedicalRF.com (Kopf); iStockphoto / Tyler Bones (Strahlen); Spektrum der Wissenschaft (Bearbeitung) Die auf der Titelseite angekündigten Themen sind mit r markierten Artikel finden Sie auch gekennzeichnet; die mit in einer Audioausgabe dieses Magazins, zu beziehen unter: www.spektrum.de/audio
80
88 Titel
»Dunkle Energie« des Gehirns
mensch & geist
60 erde & umwelt
erde & umwelt Heißes Problem im arktischen Eis
technik & computer
TITEL
60 r Im Kopf herrscht niemals Ruhe Bisher haben Forscher die fort währende Hintergrundaktivität, die »dunkle Energie« des Gehirns, missachtet. Dabei hat sie Struktur und dirigiert das Gesamtgeschehen
80 Klimazeitbombe Permafrost Der dauerhaft gefrorene Boden in der Arktis taut zunehmend auf und setzt Methan frei. Das starke Treibhausgas könnte die globale Erwärmung drama tisch beschleunigen. Wie groß ist die Gefahr?
Wissenschaft im Alltag
90 Maxienergie, Miniformat Lithiumionen-Akkus machen mobile Elektronik praktikabel
92 Berg- oder Talfahrt? Die Erdölförderung habe ihren Zenit bereits überschritten, mahnen Experten. Andere hingegen verweisen auf neue Prospektions- und Fördertechnologien Wissenschaft & KArriere
104 Den Schädling in Grenzen halten
Mathematische Unterhaltungen
Die Firma AMW Nützlinge GmbH züchtet und vertreibt Nutzinsekten für Landwirtschaft und Privathaushalte
68 Fußball als Glücksspiel? Der Zufall wird auch bei der anste henden Weltmeisterschaft eine so große Rolle spielen, dass eine statis tische Analyse bereits gute Vorher sagen gestattet
spektrum-diskurs
72 r Schuld und freier Wille Missbrauch und kein Ende: Sind Phädophile immer Herr ihres Willens? Auf die Thesen des Medizin ethikers Edgar Dahl antwortet der Berliner Philosoph Michael Pauen
Weitere Rubriken 3 Editorial: Viehhaltung der besonderen Art 6 Onlineangebote 8 Leserbriefe/Impressum 67 Im Rückblick 106 Vorschau
100 Rezensionen: Bert Hölldobler und Edward O. Wilson Der Superorganismus Friedrich C. Delius Die Frau, für die ich den Computer erfand Rudolf Taschner Rechnen mit Gott und der Welt
Online
NASA Earth Observatory
mit frdl. Gen. von Heinz Klaus Strick
Dies alles und vieles mehr finden Sie in diesem Monat auf www.spektrum.de. Lesen Sie zusätzliche Artikel, diskutieren Sie mit und stöbern Sie im Heftarchiv!
tipps Kennen Sie Simon Stevin? www.spektrum.de/artikel/1030746
Interaktiv Umfrage: Riskanter Rohstoff www.spektrum.de/artikel/1030787
Tipps
Interaktiv
Aufbruch in den Ozean
Kennen Sie Simon Stevin?
Umfrage: Riskanter Rohstoff
Die Ölpest im Golf von Mexiko hat uns wieder einmal an unsere gefährdeten Meere erinnert, über die wir noch viel zu wenig wissen. Dieses spektrumdirekt-Dossier berichtet unter anderem über folgenreiche ozeanische Strömungen, bemannte Sta tionen in der Tiefsee und Plastikmüll im Nordatlantik
Der in Brügge geborene hochproduktive Mathematiker und Physiker gehört zwar zu den weniger bekannten Persönlichkeiten der Wissenschaftsgeschichte. Doch Stevins im Jahr 1585 veröffentlichtes Werk »Das Zehntel«, geschrieben für Sternenbeobachter und Landvermesser, gilt als der eigentliche Beginn des Rechnens mit Dezimalzahlen in Europa
Erdöl bietet noch immer eine Zukunft, so ist ab S. 92 in dieser Ausgabe zu lesen. Gleich zeitig beweist die Ölkatastrophe im Golf von Mexiko, wie sehr die Natur unter unseren Verfahren zur Rohstoffgewinnung leidet. Wo liegt die Grenze, bis zu der wir die Umwelt belasten dürfen? Diskutieren Sie mit unter
Nur einen Klick entfernt
Machen Sie mit!
Die Wissenschaftszeitung im Internet
www.spektrumdirekt.de/meer
Das Rätsel in unseren Köpfen Der Strom an Nachrichten aus der Hirnforschung schwillt immer weiter an. Dieses spektrumdirekt-Dossier bündelt Berichte zu den neuesten Erkenntnissen: warum Menschen nicht mehr als zwei Ziele parallel verfolgen können, wie Sensoren im Angstzentrum auf Kohlendioxid reagieren und weshalb das Rauschen in den Nervenbahnen ein Mythos ist www.spektrumdirekt.de/hirnforschung
www.spektrum.de/artikel/1030746
www.spektrum.de/artikel/1030787
Von »stillen Erdbeben« bis zum Ausbruch der »Supervulkane« Den Naturgewalten haben wir noch wenig entgegenzusetzen; der isländische Vulkan Eyjafjallajökull ist hier nur das jüngste Beispiel. Auf dieser Spektrum-Themenseite verschaffen wir Ihnen den Überblick: Lesestoff über Erdbeben und Vulkane, Tsunamis und Hurrikane – aus dem Magazin, unseren Sonderheften und von spektrumdirekt.de
www.spektrum.de/katastrophen
Alle Publikationen unseres Verlags sind im Handel, im Internet oder direkt über den Verlag erhältlich
FReigeschaltet »Das Sichtbare unsichtbar machen« www.gehirn-und-geist.de/artikel/1030064
picture-alliance / Maxppp
Spektrum in den sozialen Netzwerken
Für Abonnenten »Das Geheimnis der Päpstin«
Für Abonnenten Ihr monatlicher Plus-Artikel zum Download
www.spektrum-plus.de
www.spektrum.de/studivz
www.spektrum.de/facebook
www.spektrum.de/twitter
Freigeschaltet
Ausgewählte Artikel aus Gehirn&Geist und epoc kostenlos online lesen
Die Wissenschaftsblogs
»Das Geheimnis der Päpstin«
»Das Sichtbare unsichtbar machen«
Am Puls der Zeit
Eine Frau saß niemals auf dem Heiligen Stuhl, davon sind Historiker inzwischen überzeugt. Doch die Geschichte ihrer Legende zeigt: Fiktionen geben mitunter mehr über die Vergangenheit preis, als es Fakten können
Hirnforscher Christof Koch vom California Institute of Technology in Pasadena (USA) erklärt, wie Wissenschaftler Bilder unsichtbar machen, indem sie das bewusste Sehen austricksen – und messen, was dennoch im Geist der Betrachter ankommt
Selbst wer in diesen Wochen nichts anderes als die WissensLogs las, war gut informiert: über jüngste Entwicklungen um den geplanten Megastaudamm im Amazonasregenwald, den Ölteppich im Golf von Mexiko und über einen Artikel, den die »Frankfurter Rundschau« zurückziehen musste – er basierte auf nachweislich falschen Vorwürfen an den Weltklimarat. Henning Lobin (»Interactive Science«) ging derweil ins Grundsätzliche: Trifft C. P. Snows These von der Kluft zwischen Geistes- und Naturwissenschaften noch immer zu? Dort, wo sie sich schließt, so der Gießener Professor, sind jedenfalls atemberaubende Erkenntnisse zu vermelden. Außerdem boten die WissensLogs etwas zum Hören: Markus Völter (»Omega Tau Podcast«) sprach mit Roland Stelzer über ein autonomes Roboter-Segelboot, das Ozeanforschern helfen soll
Dieser Artikel ist für Abonnenten frei zugänglich unter
www.spektrum-plus.de
Diesen Artikel finden Sie als KOSTENLOSE Leseprobe von gehirn&geist unter
www.gehirn-und-geist.de/artikel/1030064
»Italiam, Italiam!« Reisen bildet. Das wussten auch die Adligen der Frühen Neuzeit. Ab dem 17. Jahrhundert gehörten Bildungsfahrten nach Italien und Frankreich zum Pflichtprogramm derer, die sich Chancen in Politik, Verwaltung und Militär ausrechneten Diesen Artikel finden Sie als kostenlose Leseprobe von epoc unter
www.spektrum.com
[email protected] Telefon 06221 9126-743
www.epoc.de/artikel/1030384
www.wissenslogs.de
leserbriefe Wie lebensfeindlich ist Perchlorat? Phoenix auf dem Mars, April 2010 Ihr schöner Artikel über die PhoenixMission auf dem Mars veranlasst mich zu einem Kommentar. Die erstaunlichen Perchloratfunde werden, da Perchlorat ein äußerst starkes – und damit eigentlich lebensfeindliches – Oxidans ist, immer wieder (nicht im vorliegenden Artikel) als ein Indiz dafür bemüht, dass es auf dem Mars keine primitiven Lebensformen geben kann. Zum einen finden sich auf unserem Planeten aber sehr wohl Bakterien, die Perchlorat verwerten, indem sie es mittels eines Enzyms, der Perchloratreduktase, zu Chlorit (ClO2– ) reduzieren. Beispiele sind Paracoccus halodenitrificans, Citrobacter sp. und Dechlorosoma sp. Zum anderen können wässrige Lösungen von Perchlorat bis zu einer Temperatur von minus 70 Grad Celsius flüssig bleiben und damit die »Liquidität« eines potenziellen wässrigen Lebensraums auch bei durchschnittlichen Oberflächentemperaturen auf dem Mars sicherstellen. Weiterhin sei bemerkt, dass in dem vom Mars stammenden Meteoriten ALH84001 (erster Metoritenfund im Jahr 1984 in Alan Hills, Victoria Land, Antarktis) hochreine Kriställchen des (Bio-)Minerals Magnetit = Fe3O4 gefunden wurden. Hochreiner Magnetit wird auf unserem Planeten von magnetotaktischen Bakterien synthetisiert und daher
Chefredakteur: Dr. habil. Reinhard Breuer (v.i.S.d.P.) Stellvertretende Chefredakteure: Dr. Inge Hoefer (Sonderhefte), Dr. Gerhard Trageser Redaktion: Thilo Körkel (Online Coordinator), Dr. Klaus-Dieter Linsmeier, Dr. Christoph Pöppe, Dr. Adelheid Stahnke; E-Mail:
[email protected] Ständiger Mitarbeiter: Dr. Michael Springer Schlussredaktion: Christina Meyberg (Ltg.), Sigrid Spies, Katharina Werle Bildredaktion: Alice Krüßmann (Ltg.), Anke Lingg, Gabriela Rabe Art Direction: Karsten Kramarczik Layout: Sibylle Franz, Oliver Gabriel, Marc Grove, Anke Heinzelmann, Claus Schäfer, Natalie Schäfer Redaktionsassistenz: Britta Feuerstein, Petra Mers Redaktionsanschrift: Postfach 10 48 40, 69038 Heidelberg, Tel. 06221 9126-711, Fax 06221 9126-729 Verlag: Spektrum der Wissenschaft Verlagsgesellschaft mbH, Postfach 10 48 40, 69038 Heidelberg; Hausanschrift: Slevogtstraße 3–5, 69126 Heidelberg, Tel. 06221 9126-600, Fax 06221 9126-751; Amtsgericht Mannheim, HRB 338114 Verlagsleiter: Dr. Carsten Könneker, Richard Zinken (Online) Geschäftsleitung: Markus Bossle, Thomas Bleck Herstellung: Natalie Schäfer, Tel. 06221 9126-733 Marketing: Annette Baumbusch (Ltg.), Tel. 06221 9126-741, E-Mail:
[email protected] Einzelverkauf: Anke Walter (Ltg.), Tel. 06221 9126-744 Übersetzer: An diesem Heft wirkten mit: Dr. Markus Fischer, Bernhard Gerl, Dr. Rainer Kayser, Dr. Andrea Pastor-Zacharias, Claus-Peter Sesín, Dr. Michael Springer, Dr. Sven Titz. Leser- und Bestellservice: Helga Emmerich, Sabine Häusser, Ute Park, Tel. 06221 9126-743, E-Mail:
[email protected]
www.spektrum.de/leserbriefe
von einigen Forschern als Biomarker angesehen. Die Mars-Magnetite in ALH84001 datieren 4,1 Milliarden Jahre zurück (zu jener Zeit besaß der Mars noch ein globales Magnetfeld) und sind damit 0,6 Milliarden Jahre älter als die primitivsten auf der Erde gefundenen Lebensformen. Prof. Dr. Dieter Rehder, Hamburg
Stents beugen nicht immer Schlaganfällen vor Gestützt, geschützt Wissenschaft im Alltag, April 2010 Die Behauptung, die Angioplastie (Ballontherapie) sei weniger belastend als die operative Entfernung (Endarteriektomie) arteriosklerotischer Plaques der Halsschlagadern, ist mit Ausnahme einiger weniger Sonderfälle leider falsch. Die Angioplastie ist im Gegenteil mit einem zirka drei Prozent höheren Schlaganfallrisiko verbunden als die Endarteriektomie, wie die kürzlich veröffentlichte International Carotid Stenting Study in Übereinstimmung mit den allermeisten bisherigen Studien erneut gezeigt hat. Schirmchen oder andere so genannte protection devices, die angeblich das prozedurale Schlaganfallrisiko vermindern sollen, sind im Gegenteil mit höheren Komplikationsraten verbunden als einfache Stents ohne solche Systeme. Bei mäßiggradigen (50 bis 69 Prozent) oder bisher asymptomatischen Ste-
Vertrieb und Abonnementverwaltung: Spektrum der Wissenschaft Verlagsgesellschaft mbH, c/o ZENIT Pressevertrieb GmbH, Postfach 81 06 80, 70523 Stuttgart, Tel. 0711 7252-192, Fax 0711 7252-366, E-Mail:
[email protected], Vertretungsberechtigter: Uwe Bronn Bezugspreise: Einzelheft �€� 7,40/sFr. 14,00; im Abonnement � €� 79,20 für 12 Hefte; für Studenten (gegen Studiennachweis) €�� 66,60. Die Preise beinhalten �€� 7,20 Versandkosten. Bei Versand ins Ausland fallen €� 7,20 Portomehrkosten an. Zahlung sofort nach Rechungserhalt. Konto: Postbank Stuttgart 22 706 708 (BLZ 600 100 70). Die Mitglieder des Verbands Biologie, Biowissenschaften und Biomedizin in Deutschland (VBio) und von Mensa e. V. erhalten SdW zum Vorzugspreis. Anzeigen: iq media marketing gmbh, Verlagsgruppe Handelsblatt GmbH; Bereichsleitung Anzeigen: Marianne Dölz; Anzeigenleitung: Katrin Kanzok, Tel. 0211 887-2483, Fax 0211 887 97-2483; verantwortlich für Anzeigen: Ute Wellmann, Postfach 102663, 40017 Düsseldorf, Tel. 0211 887-2481, Fax 0211 887-2686 Anzeigenvertretung: Hamburg: Matthias Meißner, Brandstwiete 1, 6. OG, 20457 Hamburg, Tel. 040 30183-210, Fax 040 30183-283; Düsseldorf: Ursula Haslauer, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2053, Fax 0211 887-2099; Frankfurt: Thomas Wolter, Eschersheimer Landstraße 50, 60322 Frankfurt am Main, Tel. 069 2424-4507, Fax 069 2424-4555; München: Jörg Bönsch, Nymphenburger Straße 14, 80335 München, Tel. 089 545907-18, Fax 089 545907-24; Kundenbetreuung Branchenteams: Tel. 0211 887-3355,
[email protected] Druckunterlagen an: iq media marketing gmbh, Vermerk: Spektrum der Wissenschaft, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2387, Fax 0211 887-2686 Anzeigenpreise: Gültig ist die Preisliste Nr. 31 vom 01. 01. 2010. Gesamtherstellung: L. N. Schaffrath Druckmedien GmbH & Co. KG, Marktweg 42–50, 47608 Geldern
nosen ist der Nutzen der Angioplastie generell fraglich, da das Schlaganfallrisiko ohne Eingriff nur unwesentlich höher ist als das Risiko eines Eingriffs. Eine ähnliche Risikoverminderung kann wahrscheinlich schon durch optimale medikamentöse Behandlung mit Plättchenaggregationshemmern (Aspirin), Blutdrucksenkung, und Cholesterinsenkern (Statine) erreicht werden. Dr. Enrico Floßmann, Oxford
Korrigenda Im Maiheft wurde auf S. 91 dem britischen Physiker Lord Kelvin fälschlich ein »p« untergejubelt. Er hieß mit bürgerlichem Namen nicht Thompson, sondern Thomson. Auf S. 75, 2. Spalte oben muss das Alter der Grünsteingürtel nicht in Millionen, sondern in Milliarden Jahren angegeben werden.
Briefe an die Redaktion … … sind willkommen! Schreiben Sie uns auf www.spektrum.de/leserbriefe oder direkt beim Artikel: Klicken Sie bei www.spektrum.de auf das aktuelle Heft oder auf »Magazin«, »Magazinarchiv«, das Heft und dann auf den Artikel. Oder schreiben Sie mit kompletter Adresse an: Spektrum der Wissenschaft Redaktion Leserbriefe Postfach 104840 69038 Heidelberg E-Mail:
[email protected]
Sämtliche Nutzungsrechte an dem vorliegenden Werk liegen bei der Spektrum der Wissenschaft Verlagsgesellschaft mbH. Jegliche Nutzung des Werks, insbesondere die Vervielfältigung, Verbreitung, öffentliche Wiedergabe oder öffentliche Zugänglichmachung, ist ohne die vorherige schriftliche Einwilligung des Verlags unzulässig. Jegliche unautorisierte Nutzung des Werks berechtigt den Verlag zum Schadensersatz gegen den oder die jeweiligen Nutzer. Bei jeder autorisierten (oder gesetzlich gestatteten) Nutzung des Werks ist die folgende Quellenangabe an branchenüblicher Stelle vorzunehmen: © 2010 (Autor), Spektrum der Wissenschaft Verlagsgesellschaft mbH, Heidelberg. Jegliche Nutzung ohne die Quellenangabe in der vorstehenden Form berechtigt die Spektrum der Wissenschaft Verlagsgesellschaft mbH zum Schadensersatz gegen den oder die jeweiligen Nutzer. Wir haben uns bemüht, sämtliche Rechteinhaber von Abbildungen zu ermitteln. Sollte dem Verlag gegenüber der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar nachträglich gezahlt. Für unaufgefordert eingesandte Manuskripte und Bücher übernimmt die Redaktion keine Haftung; sie behält sich vor, Leserbriefe zu kürzen. ISSN 0170-2971 SCIENTIFIC AMERICAN 75 Varick Street, New York, NY 10013-1917 Editor in Chief: Mariette DiChristina, President: Steven Inchcoombe, Vice President, Operations and Administration: Frances Newburg, Vice President, Finance, and Business Development: Michael Florek, Managing Director, Consumer Marketing: Christian Dorbandt, Vice President and Publisher: Bruce Brandfon
Erhältlich im Zeitschriften- und Bahnhofs buchhandel und beim Pressefachhändler mit diesem Zeichen.
Gebremster Optimismus
Kenn Brown, Mondolithic Studios
Das Gewächshaus im Wolkenkratzer, April 2010 Zu euphorisch Es bleibt anzumerken, dass Pflanzen in natürlichen Böden mit den dort zahlreich vorkommenden Organismen wechselwirken, ein Umstand, der offenbar gern unterschätzt wird, wie die wenigen bislang bekannten Forschungsergebnisse nahelegen. Ein weiterer starker Qualitätsverlust ergibt sich durch die kürzere Reifezeit. Um zukünftigen Lebensmittelknappheiten vorzubeugen, sind natürlich effizientere Produktionsmaßnahmen nötig, es soll jedoch auch nicht verschwiegen werden, dass zwischen Industriegemüse 3.0 und den Karotten aus Omas Garten ein enormer Unterschied hinsichtlich Geschmack und Haltbarkeit besteht. Der Autor bemüht, wie so oft, die Ersparnis der Transportkosten, um seine Glashochhäuser effizienter werden zu lassen. Diese sind jedoch noch immer extrem niedrig: Praktisch alles, was nicht verderblich ist, wird heute aus China importiert, man findet hier zu Lande kaum mehr Produkte europäischer Herkunft. Weiter haben sich im Artikel einige Rechenfehler eingeschlichen: New York soll demnach nur fast vier Millionen Liter fäkalienhältiges Abwasser täglich produzieren, was pro Kopf lediglich einen halben Liter ausmachen würde. Außerdem meint der Autor, allein in New York 100 GWh elektrischer Energie jährlich aus Fäkalien produzieren zu können. Er dürfte dabei einen Wirkungsgrad von etwa zehn Prozent angenommen haben, was viel zu hoch gegriffen scheint, ist doch besagte Fäkalienmenge mit nicht weniger als 300 Milliarden Liter Wasser vermengt. Dieter Sulzbacher, Traismauer (Österreich)
Katastrophale Energiebilanz Der Autor mag mit seinen kleinräumigen, durch erneuerbare Energien angetriebenen Kreislaufprozessen wohl Ökologisches im Sinn gehabt haben. Doch sein Konzept hat einen blinden Fleck, nämlich die katastrophale Energiebilanz für die Beleuchtung: Eine ebenerdige landwirtschaftliche Fläche der Größe A soll ersetzt werden durch ein Hochhaus mit N Etagen, gebaut auf der Grundfläche A / N. Seine Produktionsfläche ist also N . A / N = A und benötigt daher auch eine künstliche Beleuchtung entsprechend der Solarstrahlung auf die Fläche A. Auch bei optimiertem Lichtspektrum benötigt man zur Erzeugung dieser Lichtleistung rund die dreifache elektrische Leistung, zur Erzeugung der elektrischen Leistung mit Fotovoltaik (bei einem optimistischen Wirkungsgrad von 30 Prozent) insgesamt also die zehnfache Fläche der ursprünglichen Anbaufläche nur für die Energiebereitstellung – zusätzlich zum Hochhaus. Welch eine Flächenverschwendung! Dann doch lieber ein Acker der Größe A, der mit einem Fotovoltaikkraftwerk am schmalen Feldrain oder mit einem Windkraftwerk in einer winzigen Ecke den Strom für den E-Traktor und den E-Lkw gleich mitproduziert. Dr. Reinhard Malz, Fellbach
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Auch inmitten einer modernen Großstadt könnten Nutzpflanzen in großem Stil angebaut werden.
Mehr Esoterik als Wissenschaft Ein Mensch benötigt durchschnittlich 1500 Kalorien pro Tag – falsch! Die Empfehlungen der Medizin in Deutschland liegen bei 2000 pro Tag. Und um die Einhaltung schon dieser Grenze kämpfen Ärzte mit ihren Patienten in Deutschland seit Jahrzehnten erfolglos. 60 Etagen Pflanzenanbaufläche in 30 Geschossen übereinander, in welchen die natürliche Sonnenintensität (und aus dieser schöpfen Pflanzen ihre Biomasse) simuliert wird – das führt im besten Fall zu einem gigantischen Heizkraftwerk! Die Idee, Anbaufläche für Pflanzen (hocheffektive Biosolarfabriken) in geschlossene Gebäude zu verlagern und den dafür nötigen Strom aus großflächigen Solarkraftwerken zu beziehen, um Sonnenschein zu simulieren, ist vollkommen absurd! »Ein normaler Stuhlgang hat einen Brennwert von 300 Kalorien …« – das ist wirklich der absolute Gipfel! Betrachtungen dieser Art gehören in den Bereich der Esoterik. »… produzieren seit Jahren schmackhafte Tomaten, Gurken und Paprika.« Solche Thesen mag man von der Werbeabteilung eines Lebensmittelkonzerns erwarten, aber nicht in einer wissenschaftlichen Zeitschrift! Die Qualität von Gewächshausgemüse liegt unbestreitbar weit unter dem von Produkten aus ökologischer Landwirtschaft. Nicht zuletzt wird im gesamten Artikel ein Fakt komplett ignoriert: Es gibt schon jetzt nicht zu wenig Nahrungsmittel auf der Erde – sie werden nur nicht gerecht verteilt! Fabian Cundano Maltez, Jena
9
Spektrogramm ASTRONOMIE
Exoplanet mit Methanmangel q Einer der kleinsten bekannten Exoplane ten, Gliese 436b, zieht für irdische Beob achter bei jedem Umlauf einmal vor und einmal hinter seiner Sonne vorbei. Deshalb konnten Astronomen um Kevin Stevenson von der University of Central Florida in Orlando nun die von ihm emit tierte Wärmestrahlung mit dem Welt raumteleskop Spitzer messen und daraus per Spektralanalyse die chemische Zusam mensetzung seiner Atmosphäre ableiten. Die dabei ermittelten Häufigkeiten für zwei Schlüsselverbindungen stimmen jedoch nicht mit dem überein, was Modell rechnungen für die vermutlich von Wasser stoff dominierte Gashülle von Gliese 436b
NASA, JPL / Caltech, Robert Hurt
Gliese 436b und seine Sonne in künstleri scher Darstellung
Ausgang Blutgefäß
12
Jessica Huppi
Medizin
q Wenn unser Körper Eindringlinge erkennt und bekämpft, spielen T-Lymphozyten als Teil des erworbenen Immunsystems eine entscheidende Rolle. Sie reifen in der Thymusdrüse heran und wandern von dort an ihren jeweiligen Einsatzort. Auf wel chem Weg sie den Thymus verlassen, war bisher jedoch ungeklärt. Arcus A. Zachariah und Jason G. Cyster von der University of California in San Francisco konnten nun zeigen, dass die Immunzellen nicht, was naheläge, die Lymphbahnen, sondern Blutgefäße als Ausgang benutzen. Die Forscher injizierten Mäusen fluores zierende Antikörper, die sich an T-Zellen binden können. Dann entfernten sie den Thymus und verfolgten den Weg der leuchtenden Lymphozyten unter einem Fluores zenzmikroskop. Wie sich zeigte, traten diese an der Grenze zwischen Mark und Rinde des Thymus in Blutgefäße über. Die Innenwand dieser Gefäße besteht dort aus Endothelzellen, die ein spezielles Protein namens S1P produzieren. Werden sie entfernt oder an der Herstellung von S1P gehindert, finden die T-Lymphozyten nicht mehr aus dem Organ heraus. Zachariah und Cyster gehen davon aus, dass im menschlichen Körper die Lymph
ergaben: Die Konzentration an Kohlenmon oxid (CO) ist zu hoch und die an Methan um den Faktor 7000 zu niedrig. Zur Erklärung spekulieren die Forscher, dass auf dem extrasolaren Planeten das chemische Gleichgewicht, von dem die theoretischen Modelle ausgehen, gestört sein könnte. Eigentlich sollte CO mit Wasserstoff zu Methan und Wasser reagieren. Möglicher weise gast es jedoch so schnell aus tiefen, heißen Schichten aus, dass nicht alles sofort umgesetzt werden kann. Für denkbar halten die Forscher um Stevenson aber auch die Polymerisation von Methan zu längerkettigen Kohlenwas serstoffen. Die betreffenden chemischen Reaktionen seien bei den auf Gliese 436b herrschenden Temperaturen von mehr als 400 Grad Celsius sehr wohl möglich.
Herangereifte T-Zellen (rot) werden Teil des periphären Immunsystems, indem sie den Thymus über Blutgefäße (blau) ver lassen.
bahnen ebenfalls nur eine untergeordnete Rolle bei der Freisetzung von T-Zellen spielen. Höchstens bei einer akuten Krankheit oder im hohen Alter würden sie eventuell als zusätzliches System genutzt. Die neuen Erkenntnisse könnten so Mög lichkeiten eröffnen, die Wundheilung zu fördern und die Immunabwehr zu stärken.
Science, Online-Vorabveröffentlichung
Nature, Bd. 646, S. 1161
ARCHÄOLOGIE
Uralte Kultur q Wie muss man sich den Nahen Osten vorstellen, bevor so berühmte Städte wie Uruk oder Ebla gegründet wurden? Antwor ten finden sich im syrischen Raqqa südöst lich von Aleppo, wo Archäologen den Siedlungshügel von Tell Zeidan erforschen. Ihre Funde stammen aus der Zeit zwischen 5800 und 3800 v. Chr. – und zeugen von einer uralten, hochstehenden Zivilisation. Außer Hausfundamenten und bemalter Keramik belegen Kupferwerkzeuge die technischen Errungenschaften der einstigen Siedlungsbewohner. Erstaunlich daran ist, dass das Metall aus dem knapp 300 Kilo meter entfernten Diyarbakır in der heutigen Türkei stammt und in Tell Zeidan verarbei tet wurde. Das bedeutet, dass damals schon weiträumiger Handel stattfand und in der Ortschaft spezialisierte Handwerker lebten. Dafür spricht auch ein Steinsiegel mit eingraviertem Hirsch. Das rote Pigment, mit dem es bemalt wurde, kommt in der Ge gend nicht vor. Da das Siegel sehr kunstvoll gearbeitet ist, dürfte sein Besitzer, wie die Forscher um Gil Stein von der University of Chicago und Muhammad Sarhan vom archäologischen Museum in Raqqa vermu ten, damals den begüterten Kreisen ange hört haben. Ein ähnliches Siegel hatten SPEKTRUM DER WISSENSCHAFT · Juni 2010
Klima
Ruhende Sonne verheißt kalte Winter q Die Sonne strahlt keineswegs immer gleich hell. So wechselt sie in einem etwa elfjährigen Zyklus zwischen aktiven und ruhigeren Phasen. Sichtbares Zeichen ihres jeweiligen Zustands sind die so genannten Sonnenflecken. Gibt es viele davon, ist die magnetische Aktivität und damit die Strahlung besonders hoch. Da der Magnetismus der Sonne bis zur Erde reicht, lässt er sich über seinen Einfluss auf das Erdmagnetfeld aber auch direkt messen – und zwar genauer und zuverlässiger als über die Sonnen flecken. Solche Messungen deuten darauf hin, dass unser Zentralgestirn momentan weniger aktiv ist als in den vergangenen 90 Jahren. Sami Solanki vom Max-Planck-Institut für Sonnensystemforschung in Lindau und Kollegen aus England haben Daten zum solaren Magnetismus mit Wetteraufzeichnun gen der letzten 350 Jahre verglichen. Dabei entdeckten sie einen interessanten Zusammenhang: Immer wenn die Sonnenaktivität abnahm, häuften sich in Mitteleuropa und England harte und schneereiche Winter. Da sich die Sonne derzeit eine Atempause zu gönnen scheint, könnten wir in eine solche Phase winterlicher Eiseskälte eingetreten sein. Der allgemeine Klimawandel bleibt davon unberührt. Das zeigt sich etwa daran, dass der Effekt der Sonnen aktivität erst sichtbar wurde, nachdem die Forscher den globalen Erwärmungstrend herausgerechnet hatten. Zudem wirkt sich die geringe Sonnenaktivität nur regional in Mitteleuropa aus. Vermutlich verhindert sie, dass im Winter milde Winde vom Atlantik bis zum Kontinent vordringen. Der Grund dafür ist allerdings noch unklar.
Environmental Research Letters, Bd. 5, 024001
Archäologen bereits 300 Kilometer weiter östlich in Tepe Gawra entdeckt – was gleichfalls auf weit reichende Handelskon takte schließen lässt. Noch ist Tell Zeidan wenig erforscht. Weitere Ausgrabungen sollten genaueren Aufschluss darüber geben, wie die wohl habenden, bronzezeitlichen Städte im syrisch-mesopotamischen Raum entstanden.
HIRNFORSCHUNG
Emotionen überdauern das Vergessen
Pressemitteilung der University of Chicago
Gil Stein, University of Chicago
Dieses fünf Zentimeter breite Siegel mit eingraviertem Hirsch aus Tell Zeidan zeugt von einer hochstehenden Zivilisation.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
NASA, MODIS Rapid Response Team
Am 7. Januar lag Großbritannien unter einer geschlossenen Schneedecke. Dieser seltene Anblick könnte sich in den nächsten Jahren häufiger bieten.
q Wenn Menschen mit Gehirnschäden sofort wieder vergessen, was kurz zuvor war, fragt sich, inwieweit sie überhaupt noch von Zuwendung durch ihre Mitmenschen profitieren. Justin S. Feinstein und seine Kollegen von der University of Iowa in Iowa City haben nun jedoch bewiesen, dass freundliche Ansprache und ein liebevoller Umgang das Wohlbefinden der Patienten auch längerfristig entscheidend verbessern können. Selbst wenn die Erinnerungen an ein Gespräch oder Ereignis verblassen, bleiben die damit verbundenen Emotionen nämlich weiter bestehen. Die Forscher zeigten fünf Patienten mit Schäden am Hippocampus, die unter einer Form von Amnesie ähnlich den Frühstadien der Alzheimerdemenz litten, heitere oder traurige Filmausschnitte. Schon zehn
Minuten nach Ende der Vorführung konn ten die Versuchsteilnehmer keine inhalt lichen Fragen zu dem Gesehenen mehr beantworten. Trotzdem beeinflusste es ihre Stimmung nachhaltig: Nach einem trau rigen Film waren die Patienten noch lange bekümmert, während ein lustiger Streifen fortdauernde positive Gefühle hinterließ. Die Wissenschaftler folgern daraus, dass auch solche Patienten unter Vernach lässigung leiden, die sich nicht daran erinnern können. Umgekehrt sorgt Zuwen dung durch geliebte Menschen für eine zufriedene Grundstimmung. Die Ergebnisse stellen aber auch Behandlungsansätze gegen seelische Traumata in Frage, die darauf abzielen, das auslösende Ereignis aus der Erinnerung zu löschen.
PNAS, Online-Vorabveröffentlichung
13
Botanik
Rätselhafte neue Vormenschenart
Pilz als Pflanzenkenner
q Am Anfang stand ein Schlüsselbein knochen, den der neunjährige Sohn des Paläanthropologen Lee Berger von der Witwatersrand University in Johannesburg zufällig in einer Höhle bei Malapa fand. Nachfolgende Ausgrabungen förderten große Teile zweier Skelette zu Tage, die zu einem etwa zehnjährigen Jungen und einer erwachsenen Frau gehörten. Die Analyse der Fossilien, deren Alter auf 1,78 bis 1,95 Millionen Jahre bestimmt wurde, ergab Sensationelles. Einerseits fanden sich typische Merkmale von Austra lopithecinen, den letzten affenartigen Vorfahren des Menschen. So deuten lange Unterarmknochen auf geschickte Kletterer hin. Auch der kleine Schädel ähnelt eher dem von Menschenaffen. Andererseits sprechen relativ lange Beinknochen und eine menschenähnliche Beckenform für einen aufrechten Gang. Berger und seine Kollegen interpretieren ihren Fund deshalb
Fossiler Schädel des neuen Vormenschen Australopithecus sediba
als Art, die das unmittelbare Bindeglied zwischen den späten Australopithecinen wie Australopithecus africanus und A. afarensis – mit »Lucy« als berühmtestem Beispiel – und den ersten Menschen darstellt. Entsprechend gaben sie der Spezies den Namen A. sediba – nach dem Wort für »Quelle« in der Bantusprache Sesotho. Gegen diese Deutung spricht jedoch zum einen das relativ kleine Gehirn des neuen Vormenschen. Mit einem Volumen von 430 bis 450 Kubikzentimetern ist es nicht größer als das von A. africanus. Zum anderen gab es vor zwei Millionen Jahren in Ostafrika schon erste echte Menschen wie Homo habilis und H. rudolfensis mit deutlich mehr Hirnvolumen.
q Die Tumoren, die der Maisbeulenbrand (Ustilago maydis) bei seinem Wirt erzeugt, gelten zwar in Südamerika als Delikatesse, schmälern aber die Ernte. Mikrobiologen um Virginia Walbot von der Stanford University (Kalifornien) haben nun gezeigt, dass der Pilz im Unterschied zu vielen anderen Pflanzenschädlingen beim Befall mit System vorgeht. Je nachdem, ob er an Blüte, Blatt oder Stängel angreift, aktiviert er Proteine, die optimal auf das entspre chende Gewebe abgestimmt sind. Ustilago kann Zellen der verschiedensten Pflanzenteile befallen, ohne sie zu zerstören. Da er von den Stoffwechselpro dukten seines Wirts lebt, fördert er statt dessen die Zellteilung. Dadurch entstehen die charakteristischen Tumoren. Zunächst unterdrückt der Pilz die Fähigkeit der Rainer Knäpper
Foto: Brett Eloff / Lee Berger, University of the Witwatersrand
Science, Bd. 328, S. 195 und 205
NETZWERKE
Gemeinsam schwächer q Am 23. September 2003 ging in weiten Teilen Italiens das Licht aus. Auslöser war die Abschaltung nur eines einzigen Elektri zitätswerks. Doch das führte zu Störungen im Internet-Kontrollsystem, die viele andere Elektrizitätswerke ausfallen und so das Ursprungsproblem eskalieren ließen. Sergey V. Buldyrev von der Yeshiva University in New York und seine Kollegen haben nun
Auch Transportrouten zu Land (blau) und in der Luft (gelb/rot) – hier in Nordamerika – sind durch Parameter wie Energiebedarf und -verfügbarkeit, Transportkapazität oder räumliche Dichte vernetzt.
14
Bruno Gonçalves, Indiana University / Center for Complex Networks and System Research
Spektrogramm Mitarbeit: Julia von Sengbusch, Maike Pollmann und Claudia Reinert
Paläanthropologie
an diesem Beispiel nachgewiesen, dass verknüpfte Netzwerke empfindlicher sind als die Einzelnetze selbst. Das liegt an Kaskadeneffekten, durch die sich die Auswirkungen einer Fehlfunk tion potenzieren. Eine Störung, die von einem einzelnen Netz toleriert würde, pflanzt sich dabei fort und schaukelt sich auf – bis zum Totalausfall des gesamten Verbunds. Der erfolgt dann schlagartig. Während ein Einzelnetz mit zunehmender Zahl ausfal lender Knotenpunkte seine Funktionsfähig keit graduell einbüßt, brechen interagie rende Netze bei einer kritischen Menge defekter Verbindungen abrupt zusammen. Noch in einer anderen Hinsicht verhal ten sich verknüpfte Netzwerke problemati scher als ihre Komponenten. Während diese umso stabiler sind, je mehr Verknüp fungen sie enthalten, erhöhen zusätzliche Verbindungen bei interagierenden Netzen die Störungsanfälligkeit. Angesichts der weiten Verbreitung solcher Verbundsys teme in unserer hochtechnisierten Welt ist das eine beunruhigende Erkenntnis.
Nature, Bd. 464, S. 984
Der Erreger des Maisbeulenbrands erzeugt Tumoren – hier in Blüten. Dazu kurbelt er die Produktion von Proteinen an, die im be fallenen Gewebe die Zellteilung auslösen.
Maispflanze, fremde Proteine zu erkennen und den Eindringling abzuwehren. Danach ermittelt er, mit welchem Pflanzenteil er es zu tun hat: mit Blüte, Blatt oder Stängel. Jeder dieser Gewebetypen wird von einem eigenen Satz von Proteinen zur Teilung angeregt. Wie Walbot und ihre Kollegen nachwiesen, aktiviert der Pilz jeweils nur genau die Gene, auf denen die Eiweißstoffe verschlüsselt sind, die bei dem betreffen den Gewebe die Mitose auslösen. Das könnte auch erklären, warum es schwierig ist, gegen Ustilago resistente Pflanzen zu züchten. Dazu müsste ein Mechanismus blockiert werden, dessen sich der Pilz in allen Geweben bedient.
Science, Bd. 328, S. 89
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Wie Felsnadeln in einem Gebirgsmassiv beim Alpenglühen erheben sich, von bläulichen Nebeln umwabert, schroffe Gipfel in dieser spektakulären Aufnahme des Hubble-Weltraumtele skops, welche die NASA zu dessen 20-jährigem Jubiläum veröf fentlicht hat. Was wie Gesteinsblöcke aussieht, sind jedoch Wolken aus Gas und Staub, und herausgemeißelt wurden sie nicht von Wind und Wetter, sondern von Strahlung und Teil chenströmen, die heiße junge Sterne ausstoßen. Die Aufnahme zeigt einen wenige Lichtjahre großen Ausschnitt aus dem 7500
Lichtjahre entfernten Carina-Nebel, einer riesigen Stern entstehungsregion am Südhimmel. Die werdenden Sterne liegen überwiegend verborgen in der dunklen Staubwolke und lassen sie von innen erglühen. Teils stoßen sie Gasstrahlen in entgegengesetzte Richtungen aus und werden dann HerbigHaro-Objekte genannt. Beispiele finden sich an der Spitze zweier »Felstürme« (rechts oben und links oberhalb der Mitte). Die Farben stammen von leuchtenden Sauerstoff- (blau), Stickstoff- (grün) und Schwefelatomen (rot).
bild des monats NASA / ESA / STScI, Mario Livio und das Hubble 20th Anniversary Team
Staubige Kinderstube für Sterne
FORSCHUNG AKTUELL Teilchenphysik
Strahlzeit am Genfer Hadronencollider Erste Ergebnisse am Large Hadron Collider (LHC) nach dem Neustart zeigen, dass der gigantische Beschleuniger nun einwandfrei funktioniert – beste Voraussetzungen für die erhofften großen Entdeckungen in der Teilchenphysik. Von Georg Wolschin
A
ls im Dezember letzten Jahres die Sprecher der LHC-Experimente die ersten Ergebnisse vom Großen Hadronencollider am Teilchenphysik-Forschungszentrum CERN bei Genf vorstellten, begann Fabiola Gianotti ihren Vortrag erleichtert mit den Worten: »Nach 20 Jahren Simulation werde ich jetzt nur Daten zeigen.« Das tat sie dann mit Begeisterung. Ihr Bericht betraf Atlas, das größte der sechs LHC-Experimente, an dem allein 2900 Wissenschaftler – davon 1000 Studenten – von 172 Institutionen aus 37 Ländern mitwirken. Gianottis Kollegen
von den anderen Versuchsanordnungen zeigten sich ähnlich euphorisch. Es herrscht Aufbruchstimmung am CERN, und bis jetzt funktioniert alles blendend. Bekanntlich war das nicht immer so. Kurz nach dem Start des größten physikalischen Projekts der Menschheitsgeschichte im September 2008 ereignete sich durch eine fehlerhafte elektrische Verbindung zwischen zwei supraleitenden Magneten ein Unfall, bei dem etwa sechs der 96 Tonnen superflüssigen Heliums, die zur Kühlung der Magnete auf 1,9 Kelvin dienen, explosionsartig entwichen. Der Schaden war groß. 39 der 1232 Dipolmagnete sowie 14 Quadru-
Ermutigende erste Daten
6
CMS
10
CMS
5
Teilchenzahl
Teilchenzahl
1 10–1 10–2 10–3
0 0,5 1 1,5 2 2,5 3 3,5 4
Impuls
16
3 2 1
10–4 10–5
4
0
0,9 TeV 2,36 TeV CMS Alice UA5 –2
0
Maß für Streuwinkel
2
nach: CMS-Kollaboration, in: Journal of High Energy Physics, 2 / 2010, S. 41
Erste Messungen am LHC bestätigen, dass der Beschleuniger und die Detektoren einwandfrei funktionieren. So ermittelte die CMS-Kollaboration die Anzahl der bei Proton-Proton-Kollisionen erzeugten geladenen Hadronen (aus Quarks bestehenden Teilchen, die der starken Wechselwirkung unterliegen) als Funktion eines Maßes für den Streuwinkel (rechts). Bei einer Schwerpunktsenergie von 0,9 TeV stimmen die Ergebnisse sowohl mit analogen Messungen der Alice-Kollaboration als auch mit älteren Daten überein. Die Werte bei einer Energie von 2,36 TeV sind neu. Die Impulsverteilungen der erzeugten geladenen Hadronen senkrecht zum Strahl bei Schwerpunktsenergien von 0,9 und 2,36 TeV ließen sich mit dem Detektor CMS über fünf Zehnerpotenzen sehr genau bestimmen (links). Die Werte bei 0,9 TeV stimmen ebenfalls sehr gut mit älteren Daten von Proton-Antiproton-Kollisionen am CERN überein.
pole mussten erneuert oder repariert werden. Es dauerte mehr als ein Jahr, bis die Anlage mit zusätzlichen Sicherheitseinrichtungen am 20. November 2009 wieder in Betrieb gehen konnte. Diesmal lief alles glatt. Nach nur drei Tagen gab es erste Proton-Proton-Kollisionen bei der durch den Vorbeschleuniger bestimmten Energie von 0,9 Billionen Elektronvolt (Teraelektronvolt, TeV). Mussten die Wissenschaftler zum Test der Detektoren bis dahin mit hochener getischen Teilchen aus der kosmischen Strahlung vorliebnehmen, konnten sie jetzt endlich »echte« Kollisionen messen, nach der Analyse der Daten im welt weiten Computer-Grid die abgelaufenen physikalischen Ereignisse rekonstruieren und sie mit den Ergebnissen von älteren Messungen und Simulationsrechnungen vergleichen. Zehn Tage nach Strahlzeitbeginn gelang es auch, den Effekt der Gezeitenkräfte auf den Strahl zu ermitteln – ein zusätzlicher Beleg für die Präzision der Beschleunigersysteme, die extrem gut und zuverlässig arbeiten. Eine Welle von Enthusiasmus und Teamgeist erfasste die Wissenschaftler am LHC und in den internationalen Kollaborationen. Dazu gehören außer Atlas der Compact Myon Solenoid Detektor (CMS) sowie LHCb (das b steht für das Quarkflavor beauty) und das Alice-Experiment, das primär zur Untersuchung eines Plasmas aus Quarks und Gluonen gedacht ist, wie es kurz nach dem Urknall vor fast 14 Milliarden Jahren vorlag. Für diesen Zweck sollen frühestens im Oktober Bleikerne in dem Ringbeschleuniger aufeinandergeschossen werden. Alice kann jedoch auch Proton-Proton-Stöße sehr genau messen. Ähnliche Experimente wie nun am LHC fanden bisher am Tevatron-Collider des amerikanischen Fermi-Nationallaboratoriums in Illinois statt. Allerdings erreicht er bei der Kollision von Protonen und Antiprotonen nur eine MaximalenerSPEKTRUM DER WISSENSCHAFT · JUNI 2010
CERN, ATLAS-Kollaboration
Aktuell
gie von 1,96 TeV – gegenüber den 14 TeV, die letztlich am LHC geplant sind. Dennoch konnten am Tevatron 1995 zwei Gruppen unabhängig voneinander mit dem top-Quark einen damals noch fehlenden wichtigen Baustein des Standardmodells der Teilchenphysik entdecken. Erfolglos waren dagegen bisher alle Versuche zum Nachweis des Higgs-Bosons, das bestimmten Partikeln zu ihrer experimentell bestimmten Masse verhelfen soll. Durch Messungen am Tevatron und am LEP-Teilchenbeschleuniger, dem Vorgänger des LHC bei CERN, ließ sich die Masse des Higgs-Teilchens immerhin eingrenzen: Sie sollte zwischen 114 und etwa 160 GeV liegen. Die Suche nach diesem Teilchen war ein Hauptmotiv für den Bau der neuen »Weltmaschine«. Daneben sollen am LHC aber weitere wichtige physikalische Fragestellungen erforscht werden. Das Spektrum reicht von der Suche nach den Teilchen, aus denen vermutlich die Dunkle Materie im Weltall besteht, über die Ursachen der Materie-Antimaterie-Asymmetrie im Universum bis hin zur Untersuchung des Quark-Gluon-Plasmas.
Neuer Weltrekord
Doch erst einmal gilt es, den LHC richtig zum Laufen zu bringen. Dazu erhöhten die Techniker schon im Dezember letzten Jahres die Schwerpunktsenergie auf 2,36 TeV, was neuer »Weltrekord« war. Vier mehrere Zentimeter lange Strahlenbündel mit etwa 1010 Protonen in jedem der beiden Strahlrohre wurden an den vier Kreuzungspunkten in den Detektoren mit einer Rate von einigen Hertz zur Kollision gebracht. »Offizielle« Ergebnisse dieser Messungen sind inzwischen publiziert. SPEKTRUM DER WISSENSCHAFT · JUNI 2010
In dieser Aufnahme einer Proton-Proton-Kollision bei 7 TeV Schwerpunktsenergie im AtlasDetektor krümmen sich die aus dem Wechselwirkungspunkt herausführenden Spuren der erzeugten geladenen Teilchen (gelbe Linien) wegen des Magnetfelds in dem etwa sieben Meter langen inneren Spurdetektor (violett). Aus den Bahnkurven lassen sich die Impulse der Partikel rekonstruieren. Am Ende einer Teilchenspur ist jeweils in Quaderform die Energieabgabe im elektromagnetischen (grün) und hadronischen (gelb) Kalorimeter dargestellt. Die Größe eines Quaders ist proportional zur Teilchenenergie. Bei den zwei gelben Achtecken handelt es sich um segmentierte Szintillationszähler zum Nachweis von Teilchendurchgängen und zur Auswahl bestimmter Ereignisklassen.
Am 30. März und danach – auch über die Osterfeiertage – wurden schließlich Kollisionen bei 7 TeV gemessen und dabei Raten um 100 Hertz erreicht. Bis 2011 wird ganz allmählich die Strahlintensität hochgefahren – zunächst von 4 auf 8 und vielleicht 16 aufeinander prallende Strahlenbündel. Aber bis zum Sollwert von 2808 Bündeln, die mit einer Frequenz von elf Kilohertz in jedem der beiden Strahlrohre umlaufen, ist es noch ein weiter Weg, den es langsam und sorgfältig zu gehen gilt, bis die geplanten 600 Millionen Kollisionen pro Sekunde erreicht sind. Vielleicht entsteht unterwegs vorübergehend sogar die Miniaturausgabe eines Schwarzen Lochs. Sein Nachweis wäre bahnbrechend, weil er die Existenz zusätzlicher aufgerollter Dimensionen jenseits der üblichen vierdimensionalen Raumzeit anzeigen würde, die einige Theorien zur Vereinigung der Gravitation mit den anderen drei Grundkräften fordern. Bei den sehr geringen Strahlintensitäten bisher gelingt allerdings vorerst nur der Nachweis schon bekannter Teilchen, die als Beleg für die Funktionsfähigkeit der Detektoren alle am LHC wiedergefunden werden müssen. Die meisten davon sind aus Quark-Antiquark-Paaren
bestehende Mesonen wie das Pion oder das Kaon, deren Eigenschaften aus vielen teilchenphysikalischen Experimenten mit hoher Präzision bekannt sind. Tatsächlich haben LHCb, Alice und Atlas zum Beispiel bereits das hauptsächlich in positive und negative Pionen zerfallende neutrale Ks-Meson aus den Daten rekonstruiert. Aber auch aus drei Quarks zusammengesetzte Baryonen wurden be obachtet. So fand LHCb für das aus up-, down- und strange-Quarks aufgebaute Lambda-Baryon exakt die bekannte Masse von 1,115 GeV. Ulrich Uwer von der LHCb-Kollaboration betont jedoch: »Im Prinzip haben alle Experimente sofort Kaonen, Lambdas, Eta-Mesonen und so weiter gesehen, auch wenn es noch nicht publiziert ist.« Den ersten Nachweis eines W-Bosons, des geladenen Trägerteilchens der elektroschwachen Wechselwirkung mit einer Masse von 80,4 GeV, meldete die Atlas-Kollaboration am 10. April. Gemessen wurden auch bereits Jets, die für die Erzeugung sehr hochenergetischer Teilchen charakteristisch sind. Sobald die aus dem Standardmodell bekannten Partikel und Prozesse am LHC reproduziert sind und die Strahlintensität sich den angestrebten Werten nähert, be17
FORSCHUNG AKTUELL
ginnt die Jagd nach »neuer Physik«. Nach der für 2012 geplanten Pause mit weite ren Optimierungen der Beschleunigersys teme steht dafür dann auch die Maximal energie von 14 TeV zur Verfügung. Die Suche nach supersymmetrischen Teilchen wird jedoch vorher schon möglich sein.
Vertrauensbildende Maßnahmen
Vollständig ausgewertet und publiziert sind bisher nur die einfachsten Messgrößen – bis zum Erscheinen dieses Beitrags kann sich das allerdings geändert haben. Am schnellsten war die Alice-Kollaboration mit ihren Anfang des Jahres veröffentlichten Daten von zunächst nur 284 Ereignissen bei einer Einschussenergie von 0,9 TeV (European Physical Journal C, Bd. 65, S. 111, 2010). Sie betrafen die Anzahl der bei der Kollision erzeug ten geladenen, starkwechselwirkenden Teilchen, die senkrecht zum Strahl davonfliegen. Wie der Kollaborationssprecher Jürgen Schukraft sagt, sind dies »die ersten und einfachsten Größen, die wir messen müssen, um Vertrauen in die Detektoren zu gewinnen, die Simula tionsrechnungen anzupassen, und den Untergrund zu studieren«. Die Ergebnisse von Alice stimmten mit den später veröffentlichten von CMS und Atlas sowie mit früheren vom CERN und Tevatron überein. Die CMSPublikation enthält auch Daten bei der vorläufigen Rekordenergie von 2,36 TeV ( Journal of High Energy Physics, Bd. 2, S. 41). Interessanterweise liegen sie 15 bis 20 Prozent über der Voraussage von Simulationsrechnungen; der Grund dafür ist noch unklar. Die CMS-Kollaboration hat außerdem die Impulsverteilung der erzeugten geladenen, stark wechselwirkenden Teilchen senkrecht zum Strahl gemessen. Über fünf Zehnerpotenzen konnten dabei extrem genaue Werte gewonnen werden. Die Atlas-Gruppe wiederum hat inzwischen sogar Messungen über neun Zehnerpotenzen veröffentlicht, allerdings nur bei 0,9 TeV Einschuss energie (Physics Letters B, im Druck). Die Alice-Kollaboration konnte zudem ermitteln, wie die Zahl der erzeugten geladenen, stark wechselwirkenden Teilchen bei 0,9 TeV mit dem Streuwinkel variiert. Das Ergebnis stimmt mit dem eines früheren Detektors am CERN sowie mit Daten der CMS-Kollaboration überein, die auch noch bei 2,36 TeV gemessen hat. Bei der jetzigen Schwerpunktsenergie von 7 TeV gibt es zwar eindrucksvolle 18
Bilder der Kollisionen; bis Redaktionsschluss dieses Artikels Mitte April lagen aber noch keine in Fachzeitschriften pub lizierten Resultate vor. Die Wissenschaftler wollen erst einmal die Kollisionsraten erhöhen und durch Auswertung vieler Ereignisse die Aussagekraft der Ergebnisse verbessern. Immerhin hat die AliceGruppe am 20. April eine Onlineversion erster Ergebnisse bei dieser Energie ins Internet gestellt (arXiv: 1004.3514). Auch hier liefern die Messungen übrigens Werte, die über den Voraussagen der bisher am Tevatron geeichten Simulationen liegen. Am 21. April meldete die LHCb-Kollaboration die Rekonstruktion des ersten B-Mesons (»BeautyAstronomie
Teilchen«), eines b-Antiquarks in Verbindung mit einem up-Quark, aus etwa zehn Millionen Ereignissen bei 7 TeV. Die bisherigen Erfolge sind sehr ermutigend und haben die Erwartungen in mancher Hinsicht übertroffen. Auf ihrer Grundlage kann demnächst endlich die Suche nach »neuer Physik« beginnen, auf die so viele Wissenschaftler lange Jahre gewartet haben und auf die nicht zuletzt auch die Öffentlichkeit zu Recht gespannt ist. Georg Wolschin lehrt an der Universität Heidelberg theoretische Physik und ist wissenschaftli cher Geschäftsführer des Sonderforschungsbereichs »The Dark Universe«.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Scharfe Bilder einer fernen Sternfinsternis Mit sechs interferometrisch zusammengeschalteten Einzelteleskopen ist es erstmals gelungen, die Verfinsterung eines fernen Sterns im Detail festzuhalten und dessen bislang unsichtbaren Begleiter dabei direkt zu beobachten. Von Jan Hattenbach
R
und 2000 Lichtjahre entfernt im Sternbild Fuhrmann gelegen, zog Epsilon Aurigae Mitte letzten Jahres die Aufmerksamkeit der Astronomen auf sich, als sich seine Helligkeit erwartungsgemäß zu verringern begann. Bei diesem alle 27 Jahre wiederkehrenden Schauspiel, das schon in den 1820er Jahren erstmals beobachtet worden war, schiebt sich ein Objekt von der Erde aus gesehen vor den auch Almaaz genannten Stern. Während einer solchen Bedeckung erscheint er für fast zwei Jahre nur halb so hell, was ungewöhnlich lange ist. Daraus zogen die Astronomen schon früh den Schluss, dass der unsichtbare Begleiter aus einer ausgedehnten, fast undurchsichtigen Gas- und Staubwolke bestehen müsse. Doch diese Theorie führte auf ein Problem. Aus der Bewegung von Almaaz lässt sich das Massenverhältnis zwischen ihm und seinem Begleiter errechnen. Demnach muss die Wolke mindestens so schwer sein wie der Stern selbst. Lange Zeit vermuteten Astronomen, dass es sich
bei Epsilon Aurigae um ein junges System handelt, das gerade erst im Entstehen begriffen ist. Demnach wäre Almaaz, der die 130 000-fache Leuchtkraft der Sonne und einen 130-mal größeren Durchmesser hat, ein Riesenstern mit der 15-fachen Sonnenmasse. Genauso schwer hätte sein Begleiter zu sein. Eine derartige Masse kann aber nicht gleichmäßig über eine Wolke verteilt vorliegen. Der Hauptteil muss vielmehr in einem kompakten Objekt in deren Zentrum stecken. Ein solches Objekt wäre ein Riesenstern wie Epsilon Aurigae selbst und sollte genauso hell strahlen. Kein Teleskop hat diese Strahlung jedoch bisher empfangen. Dass das Licht des hypothetischen Sterns völlig von der Gaswolke absorbiert wird, ist kaum anzunehmen, weil deren Dichte im Innern abnimmt: Durch eine zentrale Öffnung scheint während des Maximums der Verfinsterung Almaaz hindurch. Während der letzten Bedeckung 1982 – 1984 registrierte das Infrarotteleskop IRAS zudem die Wärmestrahlung der Wolke. Diese ist demnach rund acht SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Astronomische Einheiten (Entfernungen zwischen Erde und Sonne) lang und etwa 300 Grad Celsius warm. Jüngste Untersuchungen mit dem Spitzer-Weltraum teleskop bestätigten das. Befände sich ein Riesenstern im Innern der Wolke, sollte er sie weit stärker aufheizen. Alternativmodelle wie ein Doppelsternsystem oder ein Schwarzes Loch wurden vorgeschlagen, doch keines davon konnte alle Beob achtungen zufrieden stellend erklären.
Alt statt jung
Der Schlüssel zur Lösung des Rätsels liegt offenbar in einer Neubewertung des Alters von Epsilon Aurigae, die Donald Hoard vom California Institute of Technology in Pasadena und seine Kollegen kürzlich vorschlugen (Astrophysical Journal, Bd. 714, S. 549). Demnach wäre Almaaz kein junger, sehr massereicher Stern, sondern ein alter mit nur rund drei bis vier Sonnenmassen. Ein solches Objekt kann am Ende seines Lebenszyklus kurzfristig seine Leuchtkraft und Ausdehnung vervielfachen. In diesem Stadium eines Roten Riesen, das auch unsere Sonne in einigen Milliarden Jahren durchlaufen wird, bläht sich der Stern auf und stößt dabei
seine äußeren Gashüllen ab. Die opake Wolke, die Almaaz alle 27 Jahre verdunkelt, wäre somit Material von ihm selbst, das sich um seinen Begleiter in Form einer Akkretionsscheibe sammelt. Brian Kloppenborg von der University of Denver und seine Kollegen konnten dieses Modell bei der letzten Verfinsterung eindrucksvoll bestätigen (Nature, Bd. 464, S. 870). Sie beobachteten Epsilon Aurigae mit dem CHARA Array der University of Georgia auf dem Mt. Wilson, in dem sechs Ein-Meter-Teleskope interferometrisch zusammengeschaltet sind und so ein Auflösungsvermögen von 0,5 Millibogensekunden erreichen. Dadurch gelang es, den Stern, der normaler weise als Punktquelle erscheint, erstmals als ausgedehntes Objekt abzubilden. Im November und Dezember 2009 tauchte in den Aufnahmen eine dunkle, lang gestreckte Wolke auf, die Almaaz im Lauf eines Monats zunehmend verdeckte. Sie hat die Form einer dichten Akkretionsscheibe, die unter einem relativ spitzen Winkel von der Seite gesehen wird. Das neue Modell löst die Probleme des alten auf elegante Weise: Wenn Almaaz nur wenige Sonnenmassen schwer ist, kann es sich bei dem mysteriösen
SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Millibogensekunden
1,5
Im Jahr 2008 leuchtete Epsilon Aurigae noch in voller Pracht (links). Am 3. November 2009 hatte sich sein unsichtbarer Begleiter vor ihn geschoben (Mitte). Am 3. Dezember war das dunkle Objekt noch ein Stück weiter nach Nordwesten gewandert (rechts). Seine elliptische Struktur, deren Länge mit acht Astronomischen Einheiten (AE) rund das Achtfache der Entfernung zwischen Erde und Sonne beträgt, ist gut zu erkennen.
2008
Objekt im Innern der Gaswolke um einen gewöhnlichen, ebenfalls erheblich leichteren Stern handeln. Hoard und seine Mitarbeiter leiten aus Beobachtungen ab, dass der Begleiter rund sechs Sonnenmassen enthält. Damit wäre er immer noch ein respektabler Stern, der die Sonne an Strahlungsintensität um das 100-Fache überträfe. Mit dem viel größeren Almaaz aber könnte er sich nicht annähernd messen: Er wäre nur rund ein Tausendstel so leuchtstark, und sein Licht würde – zusätzlich geschwächt durch die umgebende Akkretionswolke – in dem des Roten Riesen untergehen. Tatsächlich zeigten jüngere Messungen der Wolke im ultravioletten Spektralbereich Anzeichen für Strahlung, wie sie von einem solchen Stern des Spektraltyps B ausgesendet wird. Damit scheint das Rätsel von Epsilon Aurigae und seinem Begleiter fast 200 Jahre nach dessen Entdeckung endlich gelöst. Dass wir das System überhaupt beobachten können, ist laut Hoard ein großer Zufall. Der Astronom schätzt das Alter der Akkretionsscheibe auf gerade einmal zehn Millionen Jahre, was für kosmische Maßstäbe ein sehr kurzer Zeitraum ist. Innerhalb der nächsten 10 000 Jahre dürfte der Riesenstern seine Gashüllen endgültig absprengen und zu einem Weißen Zwerg zusammenfallen. Diese flüchtige Existenz ist vielleicht auch der Grund, warum wir bislang kein weiteres solches System kennen: Im Leben eines Sterns dauert der Todeskampf nur einen Wimpernschlag; zudem muss ein Begleiter bei seinem Umlauf die Sichtlinie zur Erde queren, damit wir überhaupt von dem Drama erfahren. Es ist daher unwahrscheinlich, mehrere solche Systeme gleichzeitig in unserem Teil der Milchstraße beobachten zu können. Jan Hattenbach ist Physiker, Astronom und freier Wissenschaftsjournalist in Aachen.
3.11. 2009
John D. Monnier, University of Michigan
Epsilon Aurigae und sein in eine Akkretionsscheibe gehüllter Begleiter in künstlerischer Darstellung
Illustration: NASA, JPL / CalTech, Robert Hurt
Aktuell
3.12. 2009
1,0 0,5 0,0 – 0,5 – 1,0
0,25 AE
– 1,5 1,5
1,0
0,5 0,0 – 0,5 – 1,0 – 1,5 1,5
Millibogensekunden
1,0
0,5 0,0 – 0,5 – 1,0 – 1,5 1,5
Millibogensekunden
1,0
0,5 0,0 – 0,5 – 1,0 – 1,5
Millibogensekunden
19
Warum Schlafmittel wie Valium süchtig machen
GABA
α GABA
β
β α
γ
Benzodiazepine
Beruhigungs- und Schlafmittel auf der Basis von Benzodiazepin wirken wie Opiate und Cannabis auf das Belohnungszentrum im Gehirn und bergen deshalb gleichfalls ein Suchtrisiko. Von Christina Bocklisch, Kelly Tan und Christian Lüscher
S
eit den 1960er Jahren gibt es die Arzneimittelfamilie der Benzodiazepine. Vertreter sind beispielsweise Diazepam und Midazolam, besser bekannt unter den Handelsnamen Valium und Dormicum. Sie wirken gegen Angst- und Erregungszustände. Außerdem werden sie bei Schlafstörungen sowie zur Behandlung von Muskelkrämpfen und epileptischen Anfällen verschrieben. Beliebt sind sie
aber auch als so genannte Chill-out-Drogen zur Beruhigung überreizter und erschöpfter Tänzer auf Technopartys. Bei regelmäßigem Gebrauch wird ein Teil der Konsumenten süchtig. Mit etwa 1,5 Millionen Fällen liegt der BenzodiazepinMissbrauch an der Spitze des schädlichen Arzneimittelkonsums in Deutschland. Warum Valium und verwandte Medikamente süchtig machen, ist noch kaum erforscht. Wir haben nun bei Mäusen einen Mechanismus nachgewiesen, der eine Erklärung dafür liefern könnte. Unse-
GABAA-Rezeptor GABA
Membranpotenzial
Membran Chloridionen
Benzodiazepin
Membranpotenzial
GABAA-Rezeptor
re Untersuchungen ergaben pharmakologische Gemeinsamkeiten zwischen diesen Wirkstoffen und bekannten Suchtmitteln wie Opiaten oder Cannabis. Benzodiazepine beeinflussen die Sig nalübermittlung an Synapsen, den Schaltstellen zwischen Neuronen. Sie binden sich dort an GABAA-Rezeptoren, die von dem Botenstoff Gamma-Aminobuttersäure (GABA) aktiviert werden. Dabei handelt es sich um Ionenkanäle, die aus fünf Untereinheiten bestehen und negativ geladene Chloridionen in die Zelle einschleusen. Das macht sie zu den wichtigsten hemmenden Rezeptoren im zentralen Nervensystem. Lagert sich GABA an, das von einem vorgeschalteten Neuron freigesetzt wurde, vermindert sich die Erregbarkeit der betreffenden Nervenzelle. Sie erzeugt weniger Aktionspotenziale und leitet eintreffende Signale deshalb nur seltener weiter. Benzodiazepine verstärken diese Hemmwirkung noch. Indem sie sich zwischen die a- und der gUntereinheit des GABAA-Rezeptors schieben, verändern sie die Struktur des Kanals derart, dass er sich langsamer schließt und mehr Chloridionen durchlässt. Bei diesem Wirkmechanismus spielt die a-Untereinheit eine besondere Rolle. Sie existiert in mehreren Varianten: a1 bis a6. Welche davon in einem GABAARezeptor enthalten ist, hängt von der
Spektrum der Wissenschaft / Art for Science
Bei Anlagerung von GABA an der Schnittstelle zwischen der α- und β-Untereinheit des GABAA-Rezeptors öffnet sich der Kanal und lässt Chloridionen in die Zelle strömen, wodurch das Membranpotenzial negativer wird. Das führt zu einer Hemmung des Neurons. Benzodiazepine schieben sich zwischen die α- and γ-Untereinheit und verstärken die Wirkung von GABA, so dass der Ionenstrom zunimmt – und damit auch die Hemmung.
20
SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Spektrum der Wissenschaft / Art for Science
FORSCHUNG AKTUELL
Neurophysiologie
Aktuell Der GABAA-Rezeptor ist ein Ionenkanal, der typischerweise aus fünf Untereinheiten besteht. Diese stammen aus sieben verschiedenen Klassen, wovon die wichtigsten α, β und γ sind. Der Botenstoff GABA und Benzodiazepine können sich zwischen den Untereinheiten anlagern.
Hirnregion und dem Typ der Nervenzelle ab. Die heute gebräuchlichen Benzo diazepine wirken mit einer Ausnahme nur auf vier Varianten (a1, a2, a3 und a5). Um deren jeweilige Rolle zu ergründen, schuf das Forscherteam um Hanns Möhler und Uwe Rodolph von der Universität Zürich schon vor einiger Zeit Mauslinien, bei denen verschiedene a-Va rianten so verändert sind, dass sich Benzo diazepine nicht mehr an die betreffenden GABAA-Rezeptoren heften können. Dazu machten die Wissenschaftler die übliche
Bindungsstelle im Protein durch die Mutation einer einzelnen Aminosäure für die Wirkstoffe unkenntlich. Beispielsweise ersetzten sie bei a1 ein Histidin (H) in Position 101 durch Arginin (R). Als sie Diazepam an dieser a1(H101R)Mauslinie testeten, zeigte sich, dass der schlaffördernde Effekt verschwunden war, der angstlösende dagegen nicht. Demnach sind GABAA-Rezeptoren mit der a1-Untereinheit für die einschläfernde Wirkung verantwortlich; die Dämpfung von Angst- und Erregungszuständen beruht dagegen auf der Wechselwirkung mit anderen Varianten. Wie Versuche mit weiteren mutanten Mauslinien ergaben, handelt es sich dabei um a2 and a3. Doch welche a-Untereinheit sorgt dafür, dass Benzodiazepine süchtig machen? Substanzen, die eine Sucht hervor rufen, haben einige Eigenschaften gemeinsam. So erhöhen sie alle den Dopaminspiegel im Belohnungszentrum des Gehirns, dem ventralen Tegmentum. Au ßerdem hinterlassen sie Spuren im neuronalen Informationsfluss, indem sie die Übertragung der Signale an Synapsen dauerhaft verändern. Man spricht von
drogeninduzierter synaptischer Plastizität. Das lässt sich eindrucksvoll bei erregenden Synapsen der Dopaminzellen beobachten, in denen Glutamat als Botenstoff dient. Schon nach einer Dosis Kokain, Morphin oder Nikotin werden hier Rezeptoren vom AMPA-Typ, die normalerweise undurchlässig für Kalzium sind, durch solche ersetzt, die das Element passieren lassen und so das Neuron leichter erregbar machen. Wir fragten uns, ob Benzodiazepine auch diese beiden Eigenschaften haben. Über welche zellulären Mechanismen sorgen sie für einen Anstieg des Dopaminspiegels? Und bewirken sie auch dauerhafte synaptische Veränderungen?
Parallelen zu Opiaten
Am Beginn unserer Arbeit stand die Be obachtung, dass im Belohnungszentrum des Gehirns GABAA-Rezeptoren mit der a1-Variante nur auf hemmenden Nervenzellen vorkommen: den so genannten Interneuronen. Wie wir mittels elektrophysiologischer Messungen weiter feststellen konnten, sorgen sie dort für einen wesentlich größeren Einstrom von Chlorid ionen als bei den Dopaminneuronen, die
www.spektrum.de/aboplus
Der Premiumbereich – exklusiv für Abonnenten von Spektrum der Wissenschaft Treue Spektrum der Wissenschaft-Leser profitieren nicht nur von besonders günstigen Abo-Konditionen, exklusiv auf sie warten unter www.spektrum.de/aboplus auch eine ganze Reihe weiterer hochwertiger Inhalte und Angebote:
• alle Spektrum der Wissenschaft-Artikel seit 1993 im Volltext • jeden Monat ein neuer Bonusartikel – und das Archiv mit allen Bonusartikeln • ausgewählte Ausgaben anderer Zeitschriftentitel aus dem Programm der Spektrum der Wissenschaft Verlagsgesellschaft mbH als kostenlose Downloads
• ein Mitgliedsausweis, dessen Inhaber in zahlreichen Museen und wissenschaftlichen Einrichtungen Vergünstigungen erhält
• das spektrumdirekt-Premiumabo sowie das »Produkt des Monats« – jeweils zum exklusiven Vorteilspreis
• unter allen Abonnenten verlosen wir jeden Monat 4 Gutscheine im Wert von € 25,– für den Science-Shop.de
Hand SPEKTRUM DER WISSENSCHAFT · JUNI 2010 Wissenschaft aus erster
w w w . s p e k t r u m . d e / a b o p21l u s
FORSCHUNG AKTUELL
über andere Varianten der a-Untereinheit verfügen. Das brachte uns auf die Ver mutung, dass Benzodiazepine genau wie Opiate oder Cannabis die Dopaminneurone nicht direkt beeinflussen. Vielmehr verstärken sie den Einstrom von Chlorid ionen in die Interneuronen und unterdrücken deren Aktivität. Auf diese Weise aber unterbinden sie die hemmende Wirkung dieser Nervenzellen auf die
Dopaminneurone. Deren Aktivität kann deshalb ungebremst ansteigen. Damit ist die erste Bedingung für eine Suchtwirkung erfüllt: Benzodiazepine erhöhen den Dopaminspiegel im ventralen Tegmentum. Das bestätigte sich auch bei Versuchen an a1(H101R)-Mäusen. Bei ihnen blieb Midazolam ohne Effekt auf die Interneurone, wogegen es sie in Wildtyptieren hemmte.
vor Benzodiazepin-Einnahme
Interneuron Inhibition
α1 enthaltender GABAA-Rezeptor
normale Aktivität
GABA
Dopamin
Rezeptor
dopaminerge Zelle
glutamaterge Zelle
kalziumundurchlässiger AMPA-Rezeptor
bei Benzodiazepin-Einnahme Desinhibition
stark erhöhte Aktivität
Benzodiazepine
nach Benzodiazepin-Einnahme
Spektrum der Wissenschaft / Art for Science
Inhibition
dauerhaft erhöhte Aktivität
kalziumdurchlässiger AMPA-Rezeptor verstärkte Synapse
22
Als Nächstes prüften wir, ob Benzo diazepine auch Spuren an den erregenden glutamatergen Synapsen der Dopamin ausschüttenden Nervenzellen hinterlassen. Tatsächlich konnten wir schon nach einer Dosis Midazolam oder Diazepam in Dopaminneuronen den für Kalzium durchlässigen Typ von AMPA-Rezeptoren nach weisen. Dieser Nachweis gelang auch im Belohnungszentrum des Gehirns, wenn wir den Wirkstoff direkt dort injizierten. Demnach verändern Benzodiazepine die Struktur der glutamatergen Synapsen im ventralen Tegmentum tatsächlich derart, dass die Signalübertragung dauerhaft ver stärkt wird. In den a1(H101R)-Mäusen war eine solche drogeninduzierte Plastizität nicht nachweisbar. Die entscheidende Rolle der a1-Untereinheit bei der süchtig machenden Wirkung von Midazolam bewiesen auch Versuche, in denen wir Mäusen die freie Wahl zwischen Zuckerwasser mit der Substanz und ohne sie gaben. Wildtyptiere tranken nach einigen Tagen viermal so viel aus der Flasche mit dem Benzodiazepin, während a1(H101R)-Mäuse keinerlei Vorliebe entwickelten. Zusammengefasst zeigen unsere Er gebnisse, wie die suchtverursachende Wir kung von Benzodiazepinen zu Stande kommen könnte: Die Substanzen binden sich an a1 enthaltende Rezeptoren, die in hoher Zahl auf den Interneuronen im ventralen Tegmentum vorkommen. Dabei unterdrücken sie diese hemmenden Nervenzellen, was die Aktivität der nachgeschalteten Dopaminneurone erhöht, so dass sie mehr Dopamin ausschütten. Zugleich machen Benzodiazepine die Glu tamatrezeptoren durch Umstrukturierung für Kalzium durchlässig. Das fördert die Erregbarkeit der Dopaminneurone im Be lohnungszentrum, die über solche Glu tamatrezeptoren verfügen. Somit aktivieren Benzodiazepine das Dopaminsystem auf ähnliche Weise wie Morphium und Benzodiazepine sorgen auf zweierlei Weise für eine vermehrte Ausschüttung von Do pamin im Belohnungszentrum des Gehirns. Zum einen inaktivieren sie für kurze Zeit die Interneurone, welche die Dopaminneurone normalerweise hemmen. Zum anderen machen sie die AMPA-Rezeptoren, über die Glutamat die Dopamin ausschüttenden Nervenzellen aktiviert, für Kalzium durchlässig. Dadurch werden die Dopaminneurone dauerhaft leichter erregbar. SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Aktuell Cannabis. Der Unterschied zu den Opiaten ist nur, dass sie die Interneurone über einen anderen Rezeptor hemmen. Das erklärt ihr höheres Suchtpotenzial.
Springers Einwürfe
Benzodiazepine ohne Suchtrisiko?
Enttäuschende Modelle
Die Weiterentwicklung der Benzodiazepine zielt darauf ab, ihre Spezifität für die einzelnen a-Untereinheiten der GABAARezeptoren zu erhöhen. Ein Beispiel dafür ist Zolpidem, das sich mit Vorliebe an a1 bindet und dadurch in erster Linie schlaffördernd wirkt. Nach unseren Erkenntnissen sollte es aber ein hohes Suchtrisiko bergen. Tatsächlich wurde die anfänglich optimistische Einschätzung dieses Medikaments in den letzten Jahren wieder in Frage gestellt. So zeigte sich, dass Tiere sich Zolpidem selbst verabreichen. Auch wurden die geschilderten synaptischen Veränderungen beobachtet und bei Menschen Fälle von Zolpidem sucht dokumentiert. Wünschenswert wären Benzodiazepine, die sich ausschließlich an GABAA-Rezeptoren mit a2-, a3- und a5-Untereinheiten anlagern, a1 dagegen nicht aktiveren. So ließe sich die angstlösende Wirkung dieser Stoffklasse nutzen, ohne dass eine Abhängigkeit entstünde. Tatsächlich existieren solche Wirkstoffe schon für den experimentellen Gebrauch. Wie sich gezeigt hat, werden sie von Tieren nur zögernd selbst verabreicht und führen auch nicht zu synaptischen Veränderungen. Gelingt es, diese Substanzen für den menschlichen Gebrauch weiterzuentwickeln, stehen in Zukunft vielleicht Benzo diazepine zur Verfügung, die nur ein geringes Suchtrisiko bergen. Doch Vorsicht ist geboten. Schließlich lassen sich Ergebnisse von Tierversuchen nicht einfach auf den Menschen übertragen, und viele Punkte bleiben zu klären. Für die Benzodiazepin- und Drogensucht im weiteren Sinn wird es in den nächsten Jahren noch keine Behandlungsmöglichkeiten geben, welche die tieferen Ursachen beseitigen. Die Beobachtung, dass alle Drogen über die gleichen neuronalen Mechanismen das verhängnisvolle Suchtverhalten auslösen, sollte aber die Forschung stimulieren und die Kräfte bündeln. Christian Lüscher forscht als Professor an der Universität Genf über neuronale Mechanismen der Sucht. Kelly Tan ist Postdoc in seiner Arbeitsgruppe und Christina Bocklisch Studentin im »Lemanic Neuroscience Program« der Universitäten Lausanne und Genf. SPEKTRUM DER WISSENSCHAFT · JUNI 2010
Simulationen geben nie Gewissheit. Was haben der Klimawandel, die Schweinegrippe und ein Vulkanausbruch gemeinsam? Sie stehen für ein Risiko, das nur abgeschätzt werden kann. Die Rolle von Wahrsagern nehmen heute Wissenschaftler ein, an die Stelle des delphischen Orakels ist die Computersimulation getreten. Die alte Pythia hockte auf einem dreibeinigen Schemel über einer Felsspalte, aus der giftige Gase aufstiegen, und lallte interpretationsbedürftige Worte, die von Priestern als Zukunftsprognosen gedeutet wurden. Als der lydische König Krösus wissen wollte, ob er bei einem Angriff auf Persien siegen würde, lautete die Antwort: Du wirst ein großes Reich zerstören. Leider entpuppte es sich als sein eigenes. Heutige Prognosen sind aussagekräftiger. Zum Beispiel simulieren Forscher, fußend auf bestem Faktenwissen, die Ausbreitung eines gefährlichen Erregers und berechnen die Wahrscheinlichkeit für den Ausbruch einer Pandemie. Andere Wissenschaftler schätzen den längerfristigen Anstieg der mittleren Temperatur infolge zunehmender Treibhausgaskonzentrationen. Wieder andere beschreiben die Wanderung einer Vulkanaschenwolke von Island nach Mitteleuropa. In all diesen Fällen besagt die Prognose nicht, das Vorhergesagte müsse so und nicht anders eintreffen. Schon die Ausgangsdaten sind mit Fehlermargen behaftet, und die Modelle geben die wirklichen Zusammenhänge nur krass vereinfacht wieder. Darum ist das Ergebnis einer Computersimulation unweigerlich ungefähr. Was sollen die armen Entscheidungsträger mit solchen Wahrscheinlichkeitsaussagen anfangen? Wenn sie irgendeinen mittleren Prognosewert zur Richtschnur ihres Handelns nehmen, tun sie zwar nichts Falsches, aber sie riskieren, dass das tatsächliche Ereignis schlimmer ausfällt und man sie skandalösen Leichtsinns beschuldigt. Also beschließen sie, auf der sicheren Seite zu bleiben, und sorgen für den schlimms ten Fall vor: Sie lassen Unmengen von Impfstoff für eine Pandemie produzieren, propagieren eine möglichst starke Reduktion der Treibhausgasemissionen, stoppen angesichts der isländischen Aschewolke den gesamten Flugverkehr. Kaum ist alles glimpflich abgelaufen, erhebt sich ein großes Wutgeschrei. Das bisschen Schweinegrippe, das bisschen Asche – und diese Überreaktion! Auch beim Klimawandel meinen jetzt viele: So schlimm, wie Al Gore es an die Filmleinwand malt, wird es schon nicht kommen. Wie der Kölner sagt: Ett hett noch immer jut jejange. Aber was, wenn nicht? Wenn uns eine Pandemie überrannt hätte, und für Millionen hätte es keinen Impfstoff gegeben? Wenn auch nur ein voll besetztes Flugzeug mit verstopften Turbinen abgestürzt wäre? Was, wenn die Prognosen des Weltklimarats bei weiter steigendem CO2-Ausstoß einigermaßen eintreffen? Entscheidungsträger müssen entscheiden. Als Entscheidungshilfe bieten ihnen die Wissenschaftler ungefähre Wenn-dann-Aussagen an; die Entscheidung abnehmen können sie ihnen nicht. Ich möchte nicht in der Haut eines Politikers stecken, der über kostspielige Vorsichtsmaßnahmen gegen eine verheerende, aber nur mehr oder weniger wahrscheinliche Katastrophe zu befinden hat. In der lokalen, meinen Beschlüssen zugänglichen Welt verhalte ich mich vernünftig, wenn ich im Auto den Gurt anlege oder, bevor ich aufs Fahrrad steige, den komischen Plastikhelm. Solche Vorsorge mutet unsportlich, schrullig, überängstlich an – bis sie sich als normal eingebürgert hat. So werden wir uns angewöhnen, unser Leben im Großen von Computersimulationen bestimmen zu lassen wie schon heute vom WetterMichael Springer bericht.
23
Infrarotastronomie
Spitzers durchdringender
Blick ins All Quer durch kosmischen Staub, der uns im optischen Spektralbereich die Sicht verwehrt, hat das Infrarotteleskop Spitzer atemberaubende Einblicke gewonnen. Galaxienhaufen im jungen Universum untersuchte es ebenso wie die Atmosphären von Exoplaneten.
Von Michael Werner
Das Weltraumteleskop Spitzer ist rund 4,5 Meter hoch und hat einen Durchmesser von zwei Metern. Im Foto rechts wird es von Technikern der Firma Lockheed-Martin getestet. Zu seinen wichtigsten Teilen gehören der Primärspiegel mit 85 Zentimeter Durchmesser, drei Infrarotdetektoren sowie der Tank für das flüssige Helium, das bis vor rund einem Jahr zur Kühlung diente.
N
och kein einziger Satellit hatte von der Erdoberfläche abgehoben, als Lyman Spitzer jr. im Jahr 1946 vorschlug, ein im Weltraum stati oniertes Teleskop zu entwickeln. Reichlich in der Zukunft lag auch noch die Gründung der Weltraumorganisationen NASA (1958) und ESA (1975). Doch dies hinderte den großen Astrophysiker nicht am Träumen. Jenseits der Erdatmosphäre, so seine Hoffnung, würden sich selbst von entferntesten Objekten schär
Solarmodul Staub abschirmung Sekundär spiegel äußere Hülle Primär spiegel Instrumentengruppe Vakuum kühlsystem
Versorgungs einheit
24
Ball Aerospace
Orien tierungssen soren (»star trackers«)
Spitzer Science Center
Heliumtank
fere Bilder als von erdgebundenen Teleskopen schießen lassen. Seine Vision wurde Wirklichkeit. Vor allem auch mit ihren Great Observatories erzielte die NASA enorme Erfolge: Das Weltraumtele skop Hubble, das den optischen Bereich so wie das benachbarte Ultraviolett und Infrarot abdeckt und zu dessen treibenden Kräften Ly man Spitzer gehört hatte, startete im Jahr 1990. Der Gammasatellit Compton folgte 1991, und das Röntgenteleskop Chandra ging 1999 an den Start. Schließlich hob auch das Infrarotteleskop SIRTF (Space Infrared Telescope Facility) ab. Zu Ehren des 1997 verstorbe nen Spitzer, der jahrzehntelang an der Prince ton University in New Jersey tätig gewesen war, wurde SIRTF kurz nach seinem Start am 25. August 2003 auf den Namen Spitzer Space Telescope umgetauft. Der Infrarotastronomie hat dieses Instru ment großen Auftrieb verliehen. Denn von den kühlen Außenbezirken des Sonnensystems bis hin zu den staubverhüllten Kernen ferner Ga laxien strahlen viele Objekte vollständig oder hauptsächlich im infraroten Spektralbereich. Irdische Teleskopstandorte sind für entspre chende Untersuchungen nur bedingt geeignet, denn einerseits sendet die Atmosphäre selbst infrarote Strahlung aus, andererseits absorbiert sie einen Großteil der einfallenden Strahlung. Den Blick des Teleskops kann sogar die von ihm selbst abgestrahlte Wärme trüben. Kein Wunder, dass einige Pioniere schon Ende der 1950er Jahre nicht nur mit bodenbasierten, sondern auch ersten Flugzeug- und Ballonex perimenten begannen, um Infrarotaufnahmen des Alls zu erhalten. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Astronomie & Physik
NASA, JPL / Caltech, Susan Stolovy / Spitzer Science Center
Ideal ist aber natürlich ein Weltraumtele skop. 4,5 Meter hoch ist Spitzer, es besitzt ei nen Durchmesser von 2 Metern, und sein Startgewicht betrug 861 Kilogramm. Seine So larzellen sammeln kontinuierlich Licht, wäh rend es die Sonne umkreist, und schirmen das Raumfahrzeug zugleich vor der Sonnenstrah lung ab. Für ultrakalte Betriebstemperaturen sorgt zudem ein hinter den Solarmodulen ge legenes passives System aus reflektierenden und abstrahlenden Hüllen und Schilden, das die äußere Teleskophülle auf 34 Kelvin herun terkühlt. Den Rest des Jobs erfüllt flüssiges Helium: Zumindest bis vor einem Jahr sorgte es dafür, dass die Temperatur der Instrumente an Bord des Satelliten höchstens fünf Kelvin über dem absoluten Nullpunkt lag.
Einen kleinen Tod starb das Teleskop bereits
Schon Spitzers erfolgreiche Vorgänger hatte man mit einer Heliumkühlung ausgestattet. Der Infrared Astronomical Satellite (IRAS) war im Jahr 1983 zehn Monate in Betrieb ge wesen, das Infrared Space Observatory (ISO) arbeitete sogar von 1995 bis 1998. Doch ihre Hauptspiegel maßen mit 60 Zentimeter Durchmesser weniger als der 85-ZentimeterSpiegel von Spitzer, und die Empfindlichkeit ihrer Detektoren lag ebenso wie die Zahl der Aufnahmepixel um das 10- bis 100-Fache un ter jener ihrer Nachfolgerinstrumente. Mit dem Start von Spitzer wurde den Wissen schaftlern das – bis zum Abheben des Her schel-Satelliten im Jahr 2009 – mächtigste Werkzeug für astronomische Forschungen im mittleren bis fernen Infrarot, bei Wellenlän SPEKTRUM DER WISSENSCHAFT · Juni 2010
gen von 3,6 bis 160 Mikrometern, zur Verfü gung gestellt. Gerade kühlere Himmelsobjekte besitzen zu wenig Energie, um im sichtbaren Licht zu leuchten, sie strahlen daher hauptsächlich im Infraroten. Ohne nennenswerte Mühe durch dringt diese elektromagnetische Strahlung den Staub, der viele Objekte von besonderem Inte resse wie etwa die Geburtsstätten von Sternen oder galaktische Kerne einhüllt. Spitzer erzielte daher große Erfolge bei ihrer Untersuchung, zudem gelang es ihm erstmals, die Strahlung von Exoplaneten direkt zu vermessen. Sein Primärspiegel lenkt das infrarote Licht auf drei Hauptinstrumente: eine Infrarotka mera für kurze Wellenlängen, ein abbildendes Multiband-Photometer für lange Wellenlän gen (wie auch die Kamera vermisst es die In tensität und räumliche Verteilung der Strah lung) und einen Infrarot-Spektrografen, der Art und Häufigkeit chemischer Stoffe anhand ihres Spektrums identifizieren kann. Durch die Kühlung der Instrumente wird deren infrarote Hintergrundhelligkeit um rund sechs Größen ordnungen reduziert; das ist etwa der Faktor, um den die (optische) Himmelshelligkeit in der Zeit zwischen einem sonnigen Mittag und Mitternacht in einer mondlosen Nacht abfällt. Einen kleinen Tod starb das Weltraumtele skop, als am 15. Mai 2009 der letzte Tropfen flüssigen Heliums an Bord des Satelliten ver dampfte. Die Effektivität des Kühlsystems hatte die Erwartungen allerdings weit über troffen: Statt 2,5 Jahren konnten die Forscher ihr Teleskop rund 5,5 Jahre lang in ultrakal tem Zustand betreiben. Jetzt sind die Fähig keiten des Instruments durch die höhere
Hunderttausende von Sternen in rund 25 000 Lichtjahren Entfernung von der Erde zeigt dieses vom Weltraumteleskop Spitzer aufgenommene Infrarotbild des ausgedehnten Zentrums der Milchstraße. Alte, kühlere Sterne sind blau eingefärbt, während Strukturen aus Kohlenwasserstoffstaub, der von massereichen, heißen Sternen ange strahlt wird, rot dargestellt sind. Der helle Punkt in der Bildmitte markiert den Mittelpunkt der Galaxie. Im optischen Spektralbereich sind diese staubverhüllten Regionen unsichtbar.
25
Infrarotastronomie
Die ersten Quasare Noch in seiner »kalten« Missionsphase hat Spitzer maßgeblich zur Entdeckung von zweien der bislang ältesten, supermassereichen Schwarzen Löcher im Kos mos beigetragen, die wir kennen. Wie ein internationales Team mit deutscher Beteiligung im März 2010 mitteilte, hatten die Forscher Quasare untersucht, extrem leuchtkräftige Objekte, die ihre Energie aus Schwarzen Löchern mit mehr als 100 Millionen Sonnenmassen in ihrem Inneren beziehen. Den Qua saren J0005-0006 and J0303-0019 fehlte aber die typische Signatur von hei ßem Staub. Die Forscher vermuten nun, dass die Quasare entstanden, als seit dem Urknall erst weniger als eine Milliarde Jahre vergangen waren, denn im frühen Universum fehlten noch die Moleküle, die sich zu Staub hätten verbin den können. Ebenso wie die Schwarzen Löcher in ihren Zentren zählen diese Quasare damit zu den ursprünglichsten Vertretern ihrer Art, die Forscher bis lang aufspüren konnten, und erlauben so einen ersten Einblick in ihre frühe Entwicklungsgeschichte.
Verräterischer Lichtabfall Zieht ein Exoplanet vor seinem Stern vorüber, sinkt die von diesem registrier te Strahlung messbar. Verschwindet der Planet (blau) hinter dem Stern (»se kundäre Eklipse«), geht die Intensität erneut zurück – diesmal, weil der Beitrag der infraroten Strahlung des Planeten entfällt. Erstmals konnte Spitzer so die Strahlung eines Exoplaneten direkt messen. Weitere Planeten (grün), von deren Existenz wir bislang nichts wissen, können durch ihre Schwerkraft zu Variatio nen des beobachteten Effekts führen.
Transit 1,01
Strahlungsfluss (normiert)
Illustration nach: Michael W. Werner; Diagramm aus: Heather A. Knutson et al., Nature, 2007, Bd. 447, S. 183 – 186
sekundäre Eklipse
26
1,00
Eklipse
0,99
Transit 0,98
0,97
0
0,1
0,2
0,3
Phase des Bahnumlaufs
0,4
0,5
etriebstemperatur zwar eingeschränkt, am B Ende ist es aber noch lange nicht. Doch schon aus seiner »kalten« Phase – in der Summe wa ren 40 000 Beobachtungsstunden möglich – gingen rund 2000 Forschungsarbeiten mit enormer Bandbreite hervor, die von Teams aus aller Welt publiziert worden sind. Zu den faszinierendsten Themen gehört der Schwerkraftkollaps dichter interstellarer Wol ken und die anschließende, frühe Entwick lungsphase von Sternen und Planetensyste men. Bei vielen der beteiligten Prozesse herr schen Temperaturen und Dichten, die sie für die Untersuchung im Infraroten besonders geeignet machen. Die Spitzer-Studien bestä tigten, dass junge Sonnen von dichten Gasund Materiescheiben umgeben sind, deren Bil dung eine Folge der Drehimpulserhaltung in der kollabierenden Wolke ist. Diese Scheiben werden durch ihren Stern aufgeheizt und strahlen ihre Energie im Infrarotbereich wieder ab. Löst sich eine solche Materieansammlung im Zuge der Planetenentstehung auf, hinter lässt sie eine so genannte Trümmerscheibe aus kleineren und größeren Staubpartikeln, die bei Kollisionen asteroidischer und kometarischer Objekte entstanden sind. Diese Trümmerschei be leuchtet wegen der großen Oberfläche ih rer Bestandteile im Infraroten heller als der Stern selbst und dient als nützlicher Indikator für die Evolution von Planetensystemen. Mehr als 400 Exoplaneten um insgesamt rund 300 Sterne in unserer näheren kosmi schen Umgebung kennen wir mittlerweile. Die Wissenschaftler interessieren sich zum ei nen für ihre Gemeinsamkeiten – die im Wort sinn universellen Eigenschaften von Planeten systemen –, versuchen aber auch Besonder heiten aufzuspüren, die bei der Entstehung unseres Sonnensystems eine Rolle gespielt ha ben könnten. Schon Hubble und die irdi schen Teleskope waren für ihre Charakterisie rung wichtig, Spitzer aber ging noch weiter. Ein großer Exoplanet, der von seinem Stern auf 1000 Kelvin oder mehr aufgeheizt wird, leuchtet im Infraroten so hell, dass ihn das Te leskop in bis zu 200 Lichtjahren Entfernung entdecken kann. Viele heiße Jupiter – stark aufgeheizte große Gasplaneten in einem engen Orbit – hat Spitzer auf diese Weise gefunden, wobei ihm zwar keine räumliche, wohl aber eine zeitliche Auflösung des Lichts von Stern und Planet gelang. Am besten funktioniert das Verfahren, wenn Spitzer seitlich auf die Bahn ebene des Planeten blickt: Zieht der Himmels körper bei einem so genannten Transit vor sei nem Stern vorüber, blockiert er einen mess baren Teil von dessen Infrarotstrahlung, was Rückschlüsse auf die Größe des Planeten zu lässt. Das Infrarotsignal wird aber auch dann SPEKTRUM DER WISSENSCHAFT · Juni 2010
Aus den schnell veränderlichen Mustern der Wärmestrahlung, die der Exoplanet HD 80606b aussendet, lassen sich extreme Wetterlagen ableiten. Zeitlich liegen zwischen den gezeigten Bildern, die von einem Computer auf Basis von Spitzerdaten berechnet wurden, jeweils 18 Stunden. Der Exoplanet bewegt sich auf einem elliptischen Orbit, so dass er sich einmal pro Umlauf seinem Stern binnen kurzer Zeit stark nähert. Im Verlauf weniger Tage erhöht sich seine Temperatur dabei dramatisch.
NASA, JPL / Caltech / Harvard-Smithsonian CfA, Lori E. Allen und Xavier P. Koenig
schwächer, wenn der Planet von seinem Stern bedeckt wird, denn nun entfällt sein Anteil an der Infrarothelligkeit des Gesamtsystems. Da raus können die Forscher ableiten, wie viel Infrarotstrahlung der Planet aussendet. Aller dings nur, weil Spitzers Instrumente über ei nen Zeitraum von Stunden die nötige Präzi sion von 0,1 Prozent liefern und weil seine Umlaufbahn um die Sonne solch lange Beob achtungsperioden überhaupt erst erlaubt. Besonders aufschlussreich sind die Messun gen, wenn sie – mit Spitzers Spektrograf – bei mehreren Wellenlängen gleichzeitig gemacht werden. Denn heiße Jupiter sind reich an Ga sen, die aus verschiedenen Atmosphärenschich ten Strahlung unterschiedlicher Wellenlängen emittieren. So hat Spitzer bereits über 20 Planeten in 50 bis 200 Lichtjahren Entfer nung charakterisiert. Die Forscher konnten die Temperatur der Planeten bestimmen und erhielten zugleich Daten über Struktur und Dynamik der Atmosphären sowie deren che mische Zusammensetzung; auch Wasserdampf identifizierten sie. Eine ihrer Studien galt dem heißen Jupiter HD 189733b. Messdaten bei fünf Wellenlängen verglichen die Forscher dabei mit Voraussagen über die Emissionen eines gasförmigen Planeten mit sonnenähn licher Zusammensetzung, der die beobach teten Temperaturen aufweist. Die Ergebnisse deuten darauf hin, dass die Atmosphäre von HD 189733b in großen Höhen keine Tempe raturinversion aufweist, anders als man dies bei anderen heißen Jupitern annimmt. Dieser Typ von Exoplaneten besitzt also mindestens zwei verschiedene Arten von Atmosphären. Genaueres werden wir bald wissen, denn der zeit sammelt Spitzer bei zahlreichen anderen Planeten Daten zur Temperaturinversion, und wir können uns wohl auch auf weitere Über raschungen gefasst machen.
NASA, JPL / Caltech / UCSC, Jonathan Langton
Astronomie & Physik
Mittagshitze auf einem Exoplaneten
Spitzers heliozentrische Bahn erlaubt Beobach tungen, die einen vollständigen 40-stündigen Planetenorbit umfassen. Dabei kommt auch die gebundene Rotation ins Spiel: die Tatsa che, dass ein Planet seinem Zentralstern – so wie der Mond der Erde – stets dieselbe Hemi sphäre zuwenden kann. Blickt Spitzer von der Seite auf den Orbit eines solchen Exemplars, das sich von der Vorderseite des Sterns zu des sen Rückseite hin bewegt, kommt also all mählich seine beleuchtete Hemisphäre in den Blick. Erstmals konnte Spitzer so die Tempera turveränderung eines Exoplaneten im Wech sel zwischen Tag und Nacht aufzeichnen! Am Tag wurden rund 1210 Kelvin gemessen, nachts sank die Temperatur auf etwa 970 Kel SPEKTRUM DER WISSENSCHAFT · Juni 2010
Unterschiedliche Generationen von Sternen beherbergt diese etwa 6500 Lichtjahre von der Erde entfernte Region im Sternbild Kassiopeia. Die ältesten Sterne sind als blaue Punkte zu sehen; sie sitzen im Inneren von Raumregionen, aus denen sie das interstellare Material weggefegt haben. Am Rand dieser Regionen reihen sich junge Sterne auf. Knotenförmige weiße Strukturen im Bild markieren stellare Geburtsstätten. Aufgeheizter Staub ist rot dargestellt, während dichte Wolken von Gas und Staub grün eingefärbt sind.
27
Infrarotastronomie
In Kürze r Weil sein Infrarotblick kosmischen Staub mühelos durchdringt, enthüllt das Weltraumteleskop Spitzer Details von Exoplaneten ebenso wie von extrem weit entfernten Galaxienhaufen. r Bis vor Kurzem war es das mächtigste Werkzeug der Infrarotastronomie. Seine Daten haben zu über 2000 wissenschaftlichen Publika tionen geführt. r Auch nachdem das Helium verdampft ist, das zur Kühlung diente, kann Spitzer noch einen langen Aufgaben katalog abarbeiten.
vin. Zusätzlich fand man heraus, dass es in der Atmosphäre dieses Exoplaneten zu erheb lichen Wärmetransporten kommt. Denn ihr heißester Fleck ist nicht jener, der direkt zu dem umkreisten Stern weist. Schätzungen zu folge müssen, damit die beobachtete Tem peraturverteilung möglich wird, in der oberen Atmosphäre Windgeschwindigkeiten von über 5000 Kilometer pro Stunde herrschen. Das vielleicht erstaunlichste Resultat bei der Vermessung von Atmosphärendynamiken gelang Spitzer aber bei der Beobachtung eines »Big Swings« des Gasplaneten HD 80606b. Dessen stark elliptische Umlaufbahn führt den Planeten mit rasender Geschwindigkeit nahe an seinem Zentralstern vorbei, so dass Spitzer messen konnte, wie sich die Atmo sphäre durch den resultierenden Hitzeimpuls erwärmte. Der Blickwinkel auf das Geschehen erlaubte sogar, auch noch das anschließende Verschwinden des Planeten hinter seinem Stern zu registrieren. Binnen weniger Stun den, so schlossen die Forscher aus ihren Da ten, stieg die Temperatur der planetaren At mosphäre von 800 auf 1500 Kelvin! Der starke Anstieg deutet wiederum darauf hin,
Organische Stoffe in Planetensystemen
AA Tauri, Beobachtungs daten
AA Tauri, Modellrechnung
Zyanwasserstoff
Kohlendioxid
Azetylen
13
14
15
Wellenlänge (in Mikrometer)
28
nach: NASA, JPL / Caltech / Naval Research Laboratory, John S. Carr
Infrarote Signale der Gase um den jungen Stern AA Tauri, registriert von Spitzers Spektrograf, stellt dieses Spektrum dar (obere Bildhälfte). Scharfe Spitzen oder einzelne Spektrallinien lassen sich spezifischen Molekülen wie etwa Zyanwasserstoff zuordnen. Insgesamt deutet das Muster der Spektralli nien auf die Anwesenheit von Wasserdampf hin. Vergleicht man diese Daten mit Modellrechnungen (untere Bildhälfte), lassen sich Menge, Verteilung und Temperatur der Stoffe ermitteln. Das gemessene Spektrum zählt zu den Bele gen dafür, dass in protoplanetaren Scheiben, also an Orten potenzieller Plane tenentstehung, organische Stoffe in großer Menge vorkommen.
16
dass die stellare Hitze in großen Höhen abge laden wird, was weitere Rückschlüsse auf die Struktur der Atmosphäre erlaubt. Auch beim Studium von protoplanetaren Scheiben erwiesen sich Spitzers Messungen als ergiebig. Anfänglich versuchte das Teleskop ihre zeitliche Entwicklung statistisch zu ermit teln, betrachtete also mehrere Scheiben in un terschiedlichen Entwicklungsphasen. Es zeigte sich zum Beispiel, dass die extrem dichte und staubige Phase von Scheiben um sonnenähn liche Sterne nur wenige Millionen Jahre an hält. Diese Daten stimmen mit Schätzungen der Dauer überein, in der Riesengasplaneten wie Jupiter oder Saturn entstehen. Gegen Ende dieser Phase ist allerdings ein großer Teil des Staubs zu größeren Teilchen mit gerin gerer Oberfläche verklumpt, so dass auch die Infrarotstrahlung nachlässt. (Und bis durch weiteres Verklumpen und Zusammenballen der Staubpartikel auch felsige Planeten wie Mars und Erde entstehen, vergehen vermut lich einige weitere zehn Millionen Jahre.) In jüngerer Zeit verschob sich der Fokus aber auf spektroskopische Untersuchungen, die sowohl dem Staub als auch der gasförmigen Komponente der Scheiben galten. Während der aktiven Phase der Planetenentstehung sind hier zahlreiche organische Moleküle in der Gasphase zu finden, darunter die Vorläufer komplexer organischer Chemie: Wasser, Koh lendioxid und Kohlenmonoxid. Entsprechen de Beobachtungen sind Infrarotdetektoren vor behalten, denn die typischen Temperaturen des protoplanetaren Materials lassen die Moleküle auf genau solche Weise schwingen und Strah lung produzieren, dass ihre Emissionen im Wesentlichen in diesen Spektralbereich fallen. Aus den Spektren von mittlerweile Dutzen den von Scheiben lässt sich nun ein interes santer Trend ablesen: Zyanwasserstoff (HCN) kommt im gasförmigen Material um entste hende Sterne, die weniger als die halbe Son nenmasse besitzen, seltener vor als um masse reichere, sonnenähnliche Sterne. Als Ursache dieses Phänomens sehen die Forscher weniger eine Anomalie des Materials, aus dem sich der Stern bildet, als vielmehr fotochemische Vor gänge in der ihn umgebenden Materiescheibe. Im Vergleich mit dem Sonnensystem sind ent sprechende Planetensysteme möglicherweise also relativ arm an Stickstoff (N). Deshalb dürften dort wohl auch andere Prozesse der Entwicklung von Leben eine Rolle spielen. Neben Gasen ist auch Staub von Interesse. Üblicherweise zeichnen sich dessen Spektren durch eine kontinuierliche Form aus, die durch breite Absorptions- und Emissionslinien von Eis und Silikaten unterbrochen wird. (Silikate sind Verbindungen von Silizium-, SauerstoffSPEKTRUM DER WISSENSCHAFT · Juni 2010
Vergleichender Blick
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Strahlungsflussdichte
0,10
0,05
Trümmerscheibe um den sonnenähnlichen Stern HD 69830
0
1,0
Emissionsgrad
Asteroid 624 Hektor (Sonnensystem)
0,9 0,8
junger Brauner Zwerg J161159.8-38233
0,03
0,02
0,01
7 1,0
12
17
22
27
Wellenlänge (in Mikrometern)
Komet Tempel 1 (Sonnensystem)
32
Wassereis, Kohlenwasserstoffe, Karbonate Silikate und Sulfide Silikate angepasste Funktion (best fit)
0,5
0 5
10
15
20
25
nach: James Jackson, Jet Propulsion Laboratory (JPL)
Licht in diese Angelegenheit brachte Spitzer bereits 2005, als er die Kollision der Sonde Deep Impact mit dem Kometen Tempel 1 beobachtete und damit eine einzigartige Gele genheit nutzte. Der Aufprall setzte eine Gasund Staubwolke aus unter der Oberfläche lie genden Schichten des Kometenkerns frei. Als einer der Hauptbestandteile des Staubs erwie sen sich kleine Partikel aus kristallinen Sili katen, die stark dem Material ähneln, das in Exoplanetensystemen beobachtet wird. Doch wie wandeln sich die amorphen Stoffe in in terstellarer Materie, aus der sich Sterne und Planetensysteme bilden, in die kristalline Ma terie um, die in Planetensystemen dominiert? Dazu muss das amorphe Material auf Tempe raturen von über 1000 Kelvin erhitzt werden. Erst dieses »Ausglühen« erlaubt den Mole külen im Mineral, sich neu zu orientieren und in den kristallinen Zustand überzugehen. Den ersten echten Einblick in den Prozess des Ausglühens verschaffte uns ein glücklicher Zufall: der gewaltige Helligkeitsausbruch ei nes jungen veränderlichen Sterns. Spitzer hat te den Stern schon zuvor beobachtet, dann bemerkte eine aufmerksame Gruppe von As tronomen das Phänomen und nahm ihn auch mehrere Monate nach dem Ereignis in den Fokus, als seine zeitweilig um das bis zu 100-Fache gesteigerte Helligkeit noch immer erhöht war. Jetzt aber stießen die Forscher plötzlich auf die typischen Emissionen kristal liner Silikate – offenbar war der Staub an der Oberfläche der protoplanetaren Scheibe in dieser Zeit ausreichend erhitzt worden. Da Ausbrüche wie diese während der Evolution von Sternen mit Scheiben häufig vorkommen, könnten sie also im Verlauf jener Million Jah re, in der die Scheibe dicht ist und die Entste hung der Planeten beginnt, für die allmäh liche Umwandlung amorpher Silikate in ihre kristallinen Pendants verantwortlich sein. Neben solcher vergleichenden Exoplaneto logie, mit der wir unsere Innenperspektive auf das Sonnensystem drastisch erweitern, schärft Spitzer auch unseren Blick aufs große Ganze. Es durchmustert Regionen, die mehr als ein
Komet Hale-Bopp (Sonnensystem; Werte geteilt durch 1000)
0,15
Strahlungsflussdichte
Stern lässt Silikate glühen
Gemeinsamkeiten in den Prozessen der Mineralbildung zeigen die Infrarot spektren zweier Kometen und eines Asteroiden, die im Sonnensystem beob achtet wurden, sowie entsprechende Daten zu der Trümmerscheibe um einen Stern sowie um einen Braunen Zwerg. Verglichen werden Strahlungsflussdich te beziehungsweise Emissionsgrad (ein Maß, das gemeinsam mit der Intensität der Wärmestrahlung Rückschlüsse auf die Temperatur erlaubt). Im Fall des Ko meten Tempel 1 ist der relative Emissionsgrad angegeben; dabei wurden Werte vor und nach dem Einschlag der Sonde Deep Impact miteinander verglichen.
relativer Emissionsgrad
und Metallatomen, aus denen sich Gesteine bilden.) Aus Vergleichen schlossen die For scher, dass die Zusammensetzung der Staub partikel in protoplanetaren Scheiben mit jener des im interstellaren Raum verteilten Staubs übereinstimmt. Gleichzeitig deuten die Ana lysen aber darauf hin, dass Silikate in proto planetarischen und in Trümmerscheiben in kristalliner Form vorliegen, wohingegen sich im interstellaren Medium ihre amorphen Va rianten finden.
30
Wellenlänge (in Mikrometern)
29
Infrarotastronomie
NASA, JPL / Caltech / Harvard-Smithsonian CfA, Tyler L. Bourke
Die kosmische Wolke BHR 71 zeigt sich im sichtbaren Licht schlicht als dunkle Region. Spitzers Infrarotaugen entdecken in dem 600 Lichtjahre entfernten Objekt hingegen werdende Sterne (gelb gefärbt), die mächtige Strahlungsjets ausstoßen. (Die Färbung der Jets verändert sich mit dem Maß ihrer Abkühlung von grün zu rot.) Diese sind dafür verantwortlich, dass die Wolke auch im sichtbaren Licht an einer Stelle aufgerissen scheint.
30
Prozent des Himmels umfassen können. Mög lich machen dies die große Winkelabdeckung seiner Detektoren, ihre hohe Empfindlichkeit und die Manövrierfähigkeit des Raum fahrzeugs. Mit zuvor unerreichter Genauigkeit lassen sich Gebiete so groß wie das Sternbild Orion auf diese Weise innerhalb weniger Be obachtungstage vermessen. So fand Spitzer auch Neues über unsere Galaxis heraus. Deren leuchtkräftigste normale Sterne sind so genann te K-Riesen, eine Art gealterte Sonnen. Sie strahlen im Infraroten so intensiv, dass Spitzer einen einzelnen K-Riesen noch am anderen Ende der Milchstraße ausmachen kann – teil weise quer durch die Staubwolken in deren Zentralregionen. Mit Infrarotdurchmusterun gen lässt sich die Verteilung von Sternen in der gesamten Galaxis daher am besten erfassen. Insbesondere dort, wo die Sterndichte am höchsten sein sollte – in der Ebene und im Zentrum der Milchstraße –, hat Spitzer große Raumregionen durchmustert und auf diese Weise Vermutungen klar bestätigt, denen zu folge unsere Milchstraße eine Balkenspirale ist. Ihre spiralförmigen Arme führen also nicht bis ins Zentrum, sondern enden in einer bal kenförmigen Sternenansammlung, die sich im Fall unserer Galaxis über knapp das erste Drit tel des Wegs zwischen Zentrum und Sonne erstreckt. Spitzer stieß aber auch auf einen Widerspruch zu früheren Annahmen. Offen bar besitzt die Milchstraße nur zwei Spiral
arme, die jeweils an einem Ende des Balkens ansetzen. Vorherige Messungen hatten auf die Existenz von vier Armen hingedeutet. Sein Augenmerk hat Spitzer aber nicht nur auf K-Riesen, sondern auch auf Braune Zwerge geworfen – gescheiterte Sterne von maximal 0,08-facher Sonnenmasse, deren Hitze und Dichte nie für die dauerhafte Aufrechter haltung der Wasserstofffusion reichte. Sind sie noch jung, strahlen sie die Energie ab, die bei dem vorangegangenen Gravitationskollaps freigesetzt wurde, und lassen sich deshalb im Infraroten beobachten. Mit der Zeit werden sie dann immer kühler: Ein fünf Milliarden Jahre alter Brauner Zwerg beispielsweise, der 0,05 Sonnenmassen schwer ist, soll den Mo dellen zufolge eine Temperatur von unter 1000 Kelvin besitzen und nur wenige Milli onstel der Leuchtkraft der Sonne.
Dominieren unscheinbare Zwerge unsere kosmische Nachbarschaft?
Die Spektren der vermutlich molekülreichen Atmosphären brauner Zwerge verändern sich, während die Objekte abkühlen; anhand deren unterscheiden die Forscher drei Entwicklungs phasen. Die jüngsten Objekte werden als LZwerge bezeichnet; sie entwickeln sich dann zu T-Zwergen und schließlich zu Y-Zwergen. Letztere sollen Temperaturen von nicht ein mal mehr 500 Kelvin besitzen, wurden bis lang allerdings noch nicht nachgewiesen. Ähnlich wie der Fund des ersten Exopla neten hatte die Identifizierung des ersten Braunen Zwergs im Jahr 1995 eine Flut wei terer Entdeckungen ausgelöst. Nun sind rund 1000 von ihnen bekannt, und es könnte sich herausstellen, dass sie in unserer kosmischen Nachbarschaft so häufig sind wie alle anderen Arten von Sternen zusammen, wenn sie auch nicht allzu viel zur stellaren Gesamtmasse bei tragen. Das Interesse der Forscher haben sie zudem als Bindeglied zwischen Planeten und Sternen erweckt. Spitzers Beobachtungen von jungen Stern haufen haben gezeigt, dass sich jene Objekte, die eines Tages als Braune Zwerge enden, ge nauso leicht entdecken lassen wie die Vorläu fer massearmer Sterne. Denn in dieser frühen Entwicklungsphase überwiegt gegenüber dem nuklearen Brennen noch die Strahlung, die infolge der Akkretion von Materie entsteht. Faszinierenderweise zeigen viele der künftigen Braunen Zwerge, die sich in diesen jungen Haufen bilden, zudem Anzeichen für zirkum stellare Scheiben, in denen sogar Planeten wachsen könnten (SdW 10/2009, S. 24). Die Funde zahlreicher T-Zwerge und ihre eindeutige Identifikation in einem Himmels gebiet von der 50-fachen Fläche des Voll SPEKTRUM DER WISSENSCHAFT · Juni 2010
monds erlaubten nun neue Abschätzungen über die zu erwartenden Entdeckungen des Wide-Field Infrared Survey Explorers. WISE, der im Infraroten den gesamten Himmel durchmustern wird, ist im Dezember 2009 ge startet und wird wohl einige tausend T-Zwerge aufspüren, darunter sicher das der Erde am nächsten gelegene Exemplar. Möglicherweise liegt dieser Zwerg – vielleicht stellt er sich auch als Y-Zwerg heraus – der Erde sogar nä her als der erdnächste Stern Proxima Centauri in vier Lichtjahren Entfernung. Und weil sich auch um Braune Zwerge eventuell Planeten bewegen, könnte hier sogar der erdnächste Exoplanet beheimatet sein. Spitzer erforscht aber nicht nur die Gegen wart des Universums. Dank seiner Infrarot augen sehen wir auch weit in die Vergangen heit zurück. Denn infolge der Expansion des mittlerweile 13,8 Milliarden Jahre alten Kos mos und der Endlichkeit der Lichtgeschwin digkeit verschiebt sich die Strahlung von ent fernten Objekten auf ihrem Weg zu uns im mer stärker zum infraroten Ende des Spektrums. Anders gesagt: Die Rotverschie bung einer fernen Galaxie ist ein Maß dafür, wo und wann in Raum und Zeit das Licht emittiert wurde. Bei Objekten mit einer Rot verschiebung (oder einem z) von 1 hat sich die Wellenlänge der Strahlung bereits verdop pelt. Beobachten wir eine Galaxie mit einer Rotverschiebung von z = 1,5, heißt das: Wir sehen ihren Zustand zu einer Zeit, als der Kosmos etwa 40 Prozent seiner jetzigen Größe besaß und rund 6 Milliarden Jahre alt war – wir blicken also gewissermaßen durch das hal be Universum zu ihr. Ist z = 6, sehen wir sogar in eine Epoche gerade einmal 900 Millionen Jahre nach dem Urknall, in der die Größe des Universums nur 15 Prozent des gegenwär tigen Werts betrug.
PAKs schon im frühen Universum?
Bei einem Zensus der Galaxienhaufen im frü hen Kosmos – solche gravitativ gebundenen Ansammlungen von Sternsystemen sind die größten Strukturen im bekannten Universum – identifizierte das Teleskop allein in der kleinen untersuchten Himmelsregion über 100 Galaxienhaufen mit Rotverschiebungen größer als 1. Das sind weit mehr, als sämtliche früheren Beobachtungen am ganzen Himmel gefunden hatten. Ihre Anzahl und Eigen schaften helfen uns nun zu verstehen, wie diese Strukturen im jungen Universum entstanden sind und welche Rolle dabei möglicherweise die Dunkle Materie und die Dunkle Energie spielen, von denen wir noch wenig wissen. Aufbauend auf Ergebnissen von IRAS und ISO förderte Spitzer bei ihrer Untersuchung SPEKTRUM DER WISSENSCHAFT · Juni 2010
Röntgen: NASA / CXC / Caltech, Shrinivas Kulkarni et al.; Optisch: NASA, STScI / UIUC, You-Hua Chu & Rosa M. Williams et al.; InfraRot: NASA, JPL / Caltech / U. Minnesota, Robert D. Gehrz et al.
Astronomie & Physik
zudem Neues über die so genannten poly zyklischen aromatischen Kohlenwasserstoffe (PAKs) zu Tage. Die Emissionen sowohl des interstellaren Mediums in der Milchstraße als auch ganzer Galaxien im mittleren Infrarotbe reich werden, so zeigte das Instrument, von solchen Molekülen dominiert. Auf der Erde findet man PAKs, die von Chemikern bereits ausgiebig untersucht wurden, in Verbrennungsprodukten und kann sie auch in Meteoriten aufspüren. Doch wie sie im Weltall entstehen und welche Rolle sie vielleicht dabei spielen, organische Stoffe in entstehende Planetensys teme zu bringen, konnten Forscher in den letzten zwei Jahrzehnten nicht aufklären. Spit zer hat hier ebenfalls einen Beitrag geleistet: Seine Messungen belegen, dass die PAK-Emis sionsspektren von Galaxien mit Rotverschie bungen von bis zu 2,7 fast identisch sind mit denen naher Galaxien. Demnach waren sie bereits wenige Milliarden Jahre nach dem Ur knall Bestandteil des interstellaren Mediums. Die weitesten Blicke von Spitzer fallen auf Galaxien mit Rotverschiebungen von bis zu 7; ihr Licht wurde ausgesandt, als das Univer sum zwölf Prozent seiner heutigen Größe und ein Zwanzigstel seines Alters besaß. Ein we sentlicher Anteil von Sternen in diesen ältes ten Galaxien, so zeigen nun die Analysen, ist offenbar früher entstanden, als es die meisten Modelle vorhersagen. Außerdem lieferte Spit
An N49, dem hellsten Super nova-Überrest in der großen Magellanschen Wolke, lässt sich die Macht der multispektralen Astronomie erproben. Das Bild kombiniert Messungen des Chandra-Observatoriums von aus heißem Gas stammenden Röntgenstrahlen (blau) sowie des Spitzer-Teleskops, welches die Infrarotemissionen von kühlerem Gas registrierte (rot). Freigesetzt wurde all diese Materie, als der Vorgängerstern von N49 explodierte. Die Messungen zeigten, dass die meisten Infrarotemissionen nicht wie ursprünglich gedacht von Staub, sondern von Gas verursacht werden.
31
Infrarotastronomie links: NASA, JPL / Caltech / Harvard-Smithsonian-CfA, Joseph L. Hora; rechts beide: Nasa, JPL / Caltech
Michael Werner gehört seit 1977 zum Team der Space Infrared Telescope Facility (SIRTF), die nach ihrem Start in Spitzer Space Telescope umbenannt wurde. Seit 1984 ist Werner Projektwissen schaftler des Vorhabens. Außerdem ist er Chefwissenschaftler für Astronomie und Physik am kalifor nischen Jet Propulsion Laboratory.
© American Scientist www.amsci.org
Gehrz, R. D. et al.: The NASA Spitzer Space Telescope. In: Review of Scientific Instruments 78(1), S. 011302, 2007. Knutson, H. A. et al.: 2007. A Map of the Daynight Contrast of the Extrasolar Planet HD 189733b. In: Nature 447(7141), S. 183 – 186, 2007. Soifer, B. T. et al.: The Spitzer View of the Extragalactic Universe. In: Annual Review of Astronomy and Astrophysics 46(1), S. 201 – 240, 2008.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030081.
32
zer ein weiteres, ebenso umstrittenes wie span nendes Zwischenergebnis: Früher als gedacht, nämlich schon bei Rotverschiebungen über 6, könnten extrem massereiche Galaxien existiert haben. Trifft das zu, wäre eine deutliche Über arbeitung der Modelle der Galaxienentstehung fällig, wie sie in den vergangenen zehn Jahren entwickelt wurden. Während die Theoretiker all die neuen Er kenntnisse nun nach und nach zu interpretie ren versuchen, fließen die Daten weiter. Denn obwohl das flüssige Helium erschöpft ist, hal ten sich Spitzers Temperaturen stabil bei unter 30 Kelvin. Die Messungen im Bereich kurzer Wellenlängen von 3,6 und 4,5 Mikrometern erfolgen sogar mit derselben Empfindlichkeit wie zuvor. Mit ihnen soll Spitzer bis mindes tens Mitte 2011 weiterarbeiten. Noch einmal zwei oder drei Jahre später wird das Teleskop allerdings aus dem Raumbereich herausgedrif tet sein, in dem eine einfache Kommunika tion mit dem Raumfahrzeug möglich ist. Bis dahin wird es noch einen langen Auf gabenkatalog abarbeiten. Die »warme« Phase der Mission widmet sich Projekten mit teils vertrauten Themen. Aufbauend auf bisherigen Ergebnissen stehen etwa Galaxienhaufen, die Struktur der Milchstraße und Objekte im fer nen Universum im Fokus. Spitzer verfügt aber auch noch immer über die nötigen Fähig keiten, um das dynamische Gebiet der Exo planetenforschung zu unterstützen. Das In strument wird unter anderem jene Exemplare nachbeobachten, welche die im März 2009 gestartete US-amerikanische Kepler-Mission im Lauf der Zeit entdecken wird.
Auch ohne Helium im Tank ist Spitzer noch leistungsfähig. Diese drei Aufnahmen gehören zu den ersten, die nach Ausfall des Kühlsystems entstanden. Das große Bild zeigt eine Region neuer Sterne in der Region der Wolke DR22; Staub ist blau, heißes Gas orange eingefärbt. Das Bild rechts oben zeigt die unauffällige Galaxie NGC 4145, in der gegenwärtig nur wenig Sterne entstehen. Unten rechts ist der planetarische Nebel NGC 4361 dargestellt, der sich bildete, als ein sterbender Stern seine äußeren Hüllen abstieß. Ungewöhnlich ist die Zahl seiner Materiejets: Es sind vier statt wie üblich zwei. Möglicherweise handelt es sich also um ein System aus zwei Sternen.
Völlig neue Programme hingegen widmen sich zum Beispiel der Überwachung der Varia bilität junger und entstehender Sterne. Dies gibt nicht nur Aufschluss über die Sterne selbst, sondern auch über ihre protoplane taren Scheiben. Außerdem sollen Hunderte erdnaher Objekte untersucht werden – Aste roiden und inaktive Kometen –, um das Risi ko ihres Absturzes auf die Erde abschätzen zu können. Auch eine Überprüfung der lokalen Skala für kosmische Entfernungen ist geplant. Auf diese Weise lässt sich der Wert der Hub ble-Konstante und somit der Expansionsrate des Universums präzisieren. Unterdessen hoben schon weitere Missio nen ab. Bereits ein halbes Jahr vor WISE, im Mai 2009, ist das Herschel Space Telescope gestartet. Das Gemeinschaftsprojekt von ESA und NASA registriert noch größere Wellen längen, blickt also auf noch kühlere und viel leicht auf noch weiter entfernte Objekte als Spitzer. Auch das Flugzeug-Observatorium SOFIA wird in einigen Jahren einen Großteil der irdischen Atmosphäre hinter sich lassen, um Instrumente für ihren späteren Einsatz im Weltall zu testen, aber auch im Infraroten zu messen. Ab 2014 schließlich soll das James Webb Space Telescope mit seinem Primärspie gel von 6,5 Meter Durchmesser seine Vorgän ger noch einmal weit überbieten. Den Staub schleier, hinter dem sich viele der interes santesten Phänomene im Kosmos abspielen, werden wir zwar auch dann nicht lüften – die durchdringenden Blicke unserer besten Tele skope kann er aber schon jetzt nicht mehr ab halten. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Schlichting!
Astronomie & Physik
beide Abbildungen: H. Joachim Schlichting
Nur kurz ist der Blick in die Ferne Der Horizont ist dort, wo sich die von einem Schiff hinterlassene Bläschenspur im Unendlichen verliert? Von wegen. Von H. Joachim Schlichting
K
aum jemand, der eine Schiffsreise macht, wird sich den Blick auf die Bahn des auf schäumenden Wassers entgehen lassen, die das Schiff wie einen maritimen Kondensstreifen hinter sich herzieht. Und mancher wird sich gerne verführen lassen, an ihr entlang in die unendliche Weite des Meeres abschweifen zu wollen. Mit dieser ist es, im wahrsten Sinne des Wortes, allerdings nicht weit her. Denn sollte die Bahn im »Unendlichen«, wo sich sogar Parallelen schneiden, nicht in einem Punkt zusammenlaufen? Sie sollte, aber sie tut es nicht – selbst wenn optimale Sichtbe dingungen uns 100 Kilometer weit oder mehr sehen lassen. In »Sommermeteor« lässt Arno Schmidt ei nen Geografen sagen – auf die Frage, »wie weit man denn im Allgemeinen so sehen (kann). Ich meine die Erde einmal als glatte Kugel vo rausgesetzt«: »Nichts leichter als das … Sie zie hen die Wurzel aus Ihrer Höhe in Metern und nehmen sie mit 3,5 mal.« Die Abschätzung zeigt, wie ernüchternd klein der Bereich ist, den wir auf dem Meer überblicken (auch wenn der Faktor unserer Rechnung nach eher 3,6 be trägt, siehe Grafik). Der Grund ist natürlich die Krümmung der Erdoberfläche. Steht man auf einem Schiffsdeck, sagen wir fünf Meter über dem Meeresspiegel (h = 5 m), so beträgt die Entfernung (s) des Horizonts gerade ein mal acht Kilometer, und das ist dann auch die sichtbare Länge der Bläschenbahn. Also rauf aufs Kreuzfahrtschiff? Selbst aus 36 Meter Höhe verlängert sich die sichtbare Bahn lediglich auf 22 Kilometer. Wir, die wir unsere Zeit auf einer gekrümmten, im Wesent lichen zweidimensionalen Fläche verbringen, müssten schon um die Kurve blicken können, um wirklich in die Ferne zu sehen – oder aber den Blick gen Himmel richten. Indessen schätzen wir auch die zeitliche Vergänglichkeit der Schaumspur gerne falsch ein. Von Land aus kann man oft noch eine Stunde, nachdem ein Schiff passiert ist, die Veränderungen des Wassers beobachten. Was aber ist hier anders als nach einem Steinwurf in die Wasserpfütze, bei dem sich schon nach SPEKTRUM DER WISSENSCHAFT · JunI 2010
Gern schweifen Blick und Gedanken ins Unendliche. Doch der Horizont ist näher, als man denkt.
kurzer Zeit des Aufruhrs wieder eine glatte Oberfläche einstellt, als ob nichts gewesen wäre? Offensichtlich ist, dass insbesondere durch die Schiffsschraube das Wasser intensiv mit der Luft verwirbelt wird; aufsteigende Luftbläschen vieler Größen bis hin zu mikro skopisch kleinen Exemplaren lassen das Meer dann sprudeln. Doch je kleiner sie sind, desto länger dauert es, bis sie zurück ins luftige Ele ment gelangen. Nehmen wir eine Blase und lassen ihren Durchmesser auf ein Zehntel seiner Größe schrumpfen. Dann ist ihre Oberfläche auf ein Hundertstel und ihr Volumen auf ein Tau sendstel verkleinert, was auch die entschei denden physikalischen Größen reduziert: den zur Oberfläche proportionalen Strömungswi derstand auf ein Hundertstel und die zum Vo lumen proportionale Auftriebskraft auf ein Tausendstel. Gegenüber der ursprünglichen Blase ergibt sich relativ zum Auftrieb also ein zehnfach stärkerer Widerstand, weshalb sie entsprechend langsamer aufsteigt. Im Ergebnis könnte man von einer Anti sedimentation sprechen: Während sich in ei ner aufgewühlten Pfütze die kleinsten Partikel erst nach langer Zeit wieder an deren Grund ablagern, so streben im Meer die kleinsten Bläschen zuletzt nach oben. Das Einzige, was im Meer wie in der Pfütze tatsächlich schnell abklingt, sind die Wellenbewegungen des Wassers. Auch deshalb bleibt die Bläschenspur sehr lange auf der gesamten Breite erhalten: Haben die Turbulenzen im Wasser nachgelas sen, dominieren allein – wobei sie das Wasser regelrecht verfärben – die senkrecht nach oben strebenden Bläschen.
hBeobachter
sHorizont .
rErde
Mit dem Satz des Pythagoras, einem Erdradius (r) von 6370 Kilometern und kleinen Verein fachungen ergibt sich die Horizontweite zu s ≈ √ h . √ 2r . Die kurze Rechnung finden Sie unter den Weblinks.
H. Joachim Schlichting ist Professor und Direktor des Instituts für Didaktik der Physik an der Universität Münster. Er erhielt 2008 den Pohl-Preis der Deutschen Physikalischen Gesellschaft für seine didaktischen Konzepte.
Schlichting, H. J.: Wenn alles auf einen Punkt zuläuft. In: Physik in unserer Zeit 35(4), S. 193, 2004. Online unter http://www3. interscience.wiley.com/journal/ 109087246/abstract. Schmidt, A.: Sommermeteor. Fischer, Frankfurt 1980. Rechnung zur Horizontweite: www.spektrum.de/artikel/1025939.
33
Relativitätstheorie
Abenteuer in
Einsteins Raumzeit Auch nach 90 Jahren sorgt die allgemeine Relativitätstheorie für Überraschungen. Durch geschicktes Ausnutzen der Raumkrümmung könnte ein Fahrzeug im Prinzip sogar durch das Vakuum »vorwärtspaddeln«.
In Kürze r In Albert Einsteins allgemeiner Relativitätstheorie entsteht die Gravitation durch Krümmung der Raumzeit. Noch heute stoßen Physiker auf neue Folgerungen aus den einsteinschen Gleichungen. r Zum Beispiel kann ein Körper im gekrümmten Raum scheinbar das Gesetz der Impulserhaltung überlisten und sich im Vakuum vorwärtsstoßen. r Die gekrümmte Raumzeit erlaubt auch eine Art Gleiten, wodurch ein Körper seinen Fall im Vakuum verlangsamen kann.
34
alle Illustrationen des Artikels: Miracle Studios (www.miraclestudios.com)
Von Eduardo Guéron
M
ehrere Bücher des russisch-amerikanischen Physikers George Gamow aus den 1940er Jahren schildern die fantastischen Abenteuer eines bescheidenen Bankangestellten namens C. G. H. Tompkins, der im Traum die exotischen Rätsel der modernen Physik hautnah erlebt. In einer dieser Fabelwelten beträgt die Lichtgeschwindigkeit bloß 15 Kilometer pro Stunde; darum braucht Herr Tompkins nur aufs Fahrrad zu steigen, um die seltsamen Effekte von Einsteins spezieller Relativitätstheorie direkt vor Augen zu haben. Neulich begegnete ich auf gleiche Weise einem Urenkel von Mr Tompkins, der die
Tradition seines Vorfahren fortsetzt. Er stellte sich als E. M. Everard vor und berichtete von unglaublichen Erlebnissen, denen erst kürzlich entdeckte Aspekte von Einsteins allge meiner Relativitätstheorie zu Grunde liegen. Seine Geschichte handelt von gekrümmter Raumzeit, von Katzen, die im freien Fall auf die Füße kommen, von Astronauten, die durch das Vakuum paddeln, um ihre Haut zu retten – und von Isaac Newton, der sich vermutlich im Grab umdreht.
Gefährliche Kurven
In einem entlegenen Winkel des Kosmos hatte Mr Everard sein Raumschiff verlassen, um die Außenantenne zu reparieren. Dabei bemerkte er, dass die fernen Sterne verzerrt aussaSPEKTRUM DER WISSENSCHAFT · Juni 2010
Astronomie & Physik
hen, wie durch eine dicke Linse. Außerdem fühlte er, dass etwas seinen Körper sanft dehnte. Da er ahnte, was los war, nahm er einen Laserzeiger und eine Dose Rasierschaum aus seinem Rucksack und gab mit den Manövrierdüsen am Raumanzug ein wenig Gas. Mit dem Laserstrahl als Richtschnur segelte er 100 Meter geradeaus, dann ein Stück nach links und schließlich zurück zum Ausgangspunkt, wobei er mit dem Schaum ein sauberes Dreieck zog. Dann maß er mit einem Winkelmesser die drei Innenwinkel und addierte sie. Die Summe ergab mehr als 180 Grad. Diese Verletzung der euklidischen Schul geometrie erinnerte Mr Everard daran, wie er als Kind den Globus im väterlichen Arbeitszimmer mit Dreiecken bemalt hatte: Auch SPEKTRUM DER WISSENSCHAFT · Juni 2010
damals war die Winkelsumme größer als 180 Grad gewesen. Daraus schloss er nun, der ihn umgebende Raum müsse ähnlich gekrümmt sein wie jener Globus. Das erklärte das verzerrte Sternenlicht und das etwas unangenehme Dehnungsgefühl. Mr Everard erlebte Standardeffekte der allgemeinen Relativitätstheorie: Materie und Energie krümmen Raum und Zeit, und die Verzerrung der Raumzeit zwingt Materie und Energie – insbesondere Everards Laserstrahl und das Licht der Sterne – auf gebogene Bahnen. Seine Füße und sein Kopf wollten etwas unterschiedlichen Kurven folgen, und den Unterschied spürte er als Streckung. Beruhigt drückte Mr Everard auf den Gasknopf, um zu seinem Raumschiff zurückzu35
Relativitätstheorie
Gekrümmte Raumzeit Gemäß der allgemeinen Relativitätstheorie entsteht die Gravitation durch Krümmung der Raumzeit – aber was bedeutet das für die Raumzeit, und was hat es für Folgen? Flacher Raum In der Schule lernen wir die euklidische Geometrie des flachen Raums. Dort beträgt die Winkelsumme im Dreieck 180 Grad. Eine zweidimensionale Ebene, etwa die Oberfläche eines Billardtischs, ist ein flacher Raum. Auch die drei dimensionale Welt um uns ist in guter Näherung flach: Wenn man mit drei Laserstrahlen ein Dreieck in die Luft zeichnet, summieren sich seine Innenwinkel stets zu 180 Grad.
Gekrümmter Raum Die Kugeloberfläche ist eine gekrümmte zwei dimensionale Fläche. Auf ihr beträgt die Winkelsumme eines Dreiecks mehr als 180 Grad – charakteristisch für ein Gebiet mit positiver Krümmung. Für uns in drei Dimensionen sehen die Dreiecksseiten krumm aus, doch eine auf der Kugel krabbelnde Ameise erlebt sie als schnurgerade.
Negative Krümmung Die Oberfläche eines Sattels ist negativ gekrümmt. Die Dreieckswinkel summieren sich zu weniger als 180 Grad.
Gravitation entsteht durch Krümmung Nach Einstein krümmen Masse und Energie die umgebende Raumzeit. Dadurch folgen Objekte wie die Erde einer Kurve um die Sonne oder stürzen aufeinander zu. In den meisten Fällen entsprechen diese Bahnen sehr genau denen, die sich aus Newtons Gravitationsgesetz in einer flachen Raumzeit ergeben. Oft veranschaulicht man die Raumkrümmung durch eine gedehnte Gummischicht, doch dieses Bild ist unvollständig. Es zeigt nicht, wie die Zeit zusammen mit dem Raum verzerrt wird. Durch diese Dehnung vergeht die Zeit in der Tiefe einer Gravitationsmulde etwas langsamer. Für die korrekte Bahnberechnung ist die Zeitverzerrung wichtig.
36
kehren – doch nichts geschah. Sein Tank war leer, und er schwebte gut 100 Meter von der Luftschleuse entfernt. Noch schlimmer: Er und sein Schaumdreieck trieben mit gleich bleibender Geschwindigkeit vom Raumschiff ab. Rasch schleuderte er Winkelmesser, Laser, Spraydose und schließlich sogar den Rucksack gegen die Bewegungsrichtung davon. Nach dem Prinzip der Impulserhaltung bremste zwar jeder Wurf durch Rückstoß die Fahrt ab, aber das reichte leider nicht aus, um ihn zurückzubringen. Er schwebte nun bewegungslos in konstanter Entfernung zum Raumschiff. Seine Lage schien hoffnungslos. Nach der Schulphysik ist es unmöglich, einen Körper ohne äußere Kraft oder einen Auswurf von Masse zu beschleunigen. Zum Glück hatte unser Abenteurer zuvor festgestellt, dass er sich in einem gekrümmten Raum aufhielt, und er wusste, dass einige Erhaltungssätze dort anders funktionieren als im flachen Raum der newtonschen Schulphysik. Insbesondere kannte er einen Artikel des Planeten forschers Jack Wisdom aus dem Jahr 2003, wonach ein Astronaut sich im gekrümmten Raum durch geeignete Arm- und Beinbewegungen vorwärtszubewegen vermag: Er kann quasi durch das Vakuum schwimmen. Wisdoms Trick erinnert an die Art, wie eine fallende Katze durch Einziehen und Ausstrecken der Beine und Verdrehen des Körpers auf den Pfoten landet. Die Gesetze der newtonschen Mechanik erlauben der Katze, ihre Lage im Raum – aber nicht ihre Geschwindigkeit – ohne äußere Einwirkung zu ändern. Den gleichen Trick verwenden Astronauten an Bord der internationalen Raumstation ISS, um sich in der Schwerelosigkeit zu drehen, ohne sich irgendwo festzuhalten. In der relativistisch gekrümmten Raumzeit bringen Katzen und Astronauten noch viel größere Kunststücke fertig. Unser Held brauchte für den Rückweg zu seinem Raumschiff etwas mehr als eine Stunde. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Astronomie & Physik
Wo liegt der Schwerpunkt im gekrümmten Raum? Im flachen Raum vermag ein isoliertes System seinen Schwerpunkt nicht zu bewegen, doch der gekrümmte Raum bietet ein Schlupfloch, um diese Ein schränkung zu umgehen. Im flachen Raum ist der Schwerpunkt eindeutig Der Schwerpunkt von drei Kugeln mit gleicher Masse m an den Ecken eines gleichseitigen Dreiecks liegt im geometrischen Mittelpunkt (schwarzer Punkt). Er kann als der Punkt gleichen Abstands von allen drei Ecken ermittelt werden (links), aber auch in zwei Schritten (rechts).
m
m
2r r m
m
2m
Im gekrümmten Raum ist der Schwerpunkt schlecht definiert Angenommen, die drei Kugeln liegen auf dem Globus in Dakar, Singapur und Tahiti. Berechnet man ihren Schwerpunkt als den Punkt gleichen Abstands, so kommt ein Ort nahe dem Nordpol heraus (links). Ermittelt man den Schwerpunkt hingegen in zwei Schritten, so ergibt sich ein Punkt nahe dem Äquator (rechts). Diese Mehrdeutigkeit des Schwerpunkts ermöglicht das »Schwimmen« durch einen gekrümmten Raum.
Wie funktioniert Wisdoms Trick genau? Im flachen Raum, wie ihn newtonsche Mechanik und spezielle Relativitätstheorie voraussetzen, wird der Schwerpunkt eines isolierten Systems – zum Beispiel Astronaut plus Rucksack – niemals beschleunigt. Angenommen, Mr Everard hat seinen Rucksack, bevor er ihn wegwarf, an ein langes Seil gebunden und konnte ihn damit wieder heranziehen. Während der ganzen Prozedur haben sich Rucksack und Astronaut erst voneinander entfernt und dann wieder vereinigt, aber der Schwerpunkt beider blieb unverändert. Am Ende sind Raumfahrer und Rucksack wieder dort, wo sie waren. Grundsätzlich gilt: Mr Everard kann sich nicht fortbewegen, indem er seine Form oder Struktur abwechselnd verändert und wiederherstellt.
Außerirdische auf der Kugel
Im gekrümmten Raum gilt das nicht unbedingt. Stellen wir uns ein außerirdisches Wesen mit zwei Armen und einem Schwanz vor, die es ausstrecken und einziehen kann (siehe Kasten auf S. 39). Der Einfachheit halber soll die Masse des Außerirdischen praktisch komplett in den Enden seiner drei Glieder konzentriert sein, ein Viertel in jeder Hand und SPEKTRUM DER WISSENSCHAFT · Juni 2010
die übrige Hälfte in der Schwanzspitze. Im flachen Raum ist dieses Wesen hilflos. Wenn es seinen Schwanz rückwärts um zwei Meter ausstreckt, bewegen sich die Hände einen Meter vorwärts und die Schwanzspitze einen Meter rückwärts, denn der Schwerpunkt ruht. Einziehen des Schwanzes bringt den ganzen Außerirdischen wieder in die Startposition, genau wie Mr Everard und seinen Rucksack. Das Gleiche passiert, wenn das Wesen seine Arme ausstreckt. Es kann mit seinen Gliedern anstellen, was es will, der Schwerpunkt ruht. Höchstens kann es den Katzentrick nutzen – Glieder ausstrecken, herumschwingen, einziehen und zurückschwingen –, um seine Lage im Raum zu ändern. Doch nun nehmen wir an, dieser Außer irdische lebt in einem Raum, der wie eine Kugelfläche gekrümmt ist. Zur Veranschaulichung werde ich Orte und Richtungen auf der Kugel mit geografischen Begriffen charakte risieren. Der Außerirdische startet auf dem Äquator der Kugel, mit dem Kopf nach Westen; Arme und Schwanz hat er eingezogen. Er streckt nun beide Arme aus, einen nach Norden, einen nach Süden. Dann verlängert er den Schwanz und hält dabei die Arme rechtwinklig zum Körper. Wie im flachen Raum
Im flachen Raum wird der Schwerpunkt eines isolierten Systems niemals beschleunigt; im gekrümmten Raum gilt das nicht unbedingt
37
Relativitätstheorie
Ein Schwimmer in der gekrümmten Raumzeit Ein dreibeiniger Apparat oder ein Außerirdischer mit dehnbaren Gliedern könnte durch den leeren Raum schwimmen, indem er seine Beine zyklisch aus streckt, spreizt, einzieht und schließt. Jeder Zyklus dieser vier Aktionen bewegt das Dreibein durch den Raum – hier ein wenig die Heftseite hinauf –, obwohl es weder Treibgas ausstößt noch eine äußere Kraft erfährt.
Nur die gewaltige Raumkrümmung in unmittelbarer Nähe eines Schwarzen Lochs brächte einen Vakuumschwimmer merklich voran
38
bewegen sich die Hände, wenn die massige Schwanzspitze einen Meter ostwärts wandert, um einen Meter nach Westen. Auf der Kugel gibt es aber einen entscheidenden Unterschied: Der Außerirdische hält seine Arme längs der Längenkreise, und der Abstand zwischen diesen Linien ist am Äquator am größten. Wenn die Hände, die näher zu den Polen der Kugel liegen, einen Meter westwärts wandern, bewegen sich die Schultern auf dem Äquator mehr als einen Meter voran. Darum liegen die Hände, nachdem das Wesen seine Arme entlang der Längenkreise zurückgezogen hat, mehr als einen Meter westlich. Wenn es auch noch den Schwanz einzieht und damit wieder seine ursprüngliche Körperform einnimmt, findet es sich auf dem Äquator ein wenig westlich vom Ausgangspunkt wieder! Indem der Außerirdische diese Bewegungen zyklisch wiederholt, kriecht er auf dem Äquator dahin. Dafür muss die Körpermasse nicht in den Händen und der Schwanzspitze konzentriert sein; man sieht dann nur besser, wie weit die Arme durch das Schwanzstrecken vorankommen. Falls das Überleben der außerirdischen Spezies vom Schwimmen im gekrümmten Raum abhängt, wird sie ohnedies schwere Endglieder entwickeln, um wirksamer zu paddeln. An den Ellbogen konzentrierte Masse reicht nicht so weit in die Raumkrümmung hinaus wie die Hände und erzeugt weniger Vorwärtsbewegung. Eine Kugelfläche ist zweidimensional, aber das gleiche Prinzip gilt auch für die vierdimen sionale Raumzeit. Zyklische Formveränderun gen eines Systems können im Endeffekt eine Verschiebung erzeugen. Wisdoms Schwimmer
hat drei Teleskopbeine, die ihre Länge sowie ihren Winkel zueinander verändern können. Das Dreibein schwimmt, indem es seine Glie der ausstreckt, spreizt, einzieht und schließt. Je stärker die lokale Raumzeitkrümmung, des to weiter kommt das Gebilde durch diese Bewegungsfolge.
Wo liegt der Schwerpunkt?
Das Schwimmen verletzt nur scheinbar grund legende Erhaltungssätze. Es funktioniert, weil der Schwerpunkt in einem gekrümmten Raum nicht eindeutig definiert ist. Angenommen, drei je ein Kilogramm schwere Kugeln liegen an den Eckpunkten eines gleichseitigen Dreiecks. Auf einer ebenen Fläche ist ihr Schwerpunkt der geometrische Mittelpunkt des Dreiecks. Der Schwerpunkt lässt sich unterschiedlich berechnen, aber es kommt immer dasselbe heraus. Man ermittelt den Punkt gleichen Abstands von allen drei Kugeln, oder man ersetzt zwei Kugeln durch eine Zwei-Kilo-Kugel genau zwischen ihnen und berechnet dann den Schwerpunkt dieser Kugel und der dritten; er liegt auf einem Drittel der Strecke zur dritten Kugel. Die geometrische Tatsache, dass immer dasselbe herauskommt, gilt auch für die Dynamik des Systems: Der Schwerpunkt eines isolierten Systems wird nie beschleunigt. Doch auf einer gekrümmten Fläche ergeben unterschiedliche Berechnungen nicht immer dasselbe Resultat. Betrachten wir ein Dreieck aus drei Kugeln gleicher Masse in Singapur, Dakar und Tahiti – alle nahe dem Äquator (siehe Kasten S. 37). Ein Punkt gleichen Abstands zu allen drei Kugeln liegt in der Nähe des Nordpols. Wenn wir jetzt die Kugeln in Singapur und Dakar durch eine schwerere zwischen ihnen ersetzen und den Ort berechnen, der auf einem Drittel der StreSPEKTRUM DER WISSENSCHAFT · Juni 2010
Astronomie & Physik cke längs des Großkreises von dieser Kugel zu der in Tahiti liegt, dann kommt ein Punkt in der Nähe des Äquators heraus. Das heißt, der »Schwerpunkt« auf einer gekrümmten Fläche ist mehrdeutig. Aus dieser geometrischen Tatsache folgt, dass ein System im gekrümmten Raum sich bewegen kann, obwohl es von allen äußeren Einflüssen isoliert ist. Es gibt weitere Feinheiten. Aus mehreren auf einen Körper wirkenden Kräften die resultierende Gesamtkraft zu bestimmen, ist eine einfache Aufgabe im Physikunterricht. Die Schüler drücken Kräfte als Vektoren aus und zeichnen dafür Pfeile. Um zwei Vektoren zu addieren, verschieben sie die Pfeile so, dass der Anfangspunkt des einen die Spitze des anderen berührt. Im gekrümmten Raum hat das Verfahren seine Tücken: Die Richtung eines Vektors kann sich ändern, wenn man ihn einen geschlossenen Pfad entlangführt. Darum ist das Ermitteln der Gesamtkraft viel komplizierter und kann zu überraschenden Ergebnissen führen. Auf den ersten Blick ähneln manche Effekte der newtonschen Gravitation dem Raumzeitschwimmen. Zum Beispiel könnte ein Astronaut, der die Erde umkreist, seine Umlaufbahn verändern, indem er sich zu bestimmten Zeiten lang ausstreckt und dann wieder klein zusammenrollt. Doch diese newtonschen Effekte unterscheiden sich vom Schwimmen durch die Raumzeit, denn sie treten auf, weil das Schwerefeld von einem Ort zum anderen variiert. Der Astronaut muss seine Aktionen zeitlich abstimmen, wie jemand, der auf einer Schaukel sitzend Schwung holt. Er kann seinen newtonschen Orbit nicht durch schnelles Wiederholen sehr kleiner Bewegungen verändern – aber er vermag auf diese Weise durch die gekrümmte Raumzeit zu paddeln. Dass diese Möglichkeit fast 90 Jahre lang unbemerkt blieb, zeigt uns, dass wir Einsteins Theorien noch immer nicht vollständig begriffen haben. Zwar werden wir kaum demnächst ein schwimmendes Raumschiff konstruieren, aber der amerikanische Nobelpreisträger Frank Wilczek meint, Wisdoms Arbeit werfe fundamentale Fragen über das Wesen von Raum und Zeit auf. Insbesondere berühren Wisdoms Entdeckungen das uralte Problem, ob der Raum selbst ein materielles Objekt ist oder bloß ein bequemer Begriff, um Beziehungen zwischen Objekten auszudrücken. Um diese gegensätzlichen Standpunkte zu illustrieren, stellen wir uns vor, Mr Everard schwebe in einem sonst völlig leeren Universum. Ihm fehlen Sterne oder Galaxien als Bezugspunkte, mit denen er seinen Bewegungszustand beurteilen kann. Der österreichische Physiker und Philosoph SPEKTRUM DER WISSENSCHAFT · Juni 2010
Wie man über eine Kugel paddelt Das Schwimmen durch eine gekrümmte Raumzeit lässt sich verstehen, wenn man einen zweidimensionalen Außerirdischen betrachtet, der auf einer Kugel fläche lebt.
Auf die Plätze Der Schwimmer schaut nach Westen, seine Arme zeigen nach Norden und Süden, sein Schwanz weist ostwärts. Der Einfachheit halber soll die gesamte Masse des Schwimmers an den Enden seiner Glieder konzentriert sein – ein Viertel in jeder Hand und eine Hälfte in der Schwanzspitze.
Arme strecken Die Arme verlängern sich nord- und südwärts (orange Punkte markieren die Ausgangspunkte). Die gleichartige und entgegengesetzte Bewegung verschiebt den Körper nicht.
Schwanz dehnen Nun wird der Schwanz ostwärts gedehnt. Wegen der Impulserhaltung bewegen sich die Hände nach Westen. Da sie nahe bei den Polen der Kugel liegen, queren sie mehrere Längenkreise, um sich ebenso weit zu bewegen wie die schwere Schwanzspitze. Dadurch wandern die Schultern auf dem Äquator ein gutes Stück westwärts.
Arme einziehen Die Arme werden entlang der Längenkreise – die auf der Kugel Geraden entsprechen – eingezogen. Die Hände liegen nun viel weiter westlich von ihren Anfangspunkten, als die Schwanzspitze östlich von ihrem Ausgangspunkt liegt.
Schwanz einziehen Wenn der Schwanz wieder eingezogen wird, bewegen sich die Hände auf Grund der Impulserhaltung zurück nach Osten. Dennoch hat der ganze Zyklus den Schwimmer wegen der von den Händen zurückgelegten Extradistanz insgesamt ein wenig nach Westen verschoben.
Auf einer negativ gekrümmten Sattelfläche bewegt dieselbe Aktionsfolge den Schwimmer rückwärts nach Osten. Siehe die kleinen Trickfilme unter http:// physics.technion.ac.il/~avron.
39
Relativitätstheorie Ernst Mach meinte 1893, in dieser Situation hätte der Begriff Bewegung keinen Sinn. Aber selbst ein weithin leerer Raum kann gekrümmt sein, und in dem Fall könnte Mr Everard darin umherschwimmen. Demnach scheint die Raumzeit als ein virtuelles Me dium zu wirken, gegen das die Bewegung eines isolierten Körpers definiert werden kann. Auch der völlig leere Raum hat eine spezifische geometrische Struktur; das spricht für seine unabhängige Existenz. Andererseits verleiht erst Materie – oder eine andere Form von Energie – der Raumzeit ihre geometrische Struktur, die so gesehen nicht unabhängig von ihrem Inhalt ist. Diese Debatte, die bei den Versuchen, eine einheitliche Theorie der Physik zu entwickeln, erneut aufflammt, bleibt vorläufig unentschieden.
Auf den Flügeln der Zeit
Erschöpft von der anstrengenden Rückkehr zur rettenden Luftschleuse ruhte sich Mr Everard in seiner Kabine aus. Da ertönte ein Alarmsignal: Das Raumschiff stürzte auf einen massereichen Planeten ohne Gashülle
Über Newton hinaus Effekt Schon lange bevor 2003 das Schwimmen und 2007 das Gleiten durch die Raumzeit entdeckt wurden, folgerten Theo retiker aus der allgemeinen Relativitäts theorie mehrere Effekte, die kein Gegenstück in der newtonschen Gravitation haben.
gravitations bedingte Zeitdehnung
Gravitationswellen
LenseThirringEffekt Wurmlöcher
Die Bürostuhl-Pirouette Im Bereich der Erde ist die Raumzeit so flach, dass man durch relativistisches Vakuumschwimmen keine Ortsveränderung zu Wege bringt. Aber man vermag immerhin die Lage im Raum ohne Nutzung einer äußeren Kraft zu verändern, bloß mit Hilfe
●
1 Setzen Sie sich aufrecht und ohne mit den Beinen den Boden zu berühren, in einen Bürostuhl, der nicht kippt. Strecken Sie einen Arm seitwärts aus. Eine Hantel verstärkt den Effekt.
40
●
2 Schwingen Sie den gestreckten Arm im Kreis auf die andere Seite. Wegen der Erhaltung des Drehimpulses dreht sich der Stuhl in die Gegenrichtung.
der Drehimpulserhaltung – die übrigens auch erklärt, wie eine fallende Katze es schafft, auf den Pfoten zu landen. Hier zeigen wir Ihnen, wie Sie sich in der Büropause drehen können, ohne sich irgendwo abzustoßen:
3 Ziehen Sie den Arm ● möglichst radial vor die Brust.
4 Dabei wird der Stuhl ● vielleicht ein wenig zurück
rotieren, aber nicht ganz bis zur Ausgangsstellung. Durch Wiederholen der Bewegungs folge können Sie eine volle Drehung schaffen.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Astronomie & Physik
Beispiel
Erklärung
Theorie
Praxis
Ein Raumfahrer reist in die Nähe eines Schwarzen Lochs; er kehrt jünger zurück als sein daheimgebliebener Zwilling.
In einem starken Schwerefeld vergeht die Zeit langsamer.
von Albert Einstein aus seiner allgemeinen Relativitätstheorie abgeleitet
Wird technisch genutzt: Das Global Positioning System (GPS) muss den Effekt einkalkulieren.
mit Lichtgeschwindigkeit von einem Doppelsternsystem ausgehende Gravitationsschwankungen
Gravitationswellen sind Schwingungen der Raumzeitgeometrie – als würde die Raumzeit selbst periodisch gestaucht und gestreckt.
Die Gleichungen der all gemeinen Relativitätstheorie lassen Wellen zu, die aber schwer zu analysieren sind.
Ende der 1970er Jahre indirekt beobachtet: Die Umlaufperiode eines Doppelsternsystems aus Pulsar und Neutronenstern wird durch Emission von Gravitationswellen mit der Zeit kürzer. LIGO und andere Experimente sollen Gravitationswellen direkt nachweisen.
Ein erdnaher Satellit erfährt eine im Sinn der Erddrehung wirkende Kraft.
Eine rotierende Masse zieht die Raumzeit selbst ein wenig mit – wie eine in zäher Flüssigkeit rotierende Kugel.
von Joseph Lense und Hans Thirring im Jahr 1918 vorhergesagt
Im Februar 2009 bestätigten Daten des Satelliten Gravity Probe B die theoretische Vorhersage auf 15 Prozent genau.
eine hypothetische Abkürzung zwischen zwei weit entfernten Raumgebieten
Um ein Wurmloch zu bilden, müssten extrem hypothetische Energieformen eine negativ gekrümmte Raumzeit erzeugen.
Schon 1916 diskutiert; 1988 zeigten Forscher, dass die relativistischen Gleichungen durchlässige Wurmlöcher ermöglichen.
Äußerst spekulativ; die meisten Physiker glauben nicht an ihre Existenz.
zu. Für eine weiche Landung reichte der Treibstoff nicht aus. Zum Glück fiel Everard ein Artikel ein, den der mathematische Physiker Ricardo A. Mosna von der Landesuniversität Campinas (Brasilien) und ich 2007 verfasst hatten. Wisdoms Beispiel hatte uns auf eine weitere Methode gebracht, die allgemeine Relativitätstheorie zur Bewegungskontrolle zu nutzen. Nach unserer Analyse kann ein Objekt seinen Fall auf einen Planeten verlangsamen, indem es sich wiederholt asymmetrisch streckt und zusammenzieht – das heißt, die Streckbewegung muss schneller vor sich gehen als die Kontraktion. Ein entsprechend ausgerüstetes Vehikel vermag selbst im Vakuum als Raumgleiter zu funktionieren. In diesem Fall hat der Effekt nicht mit den räumlichen, sondern mit den zeitlichen Eigenschaften der Bewegung zu tun. Das offenbart einen fundamentalen Aspekt der einsteinschen Theorien: den engen Zusammenhang von Raum und Zeit. In der newtonschen Mechanik lässt sich jedes Ereignis durch drei Koordinaten für den räumlichen Ort sowie eine separate Zeitkoordinate lokalisieren. Hingegen sind Raum und Zeit in der speziellen Relativitätstheorie untrennbar verwoben. Wenn Beobachter mit unterschiedlicher Geschwindigkeit unterwegs sind, messen sie nicht die gleichen Abstände oder ZeitinterSPEKTRUM DER WISSENSCHAFT · Juni 2010
valle zwischen zwei Ereignissen, aber ihre Aussagen über eine bestimmte Kombination von Raum und Zeit stimmen überein. Somit sehen die Beobachter Raum und Zeit, jeweils für sich betrachtet, unterschiedlich – doch sie sehen dieselbe Raumzeit. In der allgemeinen Relativitätstheorie wird die Struktur der Raumzeit verzerrt; diese Krümmung nehmen wir als Gravitation wahr. Während die newtonsche Schwerkraft nur im Raum wirkt, verändert die relativistische Gravitation auch die Zeit. Diese Verzerrung von Raum und Zeit führt unter anderem zum so genannten Lense-Thirring-Effekt: Ein rotierender Körper, zum Beispiel die Erde, übt auf Objekte in der Nähe, etwa auf Satelliten, eine sehr kleine Kraft im Rotationssinn aus. Die rotierende Erde zieht gleichsam die Raumzeit ein wenig mit. Ganz allgemein beeinflusst die Bewegungsgeschwindigkeit einer Masse das von ihr erzeugte Schwerefeld. Der Lense-Thirring-Effekt und unser Raumgleiter sind Beispiele für dieses Phänomen. Wisdoms Schwimmeffekt folgt aus der nichteuklidischen Geometrie, und der relativistische Gleiter beruht auf der Untrennbarkeit von Raum und Zeit. Vielleicht bergen die unerschöpflichen Gleichungen der allgemeinen Relativitätstheorie noch weitere Überraschungen dieser Art. Dann kann sich Mr Everard auf neue Abenteuer freuen.
Eduardo Guéron lehrt angewandte Mathematik an der Bundesuniver sität von ABC in Brasilien; die ABC-Region grenzt an die Stadt São Paulo. Guéron promovierte 2001 an der Landesuniversität Campinas (Brasilien) und war von 2003 bis 2004 am Massachusetts Institute of Technology tätig. Er erforscht Gravitation, dynamische Systeme und Grundprobleme der Physik.
Guéron, E. et al.: Swimming Versus Swinging Effects in Spacetime. In: Physical Review D 73(2), 2006. Guéron, E., Mosna, R. A.: Relati vistic Glider. In: Physical Review D 75(8), 2007. Wisdom, J.: Swimming in Space time: Motion in Space by Cyclic Changes in Body Shape. In: Science 299, S. 1865 – 1869, 2003.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030082.
41
Symbiosen
Dschungel-Ameisen als Wanderhirten
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
In Kürze r Viele Ameisen »melken« Blattläuse, Schmierläuse und andere Pflanzen sauger, die so genannten Honigtau ausscheiden. Aber nur in den tropischen Feuchtwäldern Asiens entwickelte sich daraus eine symbiontische Gemeinschaft, die der von Wanderhirten und ihrem Herdenvieh gleicht. r Mit dieser ungewöhnlichen tierischen Lebensweise veränderten sich Körpergestalt, Verhalten und Fortpflanzungsweise beider Partner verblüffend zum gegenseitigen Nutzen. r Zwar entstand eine solche Wanderhirten-Symbiose zwischen Drüsenameisen und Schmierläusen offen bar nur einmal in der Evolution, doch konnte sie sich erfolgreich weiterent wickeln und verbreiten.
44
Von Ulrich Maschwitz, Martin Dill und Volker Witte
Ü
ppiger malaiischer Regenwald, über uns frisch belaubte Triebe, auf einem davon eine dichte Ansammlung von Ameisen, die eine Lage saugender Pflanzenläuse fast völlig überdeckt (siehe Foto rechts). Nichts Spektakuläres, uns Ameisenforscher aber ließ dieser Anblick stutzen – glücklicher weise. Was wir damals, vor nunmehr etwa 20 Jahren, noch nicht ahnen konnten: Wir waren auf eine bis dahin unbekannte Form zu leben gestoßen, jedenfalls unter Ameisen. Ganz unvorbereitet traf uns das Weitere allerdings nicht. Immerhin hat wohl kaum eine andere Tierfamilie eine solche Fülle unterschiedlicher Lebensweisen entwickelt wie die »staatlich organisierten« Ameisen. Schon in Lehrbüchern von Anfang des letz ten Jahrhunderts liest man über Pilzzüchter, Gärtner, Wanderjäger, Weber und Ernte ameisen, aber auch über Diebsameisen und Sklavenhalter – alles Bezeichnungen, die damals als Assoziationen zu menschlichen Lebensformen oder Untugenden gewählt wurden. So schrieb der Forstwissenschaftler und Insektenforscher Karl Escherich 1906 in seinem Ameisenbuch über die Pilzzüch ter: »Gleichwie die Menschen Kulturpflan zen ziehen, so züchten sie Produkte, die in der freien Natur gar nicht vorkommen. Die Analogie zu menschlichen Handlungen ist hier wohl am frappantesten.«
Was unsere Studienobjekte dann über die Jahre enthüllten, erinnert verblüffend an eine weitere menschliche Art zu leben: an Vieh haltende Nomaden. Menschliche Wanderhirten haben sich völlig auf die Be dürfnisse ihrer Herden eingestellt, die ihnen alles zum Leben Nötige bieten, vor allem in Form von Milch, Fleisch und Häuten. Mit ihren Biwakzelten folgen solche Gruppen dem Vieh zu immer neuen Weideplätzen. Die Wanderhirten unter den Ameisen – wie wir sie traditionsgemäß tauften – haben ih ren ursprünglich sesshaften Lebensstil in entsprechender Weise verändert, ihn ganz darauf ausgerichtet, ihren »Nutztieren« das Optimale zu bieten und bestmöglich von deren Fähigkeiten zu profitieren. Unsere tierische Ansammlung auf dem Blatttrieb schien zunächst aber in vielem dem zu gleichen, was wir in Mitteleuropa aus unseren Gärten und Wäldern kennen: Ameisen und Blattläuse finden sich dort zu einer Nähr-Schutz-Symbiose zusammen. In dieser Partnerschaft zum gegenseitigen Nutzen erhalten die Ameisen nahrhaften Pflanzensaft, den die saugenden Läuse als so genannten Honigtau ausscheiden; als Gegenleistung schützen die sozialen Insek ten ihre Lieferanten vor Räubern und Para siten (siehe Kasten S. 46). Erst die genauere Beobachtung zeigte, dass unsere Regenwaldpartnerschaft – be stehend aus einer Drüsenameise namens Dolichoderus cuspidatus und einer Schmier lausart der Gattung Malaicoccus – keine der üblichen Nähr-Schutz-Symbiosen war
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Ulrich Maschwitz
Als nomadische Viehzüchter ziehen die Wanderhirten unter den Ameisen durch die Regenwälder Südostasiens, immer auf der Suche nach frischen Weidegründen für ihre Herden spezieller Pflanzenläuse. Drei Ameisenforscher berichten über eine ungewöhnliche Symbiose.
medizin & biologie
Im Regenwald von Westmalaysia stießen die Autoren an einem Blatttrieb erstmals auf eine Versammlung von Drüsenameisen der Art Dolichoderus cuspidatus, die schützend über Schmier läusen der Gattung Malaicoccus saß. Sie entpuppte sich als bis dahin unbekannte symbiontische Lebensform, analog menschlichen Wanderhirten mit ihrem Vieh.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
45
Symbiosen
Vorwiegend Insekten wie Pflan zenläuse, Zikaden und Pflanzen wanzen erzeugen den so genann ten Honigtau. Diese Tiere, alle aus der Ordnung der Schnabel kerfen, stechen mit ihren rüssel förmigen Mundwerkzeugen das hauchdünne Röhrensystem an, über das Gefäßpflanzen ihren Nährsaft verteilen: eine wässri ge Flüssigkeit, die neben großen Mengen von Zucker, dem Primär produkt der Fotosynthese, ge ringe Anteile von Aminosäuren und anderen von der Pflanze er zeugten Verbindungen enthält. Die Insekten müssen nicht aktiv Honigtau wird über den Enddarm (hier saugen, denn der Nährsaft steht von einer Blattlaus, links) ausgeschieunter Überdruck und wird daher den. Eine Ameise nimmt ihn auf. regelrecht in ihren Magen-DarmTrakt gepresst. Daraus resorbieren die Pflanzensauger hauptsächlich Aminosäuren und scheiden das Wasser samt überschüssiger Zucker- und Restmengen der Protein bausteine über den Anus aus. Um sich nicht mit diesem Honigtau zu verschmie ren, einem potenziellen Nährboden für Bakterien und Pilze, spritzen viele Schnabelkerfe von Zeit zu Zeit einfach ihren klebrigen Enddarminhalt ab. In einem evolutionären Prozess haben nun viele Ameisen »gelernt«, sich mit Schnabelkerfen zusammenzutun und deren nährstoffreichen Honigtau aus zubeuten. Durch Betrillern, taktiles Verständigen mit Antennen und Gliedma ßen, veranlassen sie ihre Symbiosepartner, ihn direkt abzugeben. Sie nehmen die zuckrige Ausscheidung ihrer »Melkkühe« säuberlich auf und wehren auch noch Räuber und Parasiten ab. Diese Nähr-Schutz-Partnerschaft, fachlich als Trophobiose bezeichnet, ist für beide Seiten vorteilhaft und bei Wanderhirten ameisen besonders eng geworden.
Wie nennen? Tropische Insekten erhalten wegen ihrer Fremdartigkeit und des oft riesigen Arten reichtums gewöhnlich nur wissenschaftliche Namen. Dolichoderus cuspidatus, eine Drüsenameise, bedeu tet wörtlich: die Langhalsige Bestachelte. Ist wie bei vielen tropischen Schmier läusen die Art nicht klar erkennbar, wird nur die Gattung angegeben: Malaicoccus bedeutet MalaienSchildlaus.
46
Okapia / Jef Meul
Honigtau für die Nähr-Schutz-Symbiose
(siehe auch kleinen Kasten links). Stören wir in unseren Breiten eine entsprechende Versamm lung beispielsweise leicht mit einem Finger, so reagieren die jeweiligen Partnerameisen im ty pischen Fall zunächst einmal aggressiv, um sich aber bald ohne ihre Läuse davonzuma chen. Ganz anders die Wanderhirtenameisen: Schon bei einer solchen geringen Behelligung wandten sich einzelne Arbeiterinnen ihren Schmierläusen zu, zupften sie mit den Mund werkzeugen von der Unterlage ab und trugen sie umher (wie bei Bienen sind auch die Ar beitstiere der Ameisen alle weiblich). Wurde die Gemeinschaft weiter gestört, er griffen viele Ameisen das wertvolle Gut, als Erstes bevorzugt die über ameisenkopfgroßen Läuseweibchen (siehe auch Foto rechte Seite). Kleinere Läuselarven rafften sie mit nickenden Kopfbewegungen dann gleich bündelweise zusammen. Anders als etwa Blattläuse wehrten
sich die Pflanzensauger dieser Gesellschaft aber nicht gegen das Ergreifen, im Gegenteil: Sie begannen umherzulaufen und mit den Ameisen Kontakt aufzunehmen. Selbst wenn wir die Gemeinschaft nicht be unruhigten, waren auf den Straßen zwischen der Ameisenkolonie und den Saugstellen stän dig Arbeiterinnen in beiden Richtungen mit Läusen unterwegs. Diese fanden sich völlig unerwartet auch im Biwaknest selbst. Mitten im Inneren der Kolonie zwischen den anei nandergeklammerten Arbeiterinnen und der Brut saßen zahlreiche Schmierläuse aller Al tersstufen. Wie wir feststellten, werden bevor zugt trächtige Weibchen ins Nest befördert, die dort geschützt ihre Jungen lebend zur Welt bringen. Männchen sind hier weit ge hend überflüssig: Die Schmierläuse vermeh ren sich vorwiegend parthenogenetisch, also durch eingeschlechtliche Jungfernzeugung.
Almtrieb der Ameisen
Der Hauptzweck des Laustragens ist jedoch ein anderer: Das Nutzvieh wird auf diese Wei se von seinen Ameisenhirten zu neuen Weide gründen gebracht. Wer das gesamte Futter platzsystem einer Kolonie – aus manchmal vie len dutzend Futterstellen gleichzeitig – über einen längeren Zeitraum beobachtet, der kann gelegentlich einen auffälligen plötzlichen Um zug erleben. Sämtliche Saugplätze auf einer Pflanze, etwa einem kleinen Baum, werden innerhalb weniger Stunden aufgegeben. Das Ganze vollzieht sich ganz geordnet. Die Fut terstellen werden zwar praktisch gleichzeitig geräumt, aber nicht alle Läuse immer gleich an eine neue getragen. Bei einer Großaktion setzen die Transporteure die aufgenommenen Läuse zunächst in größeren Zwischenlagern ab, etwa auf einem großen toten Blatt am Bo den. Dort nun wartet die Herde, bewacht von dazwischensitzenden Arbeiterinnen, auf ihren Abtransport zu neuen Weidegründen. Wie ist dieses verblüffende und bei Amei sen einzigartige Geschehen zu verstehen? Wa rum werden alte Futterstellen aufgegeben? Was löst den gemeinsamen Aufbruch aus? Wie werden neue Weideplätze gefunden und in der Qualität geprüft? Zur Klärung dieser Fragen haben wir über längere Zeit viele Kolonien verfolgt und dabei aufschlussreiche Einzelheiten entdeckt. So saugen die Läusepartner der Wanderhirten, anders als viele ihrer Verwandten, an höchst unterschiedlichen Pflanzen: An fast 200 Arten aus 57 Familien und 38 Ordnungen ha ben wir sie inzwischen gefunden, darunter an Hahnenfußgewächsen, Hülsenfrüchtlern und Korbblütlern ebenso wie an Bambus und Palmen. Sogar an Nichtblütenpflanzen, so an SPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie verschiedenen Farnen, entdeckten wir sie mit ihren Ameisen. Ob Bäume, Sträucher, Lianen oder krautige Pflanzen – angezapft werden dabei Blätter und Sprosse ebenso wie Knos pen, Blüten oder Früchte. Alle besaugten Pflanzenteile haben aber eines gemeinsam: Sie sind ausnahmslos jung und wachsen oder rei fen noch, gleichgültig, ob es sich um Blätter, Sprosse oder Früchte handelt. Daraus erschließt sich sofort der Sinn des Futterpflanzenwechsels und der Suche nach stets frischen Weideplätzen. Die Läuse be kommen so immer den Nährsaft junger, noch wachsender Pflanzenteile geboten, der neben Kohlenhydraten vergleichsweise mehr an Aminosäuren (Proteinbausteinen) und ande ren lebenswichtigen Stoffen enthält. Dadurch produzieren die Pflanzensauger ihrerseits ei nen relativ nährstoffreichen Honigtau – ge haltvoll genug, um den Ameisenpartnern als vollwertige alleinige Nahrung zu dienen. Die Wanderhirten konnten daher jede Suche nach irgendwelchen anderen Proteinquellen aufge ben. Wir sahen sie nie gezielt nach Beute ja gen – wie es verwandte Ameisen tun, die zwar Honigtau fressen, aber nicht als nomadische Hirten leben. Nicht einmal die Umgebung ihrer Straßen oder Futterplätze suchten sie auf sonst Nutzbares wie etwa das proteinreiche Gelege eines Käfers ab. Zufallsfunde ver schmähen sie aber nicht. Eine alleinige Ernährung mit hochwerti gem Honigtau setzt einen Lebensraum vo raus, der das ganze Jahr über wechselnde fri sche Weidegründe bietet, an die sich das »Vieh« bringen lässt. Nur die immerfeuchten tropischen Wälder kommen dafür in Frage: Hier gibt es keine klar getrennten Jahres
Erfolgreiche Verbreitung
e
s
M
e
e
r
Die verschiedenen Arten von Wanderhirtenameisen verteilen sich zusam mengenommen über einen riesigen Raum in Südostasien. Er reicht von Sikkim weit im Norden in der Himalajaregion bis nach Java südlich des Äquators und von Vietnam bis zu den Inseln westlich vor Sumatra. Weder haben sie aber Vorderindien erreicht noch nach Osten die biogeografisch markante Linie überschritten, welche den asiatischen vom australischen Faunenbereich trennt. Die höchste Artenvielfalt 1 herrscht auf der Insel Borneo, wo allein am über 4000 Meter hohen Kinabalu-Massiv sechs 1 Wanderhirtengemeinschaften 1 vorkommen, mit jeweils einer anderen Ameisenart und Läuse 3 gattung. Fünf davon teilen sich einen gemeinsamen Lebensraum h 1 c s i in der unteren Region. Die sechs s e te lebt hoch in den Bergen, wo in h c sie in die Nebelwaldzone bis d ü S über 2000 Meter aufsteigt – 2 dort sind sonst kaum noch ande M a l a y s i a 7 re Ameisen zu finden. 4 Nach Süden und Norden d i I s nimmt die Zahl der Wanderhir n c h d e o n tengemeinschaften ab. Nie kom r e s i e n O z men sie außerhalb von immer e a 1 n grünen tropischen Feuchtwäl dern vor. In den Monsunzonen Nord- und Zentralthailands mit ihren laubwerfenden Tiefland Wanderhirtenameisen kommen nur in wäldern leben die Wanderhirten immergrünen tropischen Feuchtwäldern darum nur in den regenreicheren Südostasiens vor – mit der höchsten Bergregionen mit ihrer artenrei bekannten Artenzahl (Ziffern) in Borneo, ihrem mutmaßlichen Ursprungszentrum. chen, immergrünen Flora. I
Spektrum der Wissenschaft / Emde-Grafik, nach: Maschwitz und Dill
n
Sorge fürs Vieh
Martin Dill
Die Schmierläuse werden bei Gefahr ab transportiert und auf diese Weise auch zu neuen Futterstellen gebracht. Eine Arbeiterin, hier der verwandten Ameisenart Dolichoderus tuberifer, hat mit ihren zangenartigen Kiefern ein großes Schmierlausweibchen (Malaicoccus) aufgenommen. Dieses legt dabei Beine und Fühler an den Körper an.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
47
Symbiosen
Mehrere Arten von Drüsen ameisen haben sich auf das Wanderhirtentum spezialisiert, und jede hält sich ihre Sorte Vieh. Alle aber legen keine festen Nestbauten mehr an, sondern nur mobile Biwaknester. Diese bestehen aus aneinandergeklammerten Arbeiterinnen, ähnlich einem Bienenschwarm.
beide Fotos: Martin Dill
Neue Völker entstehen bei Wanderhirten ebenfalls eher nach Honigbienenart. Das Ameisenvolk teilt sich und sein Vieh zwischen Jung- und Altkönigin auf, und jeder Teil zieht seines Wegs. Die große Königin, hier der thailändi schen Art Dolichoderus erectilobus, ist selbst als Jungtier flügellos wie die Arbeiterin.
zeiten, zugleich ist die Pflanzenwelt extrem artenreich. Während beispielsweise die Laub bäume unserer Breiten einmal im Frühling zu gegebener Zeit ergrünen und blühen, im Sommer und Herbst fruchten und dann Laub abwerfen, hat fast jede der Tausende von Baum- oder Lianenarten ihren eigenen Zy klus, der überdies teilweise von Jahr zu Jahr variiert. Damit entsteht im tropischen Regen wald ein hochdynamisches, permanent wech selndes Mosaik an potenziellen Futterstellen – und dies nutzt die Wanderhirtengemeinschaft effektiv aus. Mit ihrem ausgesprochen mobi len Wechsel von Futterplatz zu Futterplatz hat sie sich eindrucksvoll an die sehr speziellen
ökologischen Besonderheiten des tropischen Regenwalds angepasst – die überwältigende Fülle verschiedenster Pflanzenarten und deren klimatisch bedingte Wachstumseigenheiten. Anders gesagt: Der Regenwald in der Gesamt heit seiner Vegetation ist sozusagen die ökolo gische Nische dieser faszinierenden Symbiose gemeinschaft. Wenn für Blattläuse in unserer Klimazone die Austriebsphase ihrer Baumwirte endet und damit der Aminosäuregehalt des Nährsafts sinkt, lösen sie das Problem auf ihre Weise. Die flügellosen Frühjahrsläuse, die auf jungen Trieben und Blättern von Holzgewächsen sau gen, erzeugen eine neue, nun geflügelte Gene ration. Diese wechselt fliegend, ohne die Hilfe von Partnerameisen, im Sommer zu jetzt wachsenden krautigen Pflanzen, um dann im Herbst wieder mit einer weiteren geflügelten Generation zur Eiablage zu den Bäumen zu rückzukehren. Verständlicherweise sind schon wegen der jahreszeitlichen Schwankungen hier keine dauerhaften Nähr-Schutz-Partner schaften mit Ameisen möglich, und daher fehlt ein Wanderhirtentum. Ähnliches gilt aber auch für die tropischen Wälder in der Monsunzone Asiens, die in der Trockenzeit synchron ihr Laub abwerfen. Für die Ameisenwanderhirten stellt sich in der kaum überschaubaren Pflanzenvielfalt eines Feuchttropenwalds allerdings das Pro
48
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie blem, immer wieder neue geeignete Stellen für ihr Vieh zu finden und diese den Mitglie dern des Volks anzuzeigen. Wie bei Ameisen üblich hinterlassen sie Duftspuren, die zu nächst einmal als Ariadnefaden für den spä teren Rückweg dienen. Die Tiere krabbeln, wie die Untersuchungen zeigten, bis an die Spitzen von Zweigen und setzen mitgetragene Läuse dort probeweise ab. Diese versuchen nun zu saugen. Gelingt ihnen das nicht oder nur schlecht, werden sie bald wieder auf genommen und weitergetragen. Liefern die Pflanzensauger jedoch guten Honigtau, so re krutieren die Hirtinnen weitere Trägerinnen mit Läusen, und binnen Kurzem ist eine neue Saugstelle etabliert. Dank dieser Strategien können Arbeiterinnen der Wanderhirten rasch ein neues Straßen- und Futterplatzsystem an legen, das sich wie ein Netz immer weiter über die Vegetation spinnt.
Mit Kind und Laus unterwegs
Eine Art Mitgift aus Partnerläusen ist bei Nichtwander hirten nur in zwei Fällen bekannt, so bei der unterirdisch lebenden tropischen Ameisengattung Acropyga. Die allein ausschwärmenden Jungköniginnen nehmen zur Gründung einer neuen Kolonie eine Partnerlaus in ihren Mundwerkzeugen mit (diese Läuseart saugt an Wurzeln) – schon zu sehen bei einer 10 bis 20 Millionen Jahre alten geflügelten Acropyga-Königin in einem Bernsteinstück von der Dominikanischen Republik.
Sven Tränkner; mit frdl. Gen. von Martin Dill
Wie schon angedeutet, haben die tierischen nomadischen Viehhalter mit ihrer nichtsess haften Wohnweise auch jeglichen dauerhaften »Hausbau« aufgegeben (siehe Foto linke Seite oben). Die Nester von Dolichoderus cuspidatus sind keine Bauten, sondern gut organisierte Biwakgebilde: Sie bestehen aus einem durch tunnelten Klumpen aneinandergeklammerter Arbeiterinnen, der in seinem Inneren Brut,
zahlreiche Läuse und die Königin birgt. Diese Biwaknistweise kennen wir sonst nur von den als Wanderjäger lebenden Treiberameisen und den jüngst von uns entdeckten Pilzsammlern. Die bis zu fußballgroßen Nestklumpen der Wanderhirten können überall eingerichtet werden: zwischen Ästen und Blättern im Kro nenbereich von Bäumen ebenso wie im dür ren Laub am Boden oder hängend in Erdhöh len oder Wurzellöchern. Sind frische Weide plätze zu weit vom alten Biwaklager entfernt, bricht das ganze Volk seine Zelte ab und zieht mit »Kind und Laus« in die Nähe. Das Ganze geschieht so geordnet und effektiv, dass der Massenumzug in wenigen Stunden abge schlossen ist. Die nomadische Lebensweise dieser Hirten erforderte offensichtlich auch eine grund legend andere Art, neue Staaten zu gründen und die Symbiose aufrechtzuerhalten. Bei verwandten, aber nichtnomadischen Drüsen ameisen fliegen die jungen, geflügelten Köni ginnen zum Hochzeitsflug aus und gründen – nach erfolgreicher Kopulation mit ebenfalls schwärmenden Männchen – an einer ge schützten Stelle allein einen neuen Staat. Hierzu zieht jede aus ihren ersten Eiern zu nächst eine kleine Anzahl von Arbeiterinnen heran, gefüttert mit Drüsensekret und zerkau ten Eiern. Diese Jungarbeiterinnen suchen dann neue wechselnde Lauspartner zum Mel
SPEKTRUM DER WISSENSCHAFT · Juni 2010
49
Symbiosen
Tragen lassen oder …
Fotos: Martin Dill
Wanderhirten verfrachten ihre jeweilige Partnerläuse immer wieder zu frischen Weide plätzen. Die meisten dieser Schmierlausarten haben besondere Hilfsstrukturen und/oder Verhaltensweisen entwickelt, die das Ganze erleichtern. Noch keine Tragestrukturen besit zen beispielsweise die urtümlichen, behaarten Archeomyrmococcus-Läuse. Ihre Partnerameise (Dolichoderus furcifer) ergreift sie einfach be liebig (oben). Reife weibliche Malaicoccus- Läuse sind sehr groß, ihr Kopf ist aber vorn zu einer Art Henkel ausgezogen und verfestigt. Daran kann ihre Partnerameise (hier Dolichoderus cuspidatus) sie packen (Mitte). Andere Schmierlausweibchen, wie die der Gattung Bolbococcus auf Borneo, haben stattdessen ein verjüngtes Körperende als Griff. Die helle Laus sitzt unterseits am Kopf ihrer Ameise (Dolichoderus kinabaluensis) und umklammert dabei deren Hals (unten).
50
ken, die von derselben, aber auch von einer anderen Art wie in der Vorläufergeneration sein können. Die jeweiligen symbiontischen Läuse verbreiten sich in diesen Fällen unab hängig von den Ameisen. Bei den Schmier läusen beispielsweise lassen sich die winzigen, flügellosen Erstlingslärvchen vom Wind ver breiten, um mit Glück von neuen Ameisen partnern gefunden und adoptiert zu werden. Ganz anders die Wanderhirten: Sie trennen sich selbst bei der staatlichen Neugründung nie von ihren Schmierlauspartnern. Beide Par teien sind strikt aneinander gebunden und ohne die jeweils andere nicht dauerhaft le bensfähig. Experimentell woanders ausgesetz te Läuse beispielsweise irren auf der Suche nach ihren Ameisenpartnern so lange umher, bis sie, ohne von anderen Ameisen adoptiert zu werden, schließlich zu Tode kommen. Königinnen der Wanderhirten gründen auch nicht auf sich allein gestellt eine neue Kolonie. Sie haben ihre Flügel reduziert, äh neln insofern im Körperbau Arbeiterinnen, und schwärmen nicht mehr (siehe Foto S. 48 unten). Eine Mutterkolonie mit einer Alt- und einer Jungkönigin spaltet sich einfach in zwei Teilvölker auf, und jedes geht dann seiner Wege. Die Läuse werden dabei gleichfalls aufgeteilt. Erst ein solch direkter Modus der Lausübertra gung ermöglicht überhaupt ein permanentes Zusammenleben beider Symbiosepartner. Zumindest eine Art Mittelding zwischen beiden Strategien war zuvor nur von zwei an SPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie deren Ameisengruppen bekannt. Dort nimmt jede Königin vor dem Hochzeitsflug eine Laus mit (siehe Foto S. 49). Uns stellte sich natürlich sogleich die Fra ge, ob die Symbiose der von uns zuerst beobachteten Drüsenameise mit ihren MalaicoccusSchmierlauspartnern nur eine bizarre Einzel kuriosität innerhalb ihrer Verwandtschaft war. Wir vermuteten in dieser hoch spezialisierten Lebensweise aber eher das Ergebnis einer lan gen Reihe von Evolutionsschritten und erwar teten dementsprechend noch existierende ver wandte Formen und eventuelle Vorstufen. Deshalb gingen wir dreigleisig vor: Wir durchforsteten die Fachliteratur zu Ameisen und Schmierläusen nach Hinweisen, durch suchten Ameisensammlungen nach morpho logisch ähnlichen Arten und bereisten das tro pische Asien kreuz und quer, um in den Wäl dern nach weiteren Wanderhirten zu fahnden.
Mulis im Museumsmaterial
Vor allem die Exkursionen waren unerwartet erfolgreich – und so wissen wir jetzt, dass eine ganze bis dato verborgene Welt von Wander
hirten-Symbiosen existiert. Insgesamt sind in zwischen elf verschiedene Wanderhirten-Laus gattungen mit 36 Arten beschrieben. Sie ge hören alle in eine einheitliche Verwandt schaftsgruppe innerhalb der Ordnung der Schmierläuse, sehen aber wegen ihrer extrem engen Symbiose mit den Partnerameisen kaum noch wie typische Schmierläuse aus. Zur Lebensform Wanderhirte rechnen wir mittlerweile 15 verschiedene Ameisenarten, alle aus der Gattung Dolichoderus. (Eine ver breitete Art kann sich je nach Unterregion eine etwas andere Sorte Vieh halten, daher die un gleichen Zahlen.) Unter getrocknetem Muse umsmaterial, das teilweise aus dem vorletzten Jahrhundert stammt, trugen einige Exemplare sogar noch immer Läuse zwischen ihren Kie fern. Alle körperlichen und verhaltensbiolo gischen Merkmale lassen darauf schließen, dass das Wanderhirtentum nur einmal in der Evo lution entstand und dass sein Erfolg dann zu einer umfangreichen Auffächerung von Arten mit dieser Lebensform führte. Heute verteilen sich die Symbiosegemeinschaften der Wander hirten auf einen geografisch riesigen, aber zu
Manche Schmierlausarten nutzen ihre Partnerameisen als Reittiere, so auf Java das rötliche Weibchen von Hippeococcus sei ne Drüsenameise Dolichoderus gibbifer (oben). Auf Borneo ist die gelbe Larve einer Doryphorococcus-Laus zum Reiten unter die Vorderschenkel ihrer Partner ameise gekrochen und daher kaum zu erkennen (unten). Ein erwachsenes dunkelrotes Exem plar umklammert fest die Kopf unterseite der Trägerin (Dolichoderus magnipastor).
Martin Dill
Ulrich Maschwitz
... reiten?
SPEKTRUM DER WISSENSCHAFT · Juni 2010
51
Symbiosen sammenhängenden Raum in Südostasien mit seiner Inselwelt (siehe Kasten S. 47 oben). In ihm sind sie sicherlich auch entstanden. Die einzelnen Wanderhirten-Ameisenarten unterscheiden sich alle recht wenig in ihrer Körperform, in ihrem Grundverhalten und in ihren ökologischen Einpassungen, selbst wenn die Tiere im selben Gebiet leben. Allenfalls sind manche Spezies auf Bergwälder speziali siert oder in ihren Aktivitätszeiten oder ihrer Volksgröße verschieden. Und alle bislang un tersuchten Arten mit Wanderhirtentum zei gen dessen wesentliche Elemente. Die Details aber offenbaren eine erstaunliche Variations breite, gerade bei den Verhaltensmustern, die auf die Partnerläuse ausgerichtet sind. Parade beispiel hierfür ist die Transportweise, die sich
in wechselseitiger Evolution zur Gestalt und zum Verhalten der Partnerläuse herausbildete (siehe Kasten unten). Denn anders als ihre Ameisenpartner un terscheiden sich die verschiedenen Gattungen der Wanderhirten-Schmierläuse ganz erheblich in ihrer Körperform – und werden entspre chend auch anders ergriffen und transportiert. Die vermutlich urtümlichsten Gattungen – als Archeomyrmococcus (wörtlich »Ur-AmeisenSchildlaus«) und Promyrmococcus (»Vor-Amei sen-Schildlaus«) bezeichnet – ähneln ihren Vettern in der Schmierlausverwandschaft noch am meisten. Sie sind überall dicht und lang behaart und erzeugen am Hinterleib noch ge ringe Mengen des weißlichen Wachssekrets, das für diese Gruppe der Pflanzenläuse ty
Tragestrukturen und Reitpositionen Die verschiedenen Transportweisen haben sich in wechsel seitiger Evolution zur Gestalt und zum Verhalten der Partnerläuse ausgebildet. Die wichtigsten sind hier nach Feldbuchskizzen mit einem Beispiel dargestellt.
Ursprüngliche, nicht festliegende Trageposi tion: Die Läuse besitzen keine Tragestrukturen und werden von den Ameisen an den unterschiedlichsten Stellen in beliebiger Ausrichtung ergriffen (Beispiel: Archeomyrmococcus).
Kopf Hinterende
Reiten statt tragen lassen: Junge und reife Läuse erklettern dazu entweder Kopf oder Mittelstück ihrer Ameise (Beispiel: Hippeococcus; links) oder wählen eine besonders geschützte Stelle zwischen Vorderschenkel und Brust (Beispiel: Doryphorococcus; rechts).
52
Abgesetztes versteiftes Hinterende, verjüngt und verlängert: Die Laus wird entweder vor dem Kopf ihrer Partnerameise getragen (Beispiel: Borneococcus; links) oder unter ihm, dann aber mit dem eigenen Kopf nach hinten. Manche Arten umschlingen dabei mit ihren Beinen den Hals der Arbeiterin (Beispiel: Bolbococcus; rechts).
Ulrich Maschwitz
Abgesetzte Kopfregion als Tragestruktur: Sie ist durch Verfesti gung (rot) des »Hautpanzers« versteift (Beispiel: Malaicoccus).
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie
Mediacolors / Peters
Wo der südostasiatische Regenwald Plantagen, etwa Ölpalmen, weichen muss, können Wanderhirtenameisen nicht überleben.
pisch ist. Ihre Partnerameisen packen mit den Kiefern die Tiere einfach so, wie es gerade kommt (siehe Foto S. 50 oben). Diese ursprüngliche lange Körperbehaa rung und die Fähigkeit, Wachs auszuscheiden, ging bei anderen Gattungen mehr und mehr verloren. Stattdessen entwickelte ihr Körper re gelrechte Tragestrukturen, an denen die Amei sen die Lausweibchen packen können. Die Gattung Malaicoccus etwa wartet mit einem »Tragekopf« auf; ihre Kopfregion ist durch eine dicke äußere Kutikula verstärkt und vorn vom restlichen Körper abgesetzt (siehe Foto S. 50 Mitte). Typisch für andere Lausgattungen sind Tragegriffe aus schwanzförmig verlängerten und verjüngten Körperendigungen, die eben falls gut versteift sind (siehe Foto S. 50 unten). Dies erleichtert den Transport der Symbiose partner und schützt sie vor Verletzungen.
Läuse mit Eigeninitiative
Hinzu kommt eine zweite Entwicklungsten denz. Wie schon bei Malaicoccus erwähnt, be teiligen sich die Läuse auch aktiv an ihrem Transport: Sie verlassen bei einer Störung selbstständig den Saugplatz, um Kontakt mit ihren Ameisen zu suchen und dann eventuell sogar an ihnen emporzuklettern. Dabei wer den sie von Arbeiterinnen mit den Kiefern aufgenommen. Bei anderen Lausgattungen ist diese Eigeninitiative noch stärker ausgeprägt – und die Läuse reiten nun regelmäßig aktiv auf den Ameisen zum neuen Zielort (siehe Foto S. 51 oben), oft zu mehreren. Die wohl eigenartigste Variante dieses Reit verhaltens ist das »Schenkeltragen«. Hier er kennt man von außen nur mit großer Mühe, dass Läuse transportiert werden. Die hier vergleichsweise kleinen Lauspartner kriechen nämlich an den Ameisenbeinen empor und verbergen sich zum Transport unter den brei ten Schenkeln an der Unterseite der Arbei SPEKTRUM DER WISSENSCHAFT · Juni 2010
terinnen. So sind sie zugleich gegen Verlet zungen und gegen versehentliches Abstreifen oder Abrutschen geschützt (siehe Foto S. 51 unten). Wenn sich zwei kooperierende Organis men mit ganz unterschiedlichen, aber einan der ergänzenden Fähigkeiten – wie in den Wanderhirtengemeinschaften – gemeinsam im gegenseitigen Wechselspiel entwickeln, sprechen Fachleute von Koevolution. Sie ver läuft dann besonders innovativ und erfolg reich, wenn beide sich ausschließlich und kontinuierlich aufeinander einstellen können, ohne zeitweilige Trennung und ohne nötige Kompromisse mit weiteren, biologisch an dersartigen Partnern. Dies ist bei den Hirten ameisen und ihren Schmierlauspartnern der Fall. Das dürfte der Grund sein, warum sich in keiner anderen Ameisen-Nährsymbiose die Eigenschaften und Fähigkeiten der Partner derart eng und wirkungsvoll aufeinander ab gestimmt entwickeln konnten. Wanderhirten und ihren Lauspartnern wird ihre ökologische Nische – die immergrünen südostasiatischen Regenwälder – nun aber zum Verhängnis. Wer sich wie sie auf deren pflanzliche Artenvielfalt spezialisiert hat, wird verschwinden, sobald diese gestört oder gar vernichtet wird. Tatsächlich sind etwa auf der malaiischen Halbinsel in den letzten 30 Jah ren die größten Bereiche abgeholzt und in Monokulturen aus Ölpalmen umgewandelt worden. Selbst im Evolutionszentrum unserer Wanderhirten, der Insel Borneo (siehe Kasten S. 47 oben), schreitet die Waldvernichtung in den letzten Jahren rasant voran. Der zynische Kommentar dazu auf den Schildern der Plan tagenbesitzer lautet: »We green the earth« (Wir begrünen die Erde). Nach Wanderhirten und anderen Regenwaldspezialisten sucht man in zwischen in dieser von Menschen geschaffe nen grünen Wüste vergebens.
Ulrich Maschwitz (oben), bis 2003 Professor an der Johann Wolfgang Goethe-Universität Frankfurt am Main, erforschte mit seinen vielen Schülern vor allem das Verhalten und die Ökologie Staaten bildender Insekten, hauptsächlich von Ameisen der tropischen Regenwäl der Asiens. Dorthin führen ihn noch immer Expeditionen. Martin Dill (unten links) befasste sich bereits in seiner Diplomarbeit mit Ameisen symbiosen im tropischen Asien und promovierte in Frankfurt über Verhalten, Ökologie und Systematik der südostasiatischen Wander hirtenameisen. Inzwischen ist er als IT-Manager in der freien Wirtschaft tätig. Volker Witte, promovierter Biologe, untersucht an der LudwigMaximilians-Universität in München die chemische Ökologie von Ameisen. Seit seiner Diplomarbeit in Frankfurt hat er zahlreiche Forschungsreisen nach Malaysia unternommen.
Dill, M., Williams, D. J., Maschwitz, U.: Herdsmen Ants and Their Mealybug Partners. In: Abhandlun gen der Senckenbergschen Naturfor schenden Gesellschaft Frankfurt/M, 557, S. 1–373, Stuttgart 2002. Hölldobler, B., Wilson, E. O.: Ameisen. Die Entdeckung einer faszinierenden Welt. Birkhäuser, Basel 1995. Hölldobler, B., Wilson, E. O.: Der Superorganismus. Springer, Heidelberg 2009.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030084.
53
Anthropologie
Gene der
Neandertaler Analysen des Neandertalererbguts glätten manchen Streit unter Forschern. Nur einige Gene aus der weit zurückliegenden gemeinsamen Vorzeit gleichen den unseren – so weit der Stand der Forschung in diesem Artikel.
Aktuell Kurz vor Drucklegung erreichte uns die Meldung: Moderne Menschen und Neandertaler haben sich doch vermischt. Bei einigen modernen Menschen Euro pas und Asiens hinterließen die Neandertaler genetische Spuren.
In Kürze r Genetische Analysen liefern erste Hinweise auf die Geschichte der Ne andertaler sowie auch auf einige ihrer Merkmale. r Die Neandertaler besiedelten ein riesiges Gebiet, das sich quer über Europa und bis weit nach Innerasien erstreckte. Allerdings war ihre Zahl klein, somit ihre Popula tionsstärke gering. r Die Abstammungslinie, aus der die Neandertaler hervorgingen, trennte sich von der des modernen Menschen vor über 400 000 Jahren.
54
Von Anna Degioanni, Virginie Fabre und Silvana Condemi
G
espannt warten wir alle auf die erste vollständige Sequenzierung des Genoms von Neandertalern. Es dürfte nicht mehr lange dauern, bis die Welt mehr darüber erfährt, was uns genetisch von diesen Menschen trennt – und was nicht. Der Paläogenetiker Svante Pääbo und sein Team am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig sind dabei, das Zellkern-Genom – die so genannte Kern-DNA – des Neandertalers komplett zu entziffern (siehe auch: Porträt Svante Pääbo, SdW 11/2008, S. 116). Vielleicht legen die Forscher schon in diesen Monaten die erste komplette Version davon vor. Daten zu 60 Prozent jenes Erbguts konnten sie bereits vor über einem Jahr bekannt geben. Vor zwei Jahren gelang es, eine andere DNA der Neandertaler ganz zu erfassen: ihr mito chondriales Genom. Michochondrien sind Zellorganellen mit einem gesonderten Erbgut, die gewissermaßen als Kraftwerke der Zellen fungieren. Dieses Genom wird nur über Frauen mit den Eizellen weitervererbt. Aber auch mehrere Gene aus dem Zellkern von Neandertalern kennen wir inzwischen, die interessante Einblicke lieferten. Alle Rätsel um diese Ureuropäer werden solche Studien sicher lich nicht lösen können. Bisher erbrachten sie immerhin vier wichtige Erkenntnisse, die wir hier darstellen wollen. Als erstes Hauptergebnis möchten wir den tatsächlich beträchtlichen genetischen Abstand zwischen uns, also dem so genannten modernen Menschen (Homo sapiens), und
dem Neandertaler (Homo neanderthalensis) nennen. Die Genetiker ermittelten ihn sowohl durch Analysen einzelner Gene aus dem Zellkern als auch durch Vergleiche von Sequenzen der Mitochondrien-DNA. Das mitochondriale Genom bildet einen Ring aus fast 16 000 so genannten Basenpaaren, den Bausteinen der DNA. Es war schwierig, aus Neandertalerknochen überhaupt konservierte DNA-Reste zu gewinnen, die sich zur Sequenzierung eigneten. Als Erstes gelang Forschern im Jahr 1997 die Entzifferung eines 379 Basenpaare langen Fragments. Es stammte vom wohl berühmtesten Neandertaler, dem ersten – auch namensgebenden – Fund, auf den die Fachwelt aufmerksam wurde: die etwa 42 000 Jahre alten menschlichen Überreste aus der Kleinen Feldhofer Grotte im Neandertal bei Düsseldorf, die Arbeiter 1856 entdeckten. (Einige andere Neandertalerfossilien waren andernorts schon Jahrzehnte vorher aufgetaucht, doch damals erkannte noch niemand ihre Bedeutung.) Insgesamt lagen schließlich von einem Dutzend Fragmenten des Mitochondriengenoms Sequenzen vor, insbeson dere auch von anderen Neandertalern. Solche Untersuchungen erfordern größte Akribie und einen ungewöhnlich hohen Laboraufwand, denn für den genetischen Aufschluss wird das Erbmaterial zunächst mit speziellen Enzymen vervielfältigt. Allzu leicht gerät dabei fremde DNA dazwischen, was die Ergebnisse verfälscht. Sie kann von früheren Verunreinigungen der Fossilien durch Menschen oder Tiere bis hin zu Bakterien stammen, aber auch von Labormitarbeitern. Gerade Kontaminationen mit DNA von heutigen Menschen sind bei solchen Analysen jedoch SPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie
Neandertalerinnen gehören wohl nicht zu unseren Vorfahren. Falls es überhaupt Mischlingskinder gab, so haben sich die Genspuren offenbar nicht erhalten.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Benoit Clarys
unbedingt zu vermeiden. Im Jahr 2004 fand eine Gruppe um David Serre am Leipziger Institut einen Weg, gezielt allein Neandertalererbgut zu vervielfältigen beziehungsweise herauszufischen. Sie nutzte spezielle Erkennungssequenzen, also praktisch genetische Sonden, die nur bei Neandertalern vorkommen. Im Jahr 2008 war es so weit. Die Forscher hatten ein Mitochondriengenom eines Neandertalers komplett entziffert. Er stammte aus Vindija in Kroatien. Im Jahr darauf gelang Gleiches mit Proben von anderen Individuen: darunter zweien aus dem Neandertal, einem weiteren Neandertaler aus Vindija, einem aus der Mezmaiskaya-Höhle im Nordosten des Schwarzen Meers in Südrussland sowie einem aus der El-Sidron-Höhle in Nordspanien. Der Vergleich dieser Sequenzen miteinander und mit dem Mitochondriengenom heutiger Menschen ergab: Neandertaler der verschiedenen Regionen waren einander zumindest hinsichtlich jener DNA sehr ähnlich – bei einer großen evolutionären Distanz zum modernen Menschen. Deutlich wurde dabei erwartungsgemäß auch, dass uns die Neandertaler genetisch viel näherstehen als den Schimpansen, also unsere Vorgeschichte eine Zeit lang geteilt haben müssen. Im Grunde untermauern die Befunde, was Paläoanthropologen aus den Fossilien geschlossen hatten. Dieses generelle Bild bestätigen die neueren Studien zur DNA des Zellkerns. Zudem erlauben sie weitere Differenzierungen. Als wichtiges Datum gilt hierbei der November des Jahres 2006. Damals veröffentlichten eine deutsche (vom Leipziger Max-Planck-Institut) 55
Anthropologie
Ein Gen, das die Ausbildung von Sprache unterstützt, kodiert für ein identisches Protein wie bei uns
Benoit Clarys
Der kulturelle Wissensschatz der Neandertaler ist nicht zu unterschätzen. Sie besaßen sicherlich auch eine Sprache.
56
und eine amerikanische Gruppe (vom U. S. Department of Energy Joint Genome Institute in Walnut Creek, Kalifornien) erstmals Daten von längeren Sequenzen von Neandertaler-Kern-DNA. Beide Teams hatten sich Erbgut desselben Individuums vorgenommen, eines Neandertalers aus Vindija. Sie benutzten aber unterschiedliche Verfahren.
Hinweise auf Sprachvermögen
Den Leipziger Forschern gelang mit einer neu en, hocheffektiven Vervielfältigungsmethode die Sequenzierung einer Anzahl Fragmente, die insgesamt über eine Million Basenpaare umfassten. Die einzelnen Teilstücke konnten sie Abschnitten auf den Chromosomen des modernen Menschen zuordnen, wobei sie Übereinstimmungen von 99,5 Prozent mit dem jeweiligen Pendant feststellten. Mit einer anderen Methode, die auf Gene abzielte, sequenzierten die amerikanischen Paläogenetiker fast 65 000 Basenpaare. Sie fischten aus einer so genannten Genbibliothek, die sie vorher über Neandertaler angelegt hatten, Abschnitte heraus, die zu Gensequenzen vom modernen Menschen passten. Auf diese Weise erhielten sie von 29 Neandertalergenen Teilsequenzen. Sie fanden auch Fragmente vom Y-Chromosom. Demnach stammten jene Vindija-Proben von einem männlichen Neandertaler. Nach den bisherigen Aufschlüssen zeigt die Kern-DNA von Neandertalern manche Gemeinsamkeiten, aber auch interessante Unterschiede zu der des modernen Menschen. So haben Wissenschaftler seit 2007 die kodierenden Abschnitte von vier Genen entziffert, über deren Funktion einiges bekannt ist. Das erste davon nennen Genetiker FOXP2. Uns nützt dieses Gen bei der Ausbildung des Sprechens und Sprachverständnisses. (Sein Pro-
tein hat übergeordnete Aufgaben in der Entwicklung.) Menschen mit einem defekten FOXP2-Gen haben sprachliche Schwierigkei ten. Das entsprechende Neandertalergen kodiert für ein identisches Protein wie bei uns. Früher schon hatten Rekonstruktionen der Großhirnrinde anhand von Schädelfossilien angedeutet, dass die Neandertaler anscheinend sowohl ein Broca- als auch ein Wernicke-Areal besaßen, also die bei uns für Sprachproduktion und -verständnis entscheidenden Zentren. Anatomische Untersuchungen zum für die Lautbildung wichtigen Zungenbein (ein dünner, gebogener Knochen hinten unter dem Zungenansatz) und zur Lage des Kehlkopfs ließen überdies kaum Zweifel daran, dass die Neandertaler Sprachlaute zu artikulieren vermochten. Die Entdeckung vom FOXP2-Gen erhärtete dies: Höchstwahrscheinlich konnten die Neandertaler sprechen. Das zweite Neandertalergen aus dem Zellkern heißt MC1R (Melanocortin-1-Rezeptor). Es kodiert in Pigmentzellen für einen Membranrezeptor, der sie veranlasst, so genanntes Eumelanin zu bilden, schwarzes oder braunes Pigment. Wenn der Rezeptor auf Grund von Mutationen nicht recht funktioniert, entsteht nur noch gelbes oder rötliches Phäomelanin. Betroffene Menschen sind darum oft rot haarig und hellhäutig. Ein Neandertaler aus Nordspanien, von El Sidron, und einer aus Italien, von den Lessini-Bergen vor Verona, wiesen in diesem Gen eine Mutation auf, die bei modernen Menschen nicht vorkommt, aber Tests zufolge wohl auch solch einen Pigmentausfall bedingte. Bei Neandertalern blieb der genetische Defekt vermutlich wegen der vergleichsweise schwachen Sonneneinstrahlung in Europa erhalten. Bei späteren – modernen – Europäern sorgten andere Mutationen an diesem Gen mit ebensolcher Auswirkung gleichfalls für den Pigmentausfall und rote Haare bei heller Haut. Das dritte untersuchte Neandertalergen betrifft eine bestimmte Blutgruppengenvariante des so genannten AB0-Systems (sprich »AB-Null«). Und zwar besaßen zwei Neandertaler aus der spanischen Sidron-Höhle das Null-Allel in der Version 0-01 (den Haplotyp 0-01). Genau diese Null-Allel-Version findet sich auch bei modernen Menschen. Nach den Berechnungen muss sie schon bei den gemeinsamen Vorfahren mit Neandertalern vorhanden gewesen sein. Die Schimpansenver sion des Null-Allels unterscheidet sich erkennbar davon. Schließlich kommen wir viertens zum Gen TAS2R38. Bei uns kodiert es für Proteine auf der Zunge, die es uns ermöglichen, unter anderem das bittere Phenylthiocarbamid (PTC) zu SPEKTRUM DER WISSENSCHAFT · Juni 2010
schmecken, einen Inhaltsstoff vieler Pflanzen – und somit potenzielle Gifte zu meiden. Ein Teil der Menschen besitzt aber Genvarianten, mit denen sie dafür mehr oder weniger unsensibel sind, wenn sie auf beiden komplementären Chromosomen solch ein mutiertes Gen tragen. Ein Neandertaler aus Spanien besaß zwei verschiedene Varianten dieses Gens. Er selbst dürfte demnach die Bitterstoffe wahrgenommen haben, aber manche seiner Zeitgenossen mit zwei Mangelmutanten vermutlich nicht. Nun zum zweiten Hauptergebnis: Die genetischen Befunden sprechen für eine lange eigenständige Entwicklung der Neandertalerlinie, denn deren Abzweigung muss weit zurückliegen. Genetiker erschließen den Verlauf und das Alter von Evolutionslinien gern anhand der so genannten molekularen Uhr der Mitochondrien. Sie bewerten dafür die Anzahl an punktuellen Mutationen, die sich in bestimmten nicht kodierenden Abschnitten mit der Zeit angehäuft haben, was mit einer relativ konstanten Rate geschieht. Demnach trennten sich die Linien, in denen der Neandertaler beziehungsweise der moderne Mensch entstanden, schon vor über 400 000 Jahren. Seitdem muss die Evolution der Neandertaler und ihrer Vorfahren unabhängig von der unseren verlaufen sein. Dieses Szenario stützt die so genannte Out-of-Africa-These, die heute viele Anthropologen vertreten: Demnach erschien der moderne Mensch vor einigen hunderttausend Jahren in Afrika, und von dort verbreitete er sich erst viel später in recht kurzer Zeit auf andere Kontinente. Als veraltet gilt heute die früher vielfach vertretene Gegenmeinung, dass sich moderne Menschen in vielen Gebieten gleichzeitig entwickelten: in Europa aus Neandertalern beziehungsweise in Asien aus dortigen Urmenschen.
Eigenständige Evolution
Die Evolution von früheren europäischen Urmenschen, die der Art Homo heidelbergensis zugerechnet werden, zum Neandertaler umfasste mehrere hundertausend Jahre. Einige Schädelmerkmale wiesen bereits vor 450 000 Jahren in Richtung typischer Neandertalerkennzeichen. Solche Merkmale häuften und verstärkten sich im Lauf der Zeit. Nach den bisher erfassten Mitochondriensequenzen lebte der jüngste gemeinsame Vorfahr aller Neandertaler vor etwa 250 000 Jahren. Allmählich trat dann die berühmte Menschenform hervor, die wir als Homo neanderthalensis bezeichnen. Schon bei 130 000 Jahre alten Fossilien sprechen Anthropologen von frühen Neandertalern. Vor ungefähr 120 000 Jahren, in der Anfangszeit von deren »goldenem Zeitalter«, unterschieden sich diese Menschen deutlich von SPEKTRUM DER WISSENSCHAFT · Juni 2010
Spektrum der Wissenschaft / Emde-Grafik, nach: Degioanni, Fabre & Condemi
Medizin & Biologie
1 3 2
ihren europäischen Vorfahren – aber auch von den frühen modernen Menschen. Aus ihnen entwickelte sich ein paar zehntausend Jahre später der so genannte klassische Neandertaler. An der DNA des Zellkerns lassen sich Ursprung und Alter von Genen ermitteln, die den beiden Menschenformen gemeinsam sind. Demnach muss das für Sprache wichtige FOXP2-Gen, das ja beide besitzen, bereits bei einem gemeinsamen Vorfahren existiert haben, also vor der Aufspaltung in zwei getrennte Evolutionslinien vor über 400 000 Jahren. Die Version 0-01 des Blutgruppensystems AB0 dürfte den vergleichenden Analysen zufolge schon eine Million Jahre vor der Trennung der beiden Linien beim Homo erectus aufgetreten sein. Das Gen TAS2R38 zum Schmecken von bitterer Nahrung gab es bei der Aufspaltung wahrscheinlich auch schon seit mindestens einer halben Million Jahren. Dagegen entstanden Mutationen für rote Haare, wie erwähnt, erst später in beiden Linien unabhängig voneinander. Das dritte Hauptergebnis: Wir tragen anscheinend kein Erbgut vom Neandertaler. Denn bisherige genetische Vergleiche haben nichts ergeben, was dafür spräche. Dabei war ein Kontakt und möglicherweise ein Genaustausch nach dem Alter von Fossilstätten und nach archäologischen Befunden durchaus möglich erschienen. Neandertaler besiedelten außer weiten Teilen Europas große Gebiete West- bis Mittelasiens – sowie den Nahen Osten. Dort könnten sie schon früh modernen Menschen begegnet sein. Als dann der moderne Homo sapiens vor etwa 40 000 Jahren nach Europa vordrang, waren Neandertaler zwar bald nur noch in ein paar Rückzugsgebieten anzutreffen. Doch immerhin glauben die Forscher, dass die beiden Menschenformen hier mindestens über 3000 Jahre Kontakt zueinander hatten, bevor die Ureinwohner schließlich ganz verschwanden. So gibt es
Das Verbreitungsgebiet der Neandertaler reichte bis nach Südsibirien. Genetisch gliederten sie sich in Europa und Westasien in drei Subpopula tionen, eine westliche (1), eine südliche (2) und eine östliche (3). (Neandertaler des Nahen Ostens haben die Autoren in dieser Studie nicht erfasst.)
Mutationen für rote Haare entstanden bei Neandertalern und modernen Menschen unabhängig voneinander
57
Benoit Clarys
Anthropologie
Bei ihrem kräftigen, muskulösen Körperbau aßen die Neandertaler viel Fleisch. Sicherlich waren sie äußerst routinierte Jäger – wie schon ihre europäischen Vorfahren, die mit Speeren Pferdeherden zur Strecke gebracht hatten.
Sollte es vereinzelt gemeinsame Kinder gegeben haben, dann ist das Neandertalererbgut schließlich wieder verschwunden
58
gleich alte Fundstellen, von denen die einen Artefakte in Neandertalermachart aufwiesen, die anderen Steingeräte wie von modernen Menschen angefertigt. Überdies fanden sich aus dieser Zeitphase auch Fossilien von eher grazil gebauten Neandertalern zusammen mit Steinwerkzeugen, die in manchem denen von modernen Menschen ähneln. Nach all dem könnte man durchaus meinen, die beiden Menschenformen wären zusammengetroffen und hätten die Gelegenheit genutzt ... Bisher allerdings besagen sowohl systematische anatomische Untersuchungen der Fossilien wie auch die Analysen des Mitochondriengenoms etwas anderes. Demnach teilten alle Neandertaler der fraglichen Epoche die gleichen Merkmale, und in denen hoben sie sich gegen die modernen Menschen ab. Der Befund, dass bei modernen Menschen keine Mitochondrienspuren von Neandertalern auftauchen, lässt nur zwei Szenarien zu: Entweder hatte tatsächlich nie eine Neandertalerfrau Kinder mit einem Homo-sapiens-Mann (nur Frauen vererben diese Organellen); oder es gab doch solche Mischlingskinder, aber Neandertalermitochondrien blieben nicht erhalten. (Über die umgekehrte Konstellation, also Mischlingskinder von Homo-sapiens-Frauen, besagen die Mitochondrienstudien nichts.) In letzterem Fall ließe sich das heutige völlige Fehlen am einfachsten damit erklären, dass jene Mischlingskinder von Neandertalerfrauen keine Nachkommen hinterlassen haben. Oder aber deren Erbgutspuren verschwan den später aus dem Genpool – wie umgekehrt
andere Neandertalergene, die Mischlingskinder von Homo-sapiens-Frauen eingebracht hatten, so es solche Kinder denn gab. Populationsgenetiker erklären dergleichen mit verschiedenen Vorgängen. Zunächst wäre da die genetische Drift. Hierbei werden bestimmte Gene rein durch Zufall immer seltener, was gerade in kleinen isolierten Populationen ohne Auffrischung von außen vorkommt. Aber auch der unablässige Zustrom von DNA des modernen Menschen mit ihren Einwanderungswellen in Europa könnte bewirkt haben, dass eingemischtes Erbgut von Neandertalern immer mehr ausdünnte. Manche Paläontologen vermuten durchaus, dass die Neandertaler sich, wenn auch geringfügig, in den Genpool des modernen Menschen einbrachten, dass dieser Beitrag aber mit der Zeit verloren ging. Um darüber mehr Klarheit zu gewinnen, haben einige Wissenschaftler mit statistischen Modellen simuliert, wie sich der Genpool der Menschen in Europa bis heute entwickelte, seit der moderne Mensch hier auftauchte. Als Anfangsbedingung nahmen sie verschiedene plausible Szenarien mit unterschiedlichen Vermischungsgraden an. Heraus kam für die Gegenwart ein allenfalls noch übrig gebliebener Anteil an Neandertalergenen von weit unter einem Prozent (zwischen 0,02 und 0,09 Prozent). Der geringe Wert weist zumindest in Richtung jener genetischen Befunde, wonach von früheren zu heutigen modernen Menschen eine kontinuierliche Verbindung besteht, während sie zwischen den Neandertalern und uns fehlt. Die Ansicht, dass der moSPEKTRUM DER WISSENSCHAFT · Juni 2010
Medizin & Biologie derne Mensch überhaupt keine Neandertalergene besitzt, erhärten verschiedene Ansätze der Bioinformatik seit 2008. Den tatsächlichen Befunden kommt ein Modell am nächsten, nach dem es überhaupt keine Vermischung gab. Ein Beitrag von höchstens 0,001 Prozent wäre mit den Messungen noch vereinbar. In den letzten Jahren häufen sich Unter suchungen zu diesen Fragen. Bisherige genetische Ergebnisse sprechen allerdings durch gehend gegen eine Vermischung. Sie ist umso unwahrscheinlicher, als der heutige Mensch nur verschwindend wenige der schon erfassten Genvarianten im Zellkerngenom von Neandertalern teilt. Und das wenige, was sich da fand, hat offenbar eine viel ältere Herkunft. Trotzdem bleibt abzuwarten, was die neuen Sequenzierungen ergeben. Endgültige Aussagen lassen sich wohl erst dann treffen, wenn mindestens mehrere vollständig entzifferte Neandertalergenome vorliegen.
Ob in früherer oder späterer Zeit – sie waren nie sehr zahlreich
Das vierte Hauptergebnis aus den genetischen Analysen schließlich besagt: Die Neandertaler bildeten eine einzige Population, und die muss zahlenmäßig sehr klein gewesen sein. Sie betrug vermutlich unter 100 000, vielleicht nur 25 000 Individuen zur selben Zeit. Angesichts des riesigen Gebiets, das diese Urmenschen im Lauf ihrer Geschichte besiedelten, mag das erstaunen. Denn schließlich verbreiteten sich die Neandertaler von Europa aus bis in den Nahen Osten und bis weit nach Asien hinein. Insbesondere für den Nahen Osten vermuten die Forscher, dass jene Gruppen dorthin entweder während der Vereisung vor rund 70 000 Jahren auswichen oder dass sie sich schon im vorangegangenen Interglazial ziemlich weit ausbreiten konnten, als die Gletscher zurückgingen. Wie auch immer – es fällt auf, dass die Neandertaler des Nahen Ostens morphologisch sozusagen archaischer wirken als ihre Verwandten dieser Zeit in Europa. Sie scheinen stärker ältere Merkmale bewahrt zu haben, die bei den europäischen Urmenschen allmählich verschwanden und dem ausgeprägten so genannten klassischen Erscheinungsbild wichen. Womöglich handelte es sich um zwei Subpopulationen, von denen die europäische stärker abgeschottet war und sich deswegen so auffällig weiterentwickelte. Nach Asien hinein hatten sich die Neandertaler anscheinend wesentlich weiter verbreitet als bisher angenommen. Das zeigt eine nur bei ihnen vorhandene DNA-Sequenz im Mitochondriengenom, die kürzlich aus Knochen zweier innerasiatischer Fundstellen isoSPEKTRUM DER WISSENSCHAFT · Juni 2010
liert werden konnte: von Überresten eines acht- bis zehnjährigen Kindes aus der Höhle von Teshik-Tash in Usbekistan; und von mehreren Individuen aus der Höhle von Okladnikov in Sibirien. Diese Knochen müssen somit Neandertalern gehört haben. Damit erstreckte sich ihr Verbreitungsgebiet 2000 Kilometer weiter nach Osten, bis ins südliche Sibirien (siehe Karte S. 57). Nach einem Vergleich der verschiedenen schon bekannten genetischen Sequenzen scheinen frühe Neandertaler Zentralasien schon vor rund 130 000 Jahren besiedelt zu haben. Damals hatte das Kaspische Meer einen ziemlich niedrigen Wasserstand. Vielleicht konnten sie deswegen gut in diese Gefilde vordringen. Aus Mitochondriendaten europäischer Neandertaler rechneten Forscher zurück, wie viele gebärfähige Frauen hier in jener frühen Phase überhaupt gleichzeitig lebten. Sie kamen auf 5000 bis 9000. Diese kleine Anzahl Frauen stand demnach am Ursprung aller späteren europäischen Neandertaler von Kroatien über Deutschland bis Spanien. Entsprechende Schätzungen anhand von vorliegenden Sequenzen der DNA des Zellkerns ergaben zwischen 3000 und 12 000 Frauen im gebärfähi gen Alter. Nach allem, was wir wissen, waren die Neandertaler nie sehr zahlreich, nicht in früherer und auch nicht in späterer Zeit. Dass sie eine einzige zusammenhängende Population bildeten, schließen manche Forscher nicht nur aus der geringen Bevölkerung, sondern auch aus den auffallend nah verwandten DNA-Sequenzen. Angesichts ihres ausgedehnten Verbreitungsgebiets war es trotzdem fraglich, ob sich nicht doch mehrere geografische und genetische Untergruppen ausgebildet hatten. Dies haben wir vor Kurzem an Mitochondriensequenzen von zwölf Neandertalern aus praktisch dem gesamten Lebensraum geprüft (abgesehen vom Nahen Osten, für den es keine Daten gab). Bei unseren Analysen schälten sich tatsächlich drei größere Untergruppen heraus: eine westliche, eine im Mittelmeerraum und eine östliche (Karte S. 57). Wanderbewegungen in begrenztem Maß in das jeweils andere Gebiet und ein genetischer Austausch in Überlappungszonen schließt das keineswegs aus. Manches spricht dafür, dass die Populationsgröße der Neandertaler bis vor ungefähr 50 000 Jahren schwankte – und danach allmählich zurückging, bis die Art schließlich unterging. Sicherlich trug die räumliche Zerstückelung auch dazu bei. Sie muss diese Menschenart geschwächt haben, so dass sie der vielleicht nicht einmal starken Konkurrenz nicht standhielt, die der moderne Mensch bot, als er im selben Lebensraum erschien.
Die Populationsgenetikerinnen Anna Degioanni (oben) und Virginie Fabre (Mitte) und die Paläanthropologin Silvana Condemi sind Mitglieder des Forschungsbereichs Biokulturelle Anthropologie des CNRS (Centre National de la Recherche Scientifique / Nationales Forschungszentrum), des EFS (Etablissement Français du Sang) und der Université de la Mediterranée in Marseille.
Fabre, V., Condemi, S., Degioanni, A.: Genetic Evidence of Geographical Groups Among Neanderthals. In: PLoS One 4(4), e5151, 2009. Green, R. E. et al.: Analysis of One Million Base Pairs of Neanderthal DNA. In: Nature 444, S. 330 – 336, 16. November 2006. Krause, J. et al.: The Derived FOXP2 Variant of Modern Humans Was Shared with Neanderthals. In: Current Biology 17(21), S. 1908 – 1912, 6. November 2007. Lalueza-Fox, C. et al.: A Melano cortin 1 Receptor Allele Suggests Varying Pigmentation Among Neanderthals. In: Science 318, S. 1453 – 1455, 30. November 2007.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030083.
59
Titelthema: Hirnforschung
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Im Kopf herrscht niemals Ruhe
Wenn wir versuchen, Denken und bewusstes Wahrnehmen auszublenden, wird ein besonderes System aktiv. Dieses Netz scheint bei manchen Hirnstörungen von der Norm abzuweichen. Vielleicht liefert seine Erforschung auch einen neuen Zugang zum Bewusstsein.
Von Marcus E. Raichle
In Kürze r
Lange Zeit dachten die Neurowissenschaftler, die Hirnschaltkreise seien beim ruhenden Menschen abgestellt. In Wirklichkeit herrscht im Gehirn ständig ein bestimmtes Maß an Hintergrundaktivität. Die Forscher sprechen von der »dunklen Energie des Gehirns«.
r
Offenbar benötigt das Gehirn diesen Grundzustand oder Ruhestandard (»De fault-Modus«) auch dazu, auf künftige Aktionen vorbereitet zu sein. Übergeordnet scheint ein im Hintergrund arbeitendes System, das Ruhestandardnetz (Default Mode Network), Aktivi täten zu koordinieren.
r
Verschiedene neurologi sche Erkrankungen, von der Alzheimerdemenz bis zur Schizophrenie, könnten mit abnormen Verschaltungen in diesem System zusammen hängen.
60
S
tellen Sie sich vor, Sie liegen faul auf der Terrasse, dösen und denken an nichts, das »Spektrum«-Heft auf dem Schoß. Da landet eine Fliege auf Ihrem Arm. Ruckartig ergreifen Sie die Zeitschrift und schlagen nach dem Insekt. Was hat Ihr Gehirn da gemacht? Und was tat es eigentlich direkt davor? Noch bis vor Kurzem glaubten viele Forscher, wenn wir uns ausruhten, seien auch weite Teile des Gehirns gedämpft dösig-schläfrig und die meiste Hirntätigkeit sei stark heruntergefahren. Die noch vorhandene Rest aktivität bedeute nur Zufallsrauschen, ähnlich dem Schnee im Fernseher, wenn der Sender kein Programm ausstrahlt. Und sobald eine Fliege uns kitzelt, würde das Gehirn sich wieder anschalten und konzentrieren – etwa darauf, den Störenfried rasch zu entfernen. Allerdings stimmt diese Vorstellung nicht. Nach neueren Auswertungen von Hirnaufnahmen geschieht in unserem komplexesten Organ eine ganze Menge Sinnvolles, selbst während wir uns entspannt zurücklehnen und scheinbar gar nichts tun. Ob wir nun in den Tag träumen, im Bett schlafen oder uns in Narkose befinden – der Verstand und das Denken mögen abgeschaltet sein, aber manche Hirngebiete unterhalten sich trotzdem miteinander. Sie müssen dazu nicht einmal dicht beieinanderliegen. Für dieses dauernde Gespräch im »Ruhezustand« benötigt das Ge-
hirn sogar etwa 20-mal so viel Energie wie für die bewusste Abwehr einer lästigen Fliege oder eine Reaktion auf irgendein anderes Außen geschehen. Wir bezeichnen jene ständige Hintergrundaktivität englisch als Default Mode – Grundeinstellung, Grundzustand oder Ruhestandard. Psychologen nennen einen Wachzustand, bei dem man sozusagen an gar nichts denkt, auch Tagträummodus. Fast jede bewusste Tätigkeit, etwa sich zum Essen hinzusetzen oder eine Rede zu halten, bedeutet zugleich, von der Grundaktivität des Ruhestandards abzuweichen.
Was Neurophysiologen bisher übersehen haben
Forscher kamen diesem Ruhezustand genauer auf die Spur, als sie ein bis dahin unbekanntes System im Gehirn entdeckten. Das nennen wir Default Mode Network (DMN) – also Ruhestandardnetz. Wie diese Instanz neuronale Aktivität im Einzelnen regelt, ist noch nicht ganz aufgeklärt. Das besagte System könnte den Umgang des Gehirns mit Gedächtnisinhalten bestimmen, lenkt aber vielleicht auch seine Bereitschaft, auf Zukunfts ereignisse einzugehen, was vielerlei andere Systeme einbezieht. Zum Beispiel muss, wenn eine Fliege auf der Haut kitzelt, augenblicklich das motorische System einsatzfähig sein. Die prompte Reaktion erfordert zudem die Synchronisation, oder besser Abstimmung, auch aller übrigen Hirnbereiche. Wie Läufer SPEKTRUM DER WISSENSCHAFT · Juni 2010
Mensch & geist MEnsch & Geist
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Jean-François Podevin
»Dunkle Energie« nennen Forscher scherzhaft die strukturierte Hin tergrundaktivität, auf die das Gehirn fast nie verzichtet – und die ihnen bisher entgangen ist.
61
Titelthema: Hirnforschung in den Startblöcken müssen die verschiedenen Hirnsysteme quasi nur noch auf den Startschuss warten. Falls das Ruhenetzwerk das Gehirn tatsächlich für bewusste Aktivitäten bereithält, ließe sich darüber auch näher erforschen, was sich hinter Bewusstseinsvorgängen verbirgt. Nicht zuletzt haben Forscher begründeten Verdacht, dass nicht nur einfache geistige Fehler (»Schnit zer«) auf Störungen in diesem Netz beruhen können, sondern auch verschiedene komplexe neurologische Fehlfunktionen, von Alzheimer bis zur Depression. Dass das Gehirn immerfort arbeitet, ist an sich keine neue Erkenntnis. Schon der Jenaer Neurologe und Psychiater Hans Berger (1873 – 1941; als Chef einer Klinik arbeitete er zuletzt auch den Nationalsozialisten zu) nahm das an. Er entdeckte in den 1920er Jahren die Elektro enzephalografie, bei der mit Elektroden außen am Schädel Hirnströme (ein Elektroenzepha
Corbis / Sim
beide Fotos:
Als die neuen Verfahren wie PET und fMRT für nichtinvasive Hirnaufnahmen aufkamen, erkannten die Forscher zunächst nicht die Hintergrundaktivität, die für den Ruhezustand und entspanntes Wachträumen typisch ist. Das vermittelte ein falsches Bild unserer Hirntätigkeit.
on Jarratt
Ruhe im Gehirn – die Illusion
unbeschäftigt, etwa beim Tagträumen
gezielt beschäftigt, etwa mit Lesen
Alte Sicht Solange nichts geschieht, verhalten sich weite Teile des Gehirns ruhig, und die meisten Nervenzellen sind still. Erst bei einer speziellen Tätigkeit, etwa beim Lesen, schaltet das Gehirn hoch und verbraucht dabei viel Energie.
keine Hirnaktivität
hohe Aktivität
62
hohe Aktivität
noch etwas höhere Aktivität
Jean-François Podevin
Neue Sicht Sogar das »ruhende« Gehirn unterhält einen hohen Grad an Aktivität. Sein Energieverbrauch steigt demgegenüber bei alltäglichen Beschäftigungen wie Lesen nur um fünf Prozent.
logramm oder EEG) aufgezeichnet werden. Berger schrieb 1929, vermutlich sei das Zentralnervensystem immerzu, nicht nur im Wachen, in einem Zustand erheblicher Aktivität. Leider fand diese Schlussfolgerung kaum Beachtung, auch dann nicht, als sich in der Neurowissenschaft die modernen Verfahren etablierten, das Gehirn und seine Aktivität nichtinvasiv abzubilden. Den Anfang machte in den späten 1970er Jahren die Positronen emissionstomografie (PET). Hierbei schließt man mit Hilfe schwach radioaktiver Substanzen aus dem Zuckerstoffwechsel, dem Blutfluss und der Sauerstoffaufnahme auf neuronale Aktivität. 1992 kam die funktionelle Magnetresonanztomografie (fMRT) hinzu. (Das Verfahren leitet sich von der schon in den 1970er Jahren entwickelten Magnetresonanzoder Kernspintomografie her.) Sie erfasst, vereinfacht gesagt, den Sauerstoff in Hirngebieten und damit indirekt ebenfalls die neuronale Aktivität. Beide Verfahren eignen sich hervorragend dazu, Hirnaktivität in verschiedenen Schärfegraden zu untersuchen. Allerdings entstand allein durch die Art der Versuche – meist ungewollt – oft der Eindruck, dass sich das übrige Gehirn, abgesehen von der gezielt beschäftigten Region, weit gehend ziemlich ruhig verhält. Denn üblicherweise wollen die Forscher aus solchen Aufnahmen erfahren, welche Hirnregionen für eine Wahrnehmung oder ein Verhalten zuständig sind. Dazu vergleicht man am besten die Aktivität unter zwei definierten, nur in einem Aspekt verschiedenen Bedingungen: Test und Kontrolle. Zum Beispiel kann die Testsituation lautes Lesen sein, die Kontrollsituation stilles Lesen. Zur Auswertung werden dann von den Aufnahmen für lautes Lesen die Pixel (Intensitätswerte) für stummes Lesen abgezogen. Helle Stellen, die übrig bleiben, wären dann für Lautlesen zuständig. Die fortwährende Hintergrundaktivität (intrinsisches Geschehen) welcher Art auch immer wird dabei nicht weiter beachtet. Weil sie stört, wird sie herausgerechnet. Solch ein Umgang mit den Daten vermittelt leicht das Bild, einzelne Hirngebiete würden erst für ihre jeweiligen Aufgaben angeschaltet und verhielten sich sonst ziemlich still. Doch im Verlauf der Jahre wurden mein und andere Forscherteams immer neugieriger darauf, was sich eigentlich im Gehirn abspielt, wenn jemand sich einfach nur still ausruht und die Gedanken schweifen lässt. Anlass dazu gaben eine Reihe von Studien, die erahnen ließen, dass im Hintergrund eine ganze Menge geschieht. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Wieso ein ausgedünnter Datenstrom genügt
Nachdenklich machte uns auch, wie wenig von dem, was die Sinnensorgane an Information erreicht (in Bits gemessen), in den Verarbeitungszentren im Gehirn ankommt. Beispielsweise bleibt von der visuellen Informa tion nur ein winziger Bruchteil. Zur Netzhaut gelangt von der unermesslichen potenziellen Informationsmenge unserer Umgebung das Äquivalent von zehn Milliarden Bits pro Sekunde. Der Sehnerv verfügt über eine Million Leitungen (Ausgänge). Dadurch kann er gerade sechs Millionen Bits pro Sekunde übermitteln. Die Sehrinde erreichen (über Zwischenstationen in der so genannten Sehbahn) nur noch 10 000 Bits pro Sekunde. Nach weiterer Verarbeitung gelangt ein klein wenig davon – weniger als 100 Bits pro Sekunde – zu Hirnregionen, die sich mit bewusster Wahrnehmung befassen. Ein so dünner Datenstrom allein könnte sicherlich keine Wahrnehmung erzeugen. Vielmehr muss die hirnimmanente – intrinsische – neuronale Aktivität dabei mitwirken. Nach Erklärung verlangt zudem die immense intrinsische Verarbeitungskapazität des Gehirns. Wir fragten uns: Wozu braucht es die unvorstellbare Anzahl an Synapsen (Kontaktstellen zwischen Nervenzellen zur Signalübertragung), beim Menschen geschätzte rund 500 Billionen? Die Sehrinde etwa weist über zehnmal so viele Nervenzellkontakte auf, wie sie zur Aufnahme der Eingangsinformation SPEKTRUM DER WISSENSCHAFT · Juni 2010
benötigt. Der große Rest dürfte internen Kontakten innerhalb dieser Hirnregion zu weiteren Zwecken dienen. All dies ist längst bekannt. Trotzdem blieb die intrinsische Hirnaktivität ein Rätsel. Unter anderem fragten wir uns, wie jenes viele Hintergrundgeschehen wohl Wahrnehmung und Verhalten beeinflusst. Da brachte uns eine unerwartete, zunächst unerklärliche Beobachtung auf die Fährte von besagtem DMN – dem Netz für den Ruhestandard des Gehirns. Wir machten sie bei PET-Studien und konnten sie später mit fMRT-Aufnahmen erhärten. Mitte der 1990er Jahre bemerkten wir an solchen Bildern mehr oder weniger durch Zufall Folgendes: Während Versuchspersonen in üblicher Weise definierte Aufgaben wie laut zu lesen ausführten, fuhren einige daran unbeteiligte Hirnregionen ihre Aktivität herunter, statt auf dem Niveau des Hintergrundrauschens, auf ihrem vorherigen vermeintlichen Ruhelevel, zu verharren. Sie nahmen sich also immer dann zurück, wenn andere Hirnbereiche einer speziellen Anforderung nachkamen. Am auffälligsten war diese Reaktion in einem Teil des mittleren Scheitellappens (er liegt nahe der Hirnmitte und befasst sich unter anderem mit dem Erinnern an persönliche Erlebnisse; siehe Kasten S. 64). Weil das eigentlich nicht sein durfte, nannten wir das Gebiet mit dem eindrucksvollsten Abfall mittlere mysteriöse Scheitelregion oder Rätsel region des Scheitelhirns.
Suche nach dem Sinngeber
Von der riesigen Infor mationsflut, die auf uns einströmt, gelangen tief ins Gehirn nur ein paar wenige Tropfen. Leitet der Sehnerv sechs Millionen Bits weiter, so wirken bei der bewussten Wahrnehmung nur noch ein paar hundert Bits mit – zu wenig eigentlich. Wie es aussieht, erzeugt das Gehirn immerzu selbst Vorhersagen über die Außenwelt.
63
Jean-François Podevin
Als einen Fingerzeig nahmen wir schon die reine Betrachtung der Hirnbilder. Auf ihnen ist eigentlich deutlich zu sehen, dass sich viele Hirngebiete im Test wie auch in der Kontrollsituation gut beschäftigten. Teils macht es ja gerade dieser »Dauerlärm« im Hintergrund den Forschern so schwer, aus den Aufnahmen klare Befunde herauszufiltern. Ohne eine aufwändige Computeranalyse gelänge das überhaupt nicht. Des Weiteren stellte sich heraus, dass das Gehirn beim Erledigen einer speziellen Auf gabe keine fünf Prozent mehr an Energie benötigt als im Grundzustand. Ohnehin findet die weitaus meiste Aktivität in Schaltkreisen statt, die nicht äußere Ereignisse verarbeiten. Hierfür werden 60 bis 80 Prozent der vom Gehirn insgesamt verbrauchten Energie eingesetzt. Mit einem Zwinkern zu unseren Kollegen in der Astronomie nennt unser Team diese fortwährende innere Aktivität des Gehirns scherzhaft seine dunkle Energie – hypothetische, bisher nicht fassbare so genannte Dunkle Energie soll die Hauptenergieform im Universum darstellen.
Titelthema: Hirnforschung Andere Forscher konnten unsere Ergebnis se jedoch reproduzieren, und zwar nicht nur für den erwähnten mittleren Scheitellappen, sondern auch für die mittlere so genannte präfrontale Hirnrinde, den präfrontalen Kortex. (Dieses Gebiet des Stirnhirns befasst sich damit, was Mitmenschen denken mögen, und ist auch für Gefühle wichtig.) Inzwischen gelten beide Regionen als maßgebliche Teile des Netzes für den Ruhestandard (Kasten unten).
Eine Reihe von PET-Studien hierzu zeigte uns später, dass das Gehirn keineswegs fau lenzt, wenn das Bewusstsein nicht beschäftigt ist. Vielmehr arbeiten dann sowohl jene Rätselregion als auch die meisten anderen Gebiete immerzu. Sowie sich das Gehirn jedoch auf eine bestimmte Aufgabe konzentriert, nehmen einige Hirnbereiche mit intrinsischer Aktivität sich tatsächlich zurück. Bei manchen Kollegen stießen wir hiermit zunächst auf Skepsis. Im Jahr 1998 wies eine Fachzeitschrift sogar einen Artikel von uns ab – einer der Gutachter vermutete einen Datenfehler bei dem von uns gemessenen Aktivitätsabfall. Er glaubte, die betreffenden Hirnschaltkreise seien vor Versuchsbeginn einfach eingeschaltet, also momentan aktiv gewesen und dann genau beim Versuch abgeschaltet worden, also wieder in den üblichen Zustand des Hintergrundrauschens gefallen.
Ausruhen als Schwerarbeit
Versteckter Chefdirigent Mehrere Hirnregionen scheinen ein übergeordnetes System zu bilden, das unter anderem Ruhephasen überwacht. Dieses besondere Netz (Default Mode Network, DMN) sorgt offenbar großenteils für die Hirnaktivität, wenn wir uns entspannen und abschalten. Aber auch für geistige Prozesse ist es unverzichtbar. Befehlsinstanz Weit auseinanderliegende Hirnbereiche gehören dazu; einige sind hier bezeichnet. linke Großhirnhälfte Außenansicht
mittlere präfrontale Rinde Ruhestandardnetz (DMN)
Dirigent des Selbst Ähnlich wie ein Dirigent setzt das DMN vermutlich Zeit signale und koordiniert die Hirnregionen und deren Aktionsbereitschaft. Dadurch gelingt es ganz verschiedenen Arealen, auf äußere Ereignisse aufeinander abgestimmt zu reagieren.
64
Jean-François Podevin
mittlerer Scheitellappen
seitlicher Scheitel lappen
mittlere präfrontale Rinde
seitlicher Schläfenlappen Corbis / epa / Eddy Risch
rechte Großhirnhälfte Innenansicht
Die Entdeckung des DMN ließ uns die intrinsische Aktivität des Gehirns mit anderen Augen sehen. Vorher hatten Neurophysiologen jene Hirngebiete niemals als zusammengehöriges eigenes System aufgefasst, sozusagen als Äquivalent zu den bekannten Funktions systemen wie etwa dem visuellen oder dem motorischen System. Wir hatten nicht gewusst, dass hier ein eigenständiges System existiert, zu dem verschiedene Gebiete gehören, die sich miteinander austauschen, um Aufgaben zu erledigen, und zwar gerade dann, wenn das Gehirn scheinbar ausruht. Dies war uns bisher schlicht entgangen. All die Experten, die Hirnbilder auswerteten, hatten nicht bemerkt, dass das Gehirn im vermeintlichen Ruhezustand anscheinend eine intrinsische Aktivität unterhält und dafür eine Anzahl Hirnregionen aus verschiedenen Gebieten einspannt. Die Frage war nun, ob sich allein das besagte DMN so merkwürdig verhielt, das Netz für den Ruhezustand. Oder handelte es sich gar um eine allgemeinere Hirneigenschaft? Hier halfen neue Erkennt nisse weiter, die einen aufschlussreichen Irrtum im Umgang mit fMRT-Signalen aufdeckten. Die einzelnen auf solchen Kernspinbildern erfassten Werte bezeichnen wir gewöhnlich als Bold-Signal oder Bold-Effekt (nach englisch blood oxygen level-dependent). Denn die lokale Signalstärke, ein indirektes Maß der Hirnaktivität, hängt von Schwankungen des dort vorhandenen Sauerstoffs ab, die ihrerseits mit Veränderungen des Blutdurchflusses einhergehen, was wiederum von Beanspruchungen der betreffenden Region abhängen dürfte. Nun zeigen alle Hirngebiete im Zustand entspann ter Ruhe Bold-Signale, die in Zyklen von rund zehn Sekunden schwingen, also besonders langsam. Das hielten die Forscher früher für reines Hintergrundrauschen ohne besondere Bedeutung. Damit sie spezifische Aktivitäten besser erkennen konnten, tilgten sie diese Daten für die Auswertungen. Doch im Jahr 1995 stellte ein Befund von Bharat Biswal und seinen Kollegen vom Medical College of Wisconsin in Milwaukee die SPEKTRUM DER WISSENSCHAFT · Juni 2010
Mensch & geist
Besondere, ganz langsame Hirnwellen
Diese Forschungen zeigten also, dass unser Ruhestandardnetz nur einen wenn auch entscheidenden Teil der intrinsischen Aktivität im Gehirn darstellt. Denn alle, auch die an deren Hirnsysteme unterhalten einen gewissen solchen Grundzustand. Mein eigenes Forscherteam erkannte das erstmals, als wir uns Arbeiten über so genannte langsame Poten ziale der Hirnrinde (slow cortical potentials, SCPs) genauer anschauten. (Es handelt sich um langsame bis sehr langsame Potenzialschwankungen oder Wellen an der Hirnoberfläche, insbesondere auch diejenigen, die bei einem Elektroenzephalogramm normalerweise nicht aufgezeichnet werden.) Hierbei feuern Neuronengruppen ungefähr alle zehn Sekunden. Wir fanden dann heraus, dass diese Erregungsmuster mit den spontanen, langsamen Schwankungen auf den Bold-Aufnahmen identisch sind. Als Nächstes untersuchten wir den Sinn jener sehr langsamen Wellen in Bezug auf andere neuronale elektrische Signale. Schon Hans Berger hatte die große Frequenzbreite an Hirnwellen beschrieben. Sie reicht von den langsamen Schwankungen mit Zehnsekundenzyklen bis hin zu über 100 Zyklen pro Sekunde (100 Hertz). Die Wechselwirkungen der verschiedenfrequenten Signale untereinander zu verstehen, SPEKTRUM DER WISSENSCHAFT · Juni 2010
Hintergrund von Hirnkrankheiten Die Gebiete, die zum besagten Ruhestandardsystem (DMN) gehören, decken sich teils mit Hirnregionen, die bei einigen geistigen Erkrankungen auffallen. Falls ursächliche Zusammenhänge bestehen, könnte das neue spezifische Diagnosemöglichkeiten und Therapien eröffnen.
Alzheimer Hierbei degenerierende Gebiete überlappen eng mit Hauptzentren des DMN.
Depression Zwischen einem der Gebiete des DMN und einigen für Gefühle zuständigen Hirnberei chen besteht eine verringerte Anzahl von Verbindungen.
Schizophrenie
Getty Images / Kent Larsson
Gepflogenheit in Frage. Die Forscher verzeichneten bei Personen, die sich nicht bewegten, wie das vermeintliche Rauschen im Hirngebiet für die Bewegungskontrolle der rechten Hand merkwürdigerweise im Gleichklang mit dem für die linke Hand schwankte. Diese beiden Gebiete liegen ja auf verschiedenen Hirnseiten. Mehrere Jahre später dann entdeckten Michael Greicius und seine Mit arbeiter von der Stanford University (Kali fornien) bei einer reglosen Person im Hirnscanner einen derartigen Gleichklang der Fluktuationen beider Hirnseiten auch für das Ruhestandardnetz, das DMN. Damals wuchs das Interesse der Forscher an diesem Phänomen und seiner Bedeutung für die Hirnfunktion rapide. Weltweit nahmen sich nun Arbeitsgruppen, unsere auch, dieser rätselhaften Erscheinung an. Wir kartierten alles Rauschen, besser die intrinsische Aktivität sämtlicher wesentlichen Hirnsys teme. Und wir stellten fest: Die auffallenden Aktivitätsmuster treten sogar unter Vollnarkose auf, ebenso im leichten Schlaf. Das sprach für eine grundlegende Aufgabe solcher Hirnmuster – somit für alles andere als sinnlosen Hintergrundlärm.
Viele Regionen des DMN fallen durch eine erhöhte Signalaktivität auf (was das bedeutet, wird noch erforscht).
gehört zu den großen Herausforderungen der Neurowissenschaft. Wie sich herausstellte, haben die sehr langsamen Wellen tatsächlich Einfluss auf das übrige Geschehen. Nach Ergebnissen von uns und anderen Forschern synchronisiert sich höherfrequente elektrische Aktivität mit den Phasen der langsamen Schwankungen. Erst kürzlich beobachteten Matias Palva und seine Kollegen von der Universität Helsinki, dass die Anstiegsphase einer langsamen Schwingung die Aktivität von Sig nalen rascherer Frequenzen anhebt. Die langsamen Wellen ziehen dadurch die schnelleren sozusagen mit sich. In Grenzen passt der Vergleich mit einem Sinfonieorchester ganz gut. Indem sich all die vielen Instrumente demselben Rhythmus beugen, erzeugen sie eine Klangtapete. Auf das Gehirn übertragen entsprechen die extrem langsamen Schwingungen dem Schlag des Dirigenten. Allerdings geben sie den Mitwirkenden – also den einzelnen Hirnsystemen – nicht einen gemeinsamen Takt an, sondern koordinieren deren Zugang zu dem Riesen archiv im Gehirn voller Erinnerungen und sonstiger Informationen, ohne die wir in dieser komplexen, sich ständig ändernden Welt
Die langsamen Poten zialschwankungen koordinieren den Zugang zu den Archi ven voller Erinne rungen und anderen Informationen
65
Titelthema: Hirnforschung
Damit sich die Sys teme nicht gegen seitig stören, steht als Chefdirigent an der Spitze das Ruhe standardnetz oder Default Mode Network (DMN)
nicht leben können. Jene sehr langsamen Wellen sorgen dafür, dass die richtigen Berechnungen aufeinander abgestimmt genau zum passenden Zeitpunkt erfolgen. Nur ist das Gehirn viel komplexer strukturiert als ein Orchester. Jedes seiner spezialisierten übergeordneten Systeme dirigiert seinen eigenen langsamen Takt. Eines kontrolliert das Sehen, ein anderes die Muskeln, und so weiter. Trotzdem entsteht kein Durcheinander, denn diese verschiedenen Systeme sind nicht gleichberechtigt. Vielmehr haben die elektrischen Signale mancher Hirnbereiche jeweils Vorrang vor anderen. An der Spitze der Hierarchie – quasi als Chefdirigent – steht das Default Mode Network, das Ruhestandardnetz. Diese Einrichtung verhindert, dass die Kakofonie konkurrierender Signale, die aus den einzelnen Zimmern ertönt, am Ende in eine allgemeine Katzenmusik ausartet. So wird erreicht, dass sich die einzelnen Systeme gegenseitig nicht stören. Im Gehirn herrscht eben nicht allgemeine Freiheit und Unabhängigkeit eines jeden, sondern eine Föderation voneinander abhängiger Komponenten.
Demenz und Schizophrenie in einem neuen Licht
Marcus E. Raichle ist an der Washington University in St. Louis (Missouri) Professor für Radiologie und Neurologie. Seit vielen Jahren leitet er eine Arbeitsgruppe, welche die Arbeitsweise des menschlichen Gehirns mit Hilfe der Positronenemissionstomografie (PET) und der funktionellen Magnetresonanztomografie (fMRT) untersucht.
Fox, M. D., Raichle, M. E.: Spontaneous Fluctuations in Brain Activity Observed with Functional Magnetic Resonance Imaging. In: Nature Reviews Neuroscience 8, S. 700 – 711, September 2007. Raichle, M. E.: Two Views of Brain Function. In: Trends in Cognitive Science 14(4), S. 180 – 190, April 2010. Zhang, D., Raichle, M. E.: Disease and the Brain’s Dark Energy. In: Nature Reviews Neurology 6, S. 15 – 28, Januar 2010.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030086.
66
Zugleich muss dieses ausgeklügelte hirninterne, sich selbst regulierende Geschehen hin und wieder den Anforderungen der Außenwelt den Vortritt lassen. Dann werden die langsamen Schläge des Chefdirigenten schwächer: Neue oder unerwartete Sinneseindrücke oder gezielte Handlungen fordern Aufmerksamkeit – zum Beispiel wenn Ihnen plötzlich einfällt, dass Sie versprochen hatten, auf dem Nachhauseweg Milch zu kaufen. Sobald diese Systeme wieder »abschalten« dürfen, weil der Auftrag erledigt ist, lebt der interne Nachrich tenverkehr sehr langsamer Potenzialschwankungen wieder auf. So ringt das Gehirn ständig damit, Geplantes und plötzlich Notwendiges auszubalancieren. Das An- und Abschwellen im Ruhestandardnetz könnte uns der Lösung einiger der größten Hirnrätsel näherbringen. Wir verdanken diesem Geschehen schon jetzt faszinie rende Einblicke in das Wesen der Aufmerksamkeit, eines grundlegenden Aspekts von bewusster Tätigkeit. So berichtete ein Forscherteam im Jahr 2008, es wüsste bis zu eine halbe Minute im Voraus, ob eine Versuchs person bei einem Computertest einen Fehler machen würde – allein durch Beobachten des Ruhestandardnetzes, wenn die Person im Scanner lag. Ein Irrtum kündigte sich an, sowie das Ruhenetz die Kontrolle übernahm, wenn also die bei zielgerichteter Aufmerksam-
keit beanspruchten Hirnbereiche ihre Aktivität zurückfuhren. In der Zukunft könnte die dunkle Energie des Gehirns neue Schlüssel zum Bewusstsein bieten. Die meisten Neurowissenschaftler meinen inzwischen, dass die bewusste Auseinandersetzung mit der Außenwelt nur einen kleinen Bruchteil der Hirnaktivität ausmacht. Was sich unterhalb dieser Ebene abspielt – zum Beispiel was wir salopp dunkle Energie nennen –, benötigen wir dazu aber ebenfalls, denn das liefert den Rahmen für das kleine Bewusstseinsfenster. Des Weiteren dürften wir anhand solcher Hintergrundaktivität wahrscheinlich so man ches über einige häufige neurologische Erkrankungen erfahren können. Für entsprechende Studien müssen sich die Betroffenen praktischerweise weder in Hirnakrobatik üben noch ausgefeilte Bewegungen durchführen. Es genügt, wenn sie ganz ruhig im Scanner liegen und an nichts Besonderes denken. Dann können die Ärzte das stille Geschehen am bes ten erfassen. Schon jetzt haben solche Studien einiges von Interesse aufgezeigt. Bei der Alzheimerkrankheit, Depressionen, Autismus oder selbst bei Schizophrenie zeigen Hirnaufnahmen in manchen Teilen des Ruhestandardnetzes veränderte Nervenzellverbindungen. Vielleicht werden Mediziner die Alzheimerdemenz einmal als Erkrankung jenes Systems bezeichnen. Denn wenn man die bei Alzheimer lädierten Gebiete kartiert und diese Karten über eine des DMN legt, passen die degenerierten Hirngebiete gut darauf (Kasten S. 65). Solche Veränderungen könnten eines Tages nicht nur zur Diagnose hinzugezogen werden, sondern sie helfen vielleicht auch, die Krankheitsursachen zu erkennen und Behandlungsstrategien zu entwickeln. Zukünftige Forschungsprojekte sollten sich nun auch auf der Ebene einzelner Zellen mit der koordinierten Aktivität innerhalb und zwi schen Hirnsystemen befassen. Eine zentrale Frage ist dabei, wie es das Ruhestandardnetz erreicht, dass in den einzelnen Schaltkreisen die passenden chemischen und elektrischen Signale auftreten. Es wird neue Theorien erfordern, um die zu erwartenden Datenmengen über Zellen, Schaltkreise und komplette neurale Systeme zusammenzuführen und auszuwerten. Erst ein breiterer Ansatz dürfte eines Tages genauer zeigen, wie der Chefdirigent seine Aufgabe im Hintergrund erfüllt und all die Grundaktivitäten des Gehirns miteinander vereinbart. Vielleicht entpuppt sich die dunkle Energie des Gehirns als die Essenz, die uns überhaupt funktionieren lässt. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Wissenschaft im Rückblick
Schneller als der Schall »Zwei Fluggesellschaften sind dabei, in den nächsten zehn Jahren große Flugzeuge für die zivile und militärische Ver wendung einzuführen, die schneller sind als der Schall.
Die North American Aviation baut zur Zeit den Prototyp des Bombers B-70. Lockheed Aircraft spricht von einem 3000 km/h schnellen Trans portflugzeug, das auch als Tanker für militärische Zwe cke einsetzbar ist. Die Vertre ter von Lockheed behaupten, es gäbe keinen technischen, betriebstechnischen oder wirt schaftlichen Grund dafür, daß nicht ein Überschalltransport flugzeug entwickelt werden könnte.« Populäre Mechanik, 5. Jg., Bd. 10, Heft 6, Juni 1960, S. 8
Im stromlinienförmigen Modell von Lockheed sollen Fluggäste über den Deltaflügeln sitzen.
Kernreaktor für die Westentasche »Neuerdings werden Einzelheiten über den thermoelektrisch arbeitenden SNAP-III-B bekannt, der etwa 5 Wh/g erzeugt. Das Herz des Generators ist ein 1700 Curie-Polonium-210Präparat (α-Strahler), das eine Wärmemenge von 53 Watt ent wickelt. Das Gewicht der Zelle beträgt 2 kg. Anstelle von Polo nium ist auch die Verwendung anderer Elemente in Aussicht genommen. Solche Aggregate können z. B. zum Betrieb von Wetterstationen oder in Relaisstationen für die Nachrichten übermittlung in schwer zugänglichen Gegenden dienen.« Umschau in Wissenschaft und Technik, 60. Jg., Heft 11, 1. Juni 1960, S. 347
Gasthaus zum Gorilla »W. M. Baumgartel, Inhaber des Gasthauses ›Traveller’s Rest‹ bei Kison (West Ugan da) ist es in nur vier Jahren ge lungen, mit den dortigen Ban tu eine Gruppe Gorillas an den Menschen zu gewöhnen. Heute ist dieses Gasthaus ein internationales Beobachtungs zentrum für Wissenschaftler, die die Verhaltensweise dieser Primaten in freier Natur be
Gefahrenquelle Hutnadel
Süße Früchte
»Der mit Recht geführte Kampf gegen die langen Damenhut nadeln, welche das Auge der Nebenmenschen ständig gefähr den, hat auch die Erfinder beschäftigt, dem Übel abzuhelfen oder neue, weniger gefährliche Ersatznadeln zu schaffen. In bei gefügtem Bilde bringen wir eine solche amerikanische Neuheit. Infolge einer Einschiebeeinrichtung besitzt die Nadel keine äu ßeren Spitzen: beide außerhalb des Hutes befindlichen Na delenden haben Schutzknöpfe. Die Befestigung des Hutes ge schieht durch Drehung des äußeren Knopfs, dabei krallen sich die im Innern des Hutes befindlichen Haken der Nadel in das Haar und halten die Kopfbedeckung sicherer als bisher zwei oder drei Nadeln.« Die Umschau, 14. Jg., Nr. 25, 18. Juni 1910, S. 499
»Vinson stellte Versuche über den beschleunigenden Ein fluß von Chemikalien auf das Reifen der Früchte an. Er fand z. B., daß unreife Datteln nach 15 Stunden langer Behand lung mit Essigsäuredämpfen vollständig reiften, ein Pro zeß, der durch Sonnenwärme oder Temperaturerhöhung auf 45 Grad beschleunigt werden konnte. Die chemisch ge reiften Datteln sind wegen des noch vorhandenen Rohzucker
obachten wollen. In diesem Zusammenhang sei erwähnt, daß auch ein anderes Gebiet in Zentralafrika für Primaten forschung von Bedeutung ist. Am Ufer des Tanganjikasees gibt es die einzige bekannte Gruppe von Schimpansen, die im offenen Gelände und nicht im Urwald lebt.« Naturwissenschaftliche Rundschau, 13. Jg., Heft 6, Juni 1960, S. 233
gehalts der unreifen Früchte schmackhafter als die natür lich gereiften. Vinson glaubt, dass (dieser Effekt, die Red.) auf eine Abtötung bzw. Rei zung des Protoplasmas, sowie auf Lösung der Enzyme zu rückgeführt werden muss.« Kosmos, 7. Jg., Heft 6, Juni 1910, S. 236
Dank einer Schiebevorrichtung lässt sich die neue Nadel an jede Hutgröße anpassen. SPEKTRUM DER WISSENSCHAFT · JUNI 2010
»Zwischen den Regierungen des Deutschen Reiches und der französischen Republik ist ein neues Uebereinkommen über den Fernsprechverkehr zwischen den beiden Ländern abge schlossen worden. Die Leitungen zwischen den beiden Staaten sollen hinsichtlich ihres Durchmessers, ihrer Leitfähigkeit und Isolierung den Bedingungen entsprechen, unter welchen der Sprechverkehr abgewickelt werden soll. Als Einheit für die Ge bührenberechnung gilt das Gespräch von 3 Minuten. Länger als 6 Minuten darf auf eine Anmeldung hin nur dann gespro chen werden, wenn keine anderen Gespräche angemeldet sind.« Zeitschrift für Schwachstromtechnik, 4. Jg., Heft 12, Juni 1910, S. 324
67
Kürzungen werden nicht eigens kenntlich gemacht.
Fernsprechen nach Frankreich
MATHEMATISCHE UNTERHALTUNGEN FuSSball
Adidas
Ist Fußball ein Glücksspiel? Nicht ganz. Aber der Zufall wird auch bei der anstehenden Weltmeisterschaft eine so überragende Rolle spielen, dass man mit einer statistischen Analyse ziemlich weit kommt. Von Holger Dambeck
D
er Frust bei den Bayern saß tief. Mit einem Sieg gegen den englischen Verein Bolton Wanderers hätten die Münchner im November 2007 den Einzug in die nächste UEFA-Pokal-Runde klarmachen können. Doch das Spiel in München endete 2 : 2. Hinterher gab es Kritik an der Personalpolitik von BayernTrainer Ottmar Hitzfeld, der wichtige Spieler wie Philipp Lahm oder Franck Ribéry nicht aufgestellt oder früh ausgewechselt hatte. »Fußball ist keine Mathematik«, stichelte Bayern-Vorstand KarlHeinz Rummenigge nach dem Spiel in Richtung des einstigen Mathelehrers – und lag damit falsch. Schon seit Jahren analysieren Wissenschaftler das Spiel auf dem Rasen, vor allem mit mathematischen Methoden. Statistiken über verwandelte Elfmeter oder die Auswirkungen Roter Karten sind dabei noch vergleichsweise simpel. Anspruchsvoller wird es, wenn man versucht, den Einfluss von Glück und Pech abzuschätzen oder gar eine ganze Liga zu modellieren. Forscher wie Fans sind sich einig: Die Unvorhersehbarkeit macht den Reiz von Fußball aus. Alles ist möglich, auch eine
Wahrscheinlichkeit
Spektrum der Wissenschaft, nach: Holger Dambeck, Metin Tolan und dasfussballstudio.de
durchschnittliche Toranzahl
0,35 0,30 0,25 0,20 0,15 0,10 0,05
1 3 5
0
1
2
3
4
5
6
7
8
9 10
Toranzahl k beobachtete Häufigkeit Wahrscheinlichkeit nach Poisson-Verteilung
0,20 0,15 0,10 0,05 0
1
2
3
4
5
6
Toranzahl k
68
7
8
9 10
Drittligamannschaft kann Spitzenteams wie Bayern, Schalke oder Leverkusen schlagen. Eine Mannschaft kommt in einem Spiel nur auf etwa 10 bis 20 Torschüsse, von denen obendrein nur ein geringer Teil erfolgreich ist. Bei so geringen Zahlen spielt unweigerlich der Zufall eine wichtige Rolle. Dagegen fallen in einem Handballspiel oft 50 und mehr Tore, und die Erfolgsquote bei Angriffen ist viel höher. Es ist wie beim Würfeln: Je öfter geworfen wird, umso näher kommt man dem Ergebnis, das zu erwarten ist, also einer Gleichverteilung der Augenzahlen oder beim Ballspiel dem Sieg des Favoriten. Wer nur wenige Male würfeln oder schie ßen darf, muss vor allem Glück haben.
Theorie der Torschüsse: die Poisson-Verteilung
Statistiken bestätigen dieses Phänomen. Der Physiker Eli Ben-Naim vom Los Alamos National Laboratory hat 2007 untersucht, wie oft Spiele im Fußball, Eishockey, Basketball, Baseball und American Football überraschend ausgegangen sind – also mit einer Niederlage des Favoriten. Fußball erwies sich dabei mit einer Quote von 45 Prozent als Spitzenreiter vor Basketball mit 36 Prozent. Noch besser verstehen lässt sich der Einfluss des Zufalls, wenn man das Fußballspiel mathematisch modelliert. Das erscheint zunächst als verwegenes Vorhaben. Doch es ist verblüffend einfach, solange man nur hinreichend ungenau hin Unter der Voraussetzung, dass die durchschnittliche Anzahl der Tore, die während eines Fußballspiels fallen, bekannt ist, berechnen sich die Wahrscheinlichkeiten, dass 0, 1, 2, … oder 10 Tore fallen, nach einer Poisson-Verteilung (oben). Die Häufigkeit der Toranzahlen in allen Bundesligaspielen von 1963/64 bis 2009/10 (30. Spieltag) folgt dieser Verteilung sehr genau – mit charakteristischen Abweichungen (unten).
schaut. Einzelne Spielzüge oder gar Torschüsse werden nicht analysiert; vielmehr fasst man sie als Ergebnis eines Zufallsprozesses auf. Man tut also zum Beispiel so, als würde während des Spiels immer wieder eine Art Würfel mit sehr vielen Seiten geworfen. Nur sehr wenige dieser Seiten tragen die Aufschrift »Tor für die Heimmannschaft« oder »Tor für die Gäs te«, und ein Tor fällt genau dann, wenn bei einem Wurf eine entsprechende Seite nach oben zu liegen kommt. Die Auf gabe besteht dann darin, aus den End ergebnissen vieler Spiele zu erschließen, wie der Würfel gebaut ist. Pro Bundesligaspiel fallen im Schnitt ungefähr drei Tore. Der Dortmunder Physiker Metin Tolan hat für sein Buch »So werden wir Weltmeister« die Ver teilung der Tore bei mehr als 14 000 Bundesligabegegnungen ab der Saison 1963/64 untersucht. Am häufigsten, und zwar fast 3300-mal, fielen zwei Tore. Das Ergebnis lautete dann also 2 : 0, 1 : 1 oder 0 : 2. Bei mehr als 2800 Spielen gab es drei Treffer (3 : 0, 2 : 1, 1 : 2, 0 : 3). Die Wahrscheinlichkeit für noch mehr Tore sinkt danach rasant. So fielen nur bei 47 Spielen neun Tore. Trägt man die Anzahl der Spiele, bei denen genau k Tore gefallen sind, gegen diese Zahl k auf, so ergibt sich ein Bild, das dem Statistiker vertraut ist: die Poisson-Verteilung. Sie gilt nicht nur für Fußballtore, sondern für alle Ereignisse, die in einem gewissen Sinn als selten gelten können: Blitzeinschläge, Autounfälle, radioaktive Zerfälle … In der Theorie tritt die Poisson-Verteilung dann auf, wenn drei Voraussetzungen erfüllt sind: ➤ Man kann die Zeit in so kleine Intervalle einteilen, dass in jedem Intervall höchstens ein Ereignis eintritt; ➤ die Wahrscheinlichkeit, ein Ereignis in einem Zeitintervall irgendeiner Länge zu finden, ist proportional dieser Länge; ➤ und das Eintreten des Ereignisses wird nicht durch vorherige Ereignisse beeinflusst. SPEKTRUM DER WISSENSCHAFT · Juni 2010
mensch & geist All dies trifft für Tore beim Fußball mit großer Genauigkeit zu. Wenn t die mittlere Anzahl der Ereignisse pro Zeiteinheit ist, dann kann man die Wahrscheinlichkeit, dass in einer Zeiteinheit genau n Ereignisse eintreten, mit folgender Formel berechnen: P(n) = t n /n! · e –t Dabei ist e = 2,71828… die eulersche Zahl. Je größer t ist, desto breiter und flacher ist die Kurve (Grafik S. 68, oben). Zeichnet man nun die Poisson-Verteilung für t = 3,0836 (das ist die genaue Durchschnittszahl der Tore pro Spiel) in die Torstatistik ein (Grafik S. 68, unten), fällt zunächst die gute Übereinstimmung ins Auge. Auf den zweiten Blick entdeckt man einige Abweichungen zwischen Realität und Theorie. Ein 0 : 0 tritt häufiger auf als prognostiziert, Ergebnisse mit einem Tor (1 : 0, 0 : 1) sind dafür seltener. Auch drei Tore fallen weniger oft, als man laut Poisson-Verteilung erwarten würde. Dafür treten Ergebnisse wie 1 : 1 und 2 : 2 etwas häufiger auf. Trotzdem liefert die Formel verblüffend genaue Prognosen für Torzahlen, wie folgendes Beispiel zeigt: Wie groß ist die Wahrscheinlichkeit, dass in einem Bundesligaspiel mehr als ein Tor fällt? Dazu brauchen wir nur die Wahrscheinlichkei ten für null und für ein Tor zu berechnen und diese Werte von eins abzuziehen. Für t = 3 erhalten wir P(0) = e –3 und P(1) = 3 · e –3. Die gesuchte Wahrscheinlichkeit für mehr als ein Tor ist dann P(>1) = 1 – P(0) – P(1) = 1 – 4 · e –3 = 0,8. In 80 Prozent aller Spiele müssten demnach zwei oder mehr Tore fallen. Tatsächlich waren es 81 Prozent. Das Modell lässt sich noch verfeinern, wenn man berücksichtigt, dass es torstarke und weniger treffsichere Mannschaf ten gibt. Nehmen wir an, Team A schießt im Durchschnitt zwei Tore je Spiel, Team B nur eins. Wie wahrscheinlich ist dann ein 1 : 0? Es ist das Produkt PA(1) · PB(0), also P(1 : 0) = 2 · e –2 · e –1 = 2 · e –3 = 0,1 = 10 Prozent. Auf dieselbe Weise errechnet man, dass die Wahrscheinlichkeit für ein 0 : 1 – eine Niederlage des Favoriten – genau halb so groß ist wie die Wahrscheinlichkeit für ein 1 : 0. Das ist plausibel, schließlich schießt Mannschaft A im Durchschnitt doppelt so viele Tore wie Team B. Bislang ist unser Modell unvollständig, denn wir haben nur die Torgefährlichkeit SPEKTRUM DER WISSENSCHAFT · Juni 2010
eines Teams berücksichtigt, nicht jedoch seine Abwehrstärke. Eine Mannschaft, die im Schnitt pro Spiel zwei Tore schießt, aber zugleich fast immer drei kassiert, wird auf Dauer kaum besser spielen als eine, die durchschnittlich 1,5 Tore erzielt und 1,2 Tore einstecken muss.
Tordifferenz als Fitnessmaß
Interessanterweise muss man Angriffsund Abwehrstärke nicht als zwei getrennte Größen modellieren. Andreas Heuer vom Institut für Physikalische Chemie der Universität Münster hat gezeigt, dass es genügt, die Differenz beider Größen zu berücksichtigen. Man berechnet für jede Mannschaft individuell deren durchschnittliche Tordifferenz ΔG; sie dient als Maß für die Leistungsstärke (Fitness) der Mannschaft. Verblüffenderweise beschreibt ΔG die Stärke eines Teams besser als die erreichte Punktzahl. Ein fiktives Beispiel: Mannschaft A hat nach drei Spielen mit den Ergebnissen 1 : 0, 1 : 0, 1 : 0 zwar einen besseren Tabellenplatz als Mannschaft B, die 3 : 0, 4 : 0 und 1 : 2 gespielt hat. Aber B hat ein ΔG von 2 und ist damit im Prinzip stärker als A mit ΔG = 1. Das dürfte sich auch im Endergebnis zeigen. Allgemein ist die in der ersten Saisonhälfte erreichte mittlere Tordifferenz der beste Indikator für das Endergebnis: Mit ihr korrelieren sowohl die zu Saisonende erreichte Punktzahl als auch die endgültige Tordifferenz stärker als mit der Punktzahl aus der Hinrunde (Grafik S. 70). So konnte man bereits zur Halbzeit der Saison 2007/08 den rasanten Auf-
stieg des VfL Wolfsburg anhand seiner für den Tabellenplatz ungewöhnlich guten Tordifferenz von 0 vorausahnen. Wie ist nun das individuelle ΔG für jede Mannschaft zu berechnen? Im Prinzip, indem man den Durchschnitt über die Tordifferenzen vergangener Spiele bildet. So geht Heuer auch vor; allerdings gehen die Ergebnisse mit einem umso geringeren Gewicht in die Berechnung ein, je älter sie sind. Schließlich ändern sich Mannschaften allmählich mit der Zeit, so dass die Fitness von vor drei Jahren nicht mehr allzu viel über die gegenwärtige Stärke aussagt. Bei den umfangreichen statistischen Untersuchungen von Spielergebnissen hat Heuers Team einige Überraschungen erlebt, die auch in die Modellierung mit einfließen. So beschreibt er den Heimvorteil als eine Konstante, die zu der Fitness der Heimmannschaft hinzuaddiert wird – und hat bei der Berechnung herausgefunden, dass der Heimvorteil für alle Bundesligateams innerhalb der sta tistischen Ungenauigkeit gleich ist, sich aber von Jahr zu Jahr ändern kann. Dass eine einzelne Mannschaft besonders heimstark ist, gehört demnach zu den typischen Fußballmythen. Auch Positiv- und Negativserien haben die Forscher analysiert, also die Frage, ob Siege oder Niederlagen in vorherigen Spielen Auswirkungen auf das nächste Spiel haben. Erstaunlicherweise trifft das nur in einem Fall zu: Nach drei Niederlagen in Folge pflegt eine Mannschaft auch im nächsten Spiel »unter Wert« abzuschneiden. 69
23
2
Werder Bremen
36
18
3
Hamburger SV
32
11
0,44
4
Bayer Leverkusen
30
16
0,45
Spektrum der Wissenschaft, nach: Holger Dambeck
Schalke 04
29
9
Karlsruher SC
28
–2
7
Hannover 96
27
–1
8
VfB Stuttgart
25
–1
9
Eintracht Frankfurt
23
–4
10
Borussia Dortmund
21
–4
11
VfL Wolfsburg
20
0
12
Hertha BSC
20
–5
13
VfL Bochum
19
–2
14
Arminia Bielefeld
18
–19
15
Hansa Rostock
17
–10
16
1. FC Nürnberg
15
–7
Platz 1 bis 3
Team
5 6
0,59
0,96 0,93
0,54 0,27
17
Energie Cottbus
15
–10
0,60
18
MSV Duisburg
13
–12
0,84
Wie mit dieser Methode Prognosen für die Bundesliga berechnet werden, sei am Beispiel des Spiels Bayer Leverkusen gegen Bayern München am 10. April 2010 (30. Spieltag) demonstriert. Das Match war wichtig für beide Teams: Es ging um die Meisterschaft und um die Teilnahme an der Champions League. Aus den Tordifferenzen der Vergangenheit ergibt sich zunächst ein ΔG von 0,55 für Leverkusen und 0,80 für Bay ern. Der Heimvorteil, der in der Bundesliga normalerweise etwa 0,50 beträgt, lag in der aktuellen Saison bei lediglich 0,15. Demnach lag die erwartete Tordifferenz bei 0,55 + 0,15 – 0,80 = –0,10, ein sehr geringer Vorsprung für die Bay ern, der ein spannendes Spiel versprach. Nur hatte Leverkusen unmittelbar zuvor drei Niederlagen in Folge einstecken müssen, ein Demoralisierungseffekt, der mit –0,15 einzuschätzen ist. Damit fällt die erwartete Tordifferenz auf –0,25 zu Ungunsten von Leverkusen. Die Gesamtzahl der in dem Spiel zu erwartenden Tore wurde, wie hier nicht näher erläutert wird, auf 2,85 geschätzt. Das teilt sich nach obigen Berechnungen auf in 1,55 Tore für Bayern und 1,30 für Leverkusen. 70
Platzwechsel
36
Abstiegsplatz
Tordifferenz
Bayern München
Platz 1
Punktzahl
1
erreichter Platz
UNTERHALTUNGEN MATHEMATISCHE
Wahrscheinlichkeit für
Mit diesen Angaben kann man Voraussagen treffen: In 41 Prozent der Fälle siegen die Münchner. Die Wahrscheinlichkeiten für ein Unentschieden ist 28 Prozent, die eines Bayer-Siegs liegt bei 31 Prozent. Diese Werte liegen sehr nah an den Wahrscheinlichkeiten, die sich aus den Oddset-Wettquoten ergeben haben (Sieg Bayern: 40 Prozent, Sieg Leverkusen: 31 Prozent, Remis: 29 Prozent). Berechnet ist das alles in Sekundenbruchteilen. Die Spieler auf dem Rasen in Leverkusen kämpften 92 Minuten um den Sieg – am Ende stand es 1 : 1. Wenn man diese Methode auf alle noch zu spielenden Begegnungen anwendet, lassen sich zu jedem Zeitpunkt einer Saison Prognosen für die Ab schlusstabelle berechnen. Statt Ribéry, Pizarro oder Kießling versenkt jedoch dann ein Zufallsgenerator, der einen Poisson-Prozess nachbildet, die Bälle im Netz. Das verstärkte Auftreten von Ergebnissen wie 0 : 0 oder 1 : 1 wird durch eine kleine Korrektur berücksichtigt. So wird die ganze verbleibende Saison 10 000-mal simuliert. Die zu erwartende Endplatzierung einer Mannschaft ist nichts anderes als der Mittelwert über alle 10 000 Simulationen. Und meist
Die vier linken Spalten zeigen das Ergebnis der Hinrunde in der Saison 2007/08. Aus diesen Daten sowie den Ergebnissen der Spielzeiten 2004/05 bis 2006/07 hat Andreas Heuer eine Prognose für das Ergebnis am Saisonende errechnet (Balkendiagram me). Lesebeispiel: Nach der Prognose ist es fast sicher (93 Prozent), dass Werder Bremen unter die ersten drei kommt, und einigermaßen wahrscheinlich (54 Prozent), dass Hansa Rostock absteigt. Die Pfeile (letzte Spalte) kennzeichnen die Verschiebungen, die in der Tabelle bis zum Saisonende stattgefunden haben.
steht dabei Bayern München am Ende ganz oben. Diese Art von Mathematik könnte womöglich selbst Skeptiker wie Karl-Heinz Rummenigge überzeugen. Wie tauglich die Methode für Weltmeisterschaften oder die englische Premier League ist, muss Heuer noch untersuchen. Zumindest bei einer WM dürfte es größere Probleme geben, weil diese nur alle vier Jahre stattfindet und sich die Zusammensetzung der Mannschaf ten in einem solchen Zeitraum stark ändert. Eine Berechnung der Spielstärke anhand der mittleren Tordifferenz ΔG wird so erschwert. Sicher ist auf jeden Fall eins: die Spannung bei jedem Fußballspiel. Und selbst wenn die mathematische Beschreibung immer besser gelingt, Tore lassen sich auch künftig nicht vorhersagen. Zum Glück für alle Beteiligten.
Holger Dambeck ist Redakteur bei »Spiegel online« und schreibt regelmäßig eine Mathematik-Kolumne, die jetzt auch als Buch erschienen ist (»Numerator – Mathematik für jeden«).
Ben-Naim, E. et al.: What is the Most Competitive Sport? In: Journal of the Korean Physical Society 50, S. 124 – 126, 2007; online unter http:// arxiv.org/abs/physics/0512143. Tolan, M.: So werden wir Weltmeister. Piper, München 2010. Heuer, A., Rubner, O.: Fitness, Chance and Myths: an Objective View on Soccer Results. In: The European Physical Journal B67, S. 445 – 458, 2009; online unter http://arxiv.org/abs/0803.0614. Heuer, A. et al.: Soccer: Is Scoring Goals a Predictable Poissonian Process? In: Europhysics Letters 89(3), 38007, 2010; online unter http://arxiv. org/abs/1002.0797. SPEKTRUM DER WISSENSCHAFT · Juni 2010
ESSAY: freier wille
Spektrum-Diskurs
Schuld und freier Wille Denn sie wissen nicht, was sie tun … Wir sollten unsere Haltung gegenüber unseren Mitmenschen ändern. Statt moralischer sollten wir ästhetische Urteile über ihr Verhalten fällen. Von Edgar Dahl
W
ie der Vatikan inzwischen zugegeben hat, soll es allein in den vergangenen zehn Jahren mehrere tausend Kla gen gegen Priester wegen sexueller Übergriffe an Kindern gegeben haben. Auch aus ande ren, nichtkirchlichen Institutionen wurden Missbrauchsfälle bekannt. Wie soll man mit den mutmaßlichen Tätern verfahren? Natür lich gilt das Strafrecht. Aber ist, wie manche Mediziner meinen, Pädophilie womöglich eine Krankheit, so dass die daran Erkrankten nach unserer Rechtsprechung nur »vermin dert schuldfähig« sind? »Keiner sucht sich das 72
aus«, meint etwa Klaus Beier, Leiter eines Forschungsprojekts zum Kindesmissbrauch von der Berliner Charité. »Niemand ist ver antwortlich für seine sexuelle Neigung, wohl aber für den Umgang damit.« Dieses salomonische Wort führt auf ein grundsätzliches philosophisches Problem: Ha ben Menschen Willensfreiheit? Hätten sie auch anders handeln können, als sie tatsäch lich gehandelt haben? Streng genommen ha ben wir es bei der Frage nach der Freiheit des Willens – ähnlich wie bei der Frage nach Gott oder der Seele – mit einem schier unlösbaren Problem zu tun. Unlösbar, weil sich Existenz aussagen nicht widerlegen und Nichtexistenz aussagen nicht beweisen lassen. Dies ist kein Grund zur Resignation. Denn wir können sehr wohl das Problem lösen, das sich dahinter verbirgt. Dass uns die Willens freiheit umtreibt, liegt schließlich vor allem an unserem Wunsch, zu wissen, ob wir Men schen für ihre Handlungen moralisch verant wortlich machen können. Ob Menschen für das, was sie tun, Lob und Tadel verdienen, ist viel einfacher zu klären als gemeinhin angenommen. Dazu bedarf es weder der Messung von neuronalen Aktions SPEKTRUM DER WISSENSCHAFT · Juni 2010
Mensch & Geist
In den letzten Monaten haben sich viele Menschen gemeldet, die in ihrer Jugend Opfer sexuellen Missbrauchs geworden sind. Für einige Mediziner sind Pädophile krank und daher nur vermindert schuldfähig. Dies hat jetzt auch Philosophen auf den Plan gerufen. Sind Menschen Herr ihres Willens? Hätten sie anders handeln können, als sie tatsächlich gehandelt haben? Und wenn nicht, wie steht es dann mit Verant wortung, Schuld und Strafe? Der Medizinethiker Edgar Dahl äußert sich zu diesem brisanten Konflikt. Der Berliner Philosoph Michael Pauen antwortet auf Dahls Thesen.
potenzialen noch der Auswertung von Auf nahmen eines Magnetresonanztomografen. Die Frage, ob wir unsere Mitmenschen für ihr Tun und Lassen zur Verantwortung ziehen dürfen, lässt sich nämlich sogar a priori verneinen. Die hierzu erforderliche Überlegung der Philosophen Arthur Schopenhauer (1788 – 1860), Friedrich Nietzsche (1844 – 1900) und Galen Strawson (* 1952) ist dabei ein fach: Wir tun, was wir tun, weil wir sind, wie wir sind. Dass wir sind, wie wir sind, ist weder unsere Schuld noch unser Verdienst. Denn so, wie wir uns nicht aussuchen konn ten, geboren zu werden, so hatten wir keine Wahl, mit welchem genetischen Erbe und in welche soziale Umwelt wir geboren wurden. Da wir also keine Kontrolle über Geburt, Erbe und Umwelt hatten, können wir auch nicht dafür verantwortlich sein, dass wir sind, wie wir sind. Gewiss, Menschen können prinzipiell ihr Verhalten ändern. Doch ob sie dazu wirklich in der Lage sind, ist wieder eine Frage von Erbe und Umwelt. Den einen ist es gegeben, den anderen ist es verwehrt. Insofern allein Erbe und Umwelt entscheiden, ist es also letztlich eine Sache von Glück oder Pech. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Wenn aber bloßes Glück oder Pech entschei det, kann man Menschen keinen Vorwurf da raus machen, dass sie sind, wie sie sind, und dass sie handeln, wie sie handeln. Wem ein genetisches Erbe und eine soziale Umwelt be schieden sind, die ihn vor einem Konflikt mit dem Gesetz bewahren, der hat in der Lotterie des Lebens schlicht Glück gehabt. Jemanden deswegen zu loben oder andernfalls zu tadeln, ist jedoch ungerechtfertigt. Nach allem, was wir wissen, sind mensch liches Denken, Fühlen und Wollen Funktio nen unseres Gehirns. Wie alle anderen Organe, so unterliegt selbstverständlich auch unser Ge hirn dem Kausalitätsgesetz. Wenn es durchweg deterministisch arbeitet, dann kann für Frei heit und Verantwortung offensichtlich kein Raum sein. Doch selbst wenn unser Gehirn indeterministisch funktionierte und es neben kausalen Prozessen durchaus auch akausale ge ben sollte, bliebe für Freiheit und Verantwor tung kein Raum. Schließlich können wir für Handlungen, die sich dem Zufall verdanken, genauso wenig etwas wie für Handlungen, die sich der Notwendigkeit verdanken. An dieser Stelle tauchen die Fragen auf, die dem Problem der Willensfreiheit überhaupt erst
In Dostojewskis Meisterwerk »Schuld und Sühne« (hier in der Verfilmung von Lew Kulid shanow aus dem Jahr 1970) rechtfertigt Raskolnikow seinen Mord, bevor ihn das Grauen sowie die Angst vor Entdeckung überfällt.
73
alle drei: public domain
ESSAY: freier wille
Arthur Schopenhauer (1788 – 1860) sowie Friedrich Nietzsche (1844 – 1900) vertreten die einfache Sicht: Wir tun, was wir tun, weil wir sind, was wir sind. Moritz Schlick (1882 – 1936) hält unsere Praxis des Strafens für gerechtfertigt.
INFO I
Michelle Montague; mit frdl. Gen. von Galen Strawson
Freier Wille Beim Thema Willensfreiheit streiten sich die Gelehrten um eine Definition, mit unterschiedlicher Bedeutung im Alltag, in der Rechtspre chung oder in der Psycho logie. Der zentrale Dissens dreht sich um die Frage, wovon der Wille eines Menschen frei zu sein hat, damit von einem freien Willen oder Freiwilligkeit ge sprochen werden kann.
Für den britischen Philosophen Galen J. Strawson (* 1952) ist die Tatsache, dass wir sind, wie wir sind, weder unsere Schuld noch unser Verdienst.
74
ihre Brisanz verleihen: Wenn jemand für sein Verhalten nicht verantwortlich gemacht wer den kann, erscheinen Schuld und Strafe unge rechtfertigt. Bedeutet dies, dass wir Mörder nicht mehr einsperren dürfen? Wäre das nicht eine Absage an Moral und Recht – ja sogar ein Freibrief für Anarchie? Nein! Wie etwa die Phi losophen Norbert Hoerster (* 1937), Gerhard Vollmer (* 1943) und Mario Bunge (* 1919) gezeigt haben, schließt der Abschied von der Willensfreiheit keineswegs den Abschied von Recht und Ordnung ein. Um dies zu verste hen, müssen wir uns nur auf die eigentliche Funktion von Moral und Recht besinnen. Moralische und rechtliche Normen beru hen weder auf göttlichen Geboten noch auf natürlichen Sittengesetzen, sondern einzig und allein auf menschlichen Interessen. Moralische und rechtliche Normen sind – ähnlich wie die Bestimmungen eines Vertrags zum gegenseiti gen Vorteil – bloße Konventionen. Sie haben die ganz weltliche und zugleich doch äußerst wichtige Aufgabe, menschliche Interessenkon flikte zu lösen und zu einem friedlichen Zu sammenleben beizutragen. Um von einer Norm zu sagen, dass sie ge rechtfertigt ist, muss gezeigt werden können, dass ihre Befolgung in unser aller Interesse ist. Von vielen Normen lässt sich dies ohne Weiteres zeigen. Nehmen wir beispielsweise die Norm »Du sollst nicht töten!«: Jeder mag gelegentlich einen anderen töten wollen. Weitaus größer ist jedoch unser Interesse, nicht selbst getötet zu werden. Da der Nach teil, nicht töten zu dürfen, von dem Vorteil, nicht getötet zu werden, mehr als aufgewo gen wird, hat jeder von uns einen guten Grund, sich für ein allgemeines Tötungsver bot auszusprechen. Dass ein generelles Tötungsverbot in unser aller Interesse ist, ist freilich noch keine Ge währ dafür, dass es auch tatsächlich von jedem befolgt wird. Schließlich steht immer zu be fürchten, dass es einige Menschen geben wird, die sich zwar an dem Nutzen, nicht aber an den Kosten eines solchen Verbots beteiligen wollen. Um sicherzustellen, dass es wirklich
von allen befolgt wird, ist es daher in jeder manns Interesse, das Tötungsverbot mit einer rechtlichen Sanktion zu versehen. Denn vor allem eine Sanktion wie der Freiheitsentzug kann für den Regelfall gewährleisten, dass das Tötungsverbot tatsächlich von niemandem verletzt wird.
Kein Ende von Recht und Ordnung
Was hier für Mord gezeigt worden ist, lässt sich auch für Diebstahl, Körperverletzung, Vergewaltigung und selbstverständlich auch für Kindesmissbrauch zeigen. Ganz unabhän gig davon, ob wir nun frei und verantwortlich sind – es ist offensichtlich in unser aller Inte resse, dass wir Verhaltensweisen, die uns scha den, sanktionieren. Selbst für den, der in der Lotterie des Lebens Pech gehabt hat und Ge fahr läuft, mit dem Gesetz in Konflikt zu ge raten, ist unser Gesellschaftsvertrag immer noch ein Angebot, das er nicht ausschlagen sollte. Denn dieselben Sanktionen, die ihm drohen, drohen schließlich auch anderen – und schützen damit auch ihn selbst! Dass Menschen für ihr Tun nichts können, bedeutet also keineswegs das Ende von Recht und Ordnung. Doch muss sich nicht zumin dest unser Verhalten gegenüber den Rechts brechern ändern? Dürfen wir sie weiter für »schuldig« erklären, ihnen moralische Vor würfe machen und sie guten Gewissens ins Gefängnis stecken? Manche Deterministen, die so genannten Kompatibilisten (siehe Info III, S. 77), sagen: Ja! So hat etwa der deutsche Physiker und Philosoph Moritz Schlick (1882 – 1936) be hauptet, dass unsere gegenwärtige Praxis des Tadelns und Strafens durchaus gerechtfertigt ist. Da Menschen sich unsere Vorwürfe zu Herzen nehmen und ihr Verhalten danach ausrichten, sei es weiterhin sinnvoll, sie für ihr Tun moralisch zu verurteilen und strafrecht lich zur Verantwortung zu ziehen. Schlick hat sicher Recht: Dies mag weiter hin »sinnvoll« sein. Doch die Frage ist nicht, ob es gesellschaftlich sinnvoll ist, sondern ob es moralisch gerechtfertigt ist. Schließlich sind SPEKTRUM DER WISSENSCHAFT · Juni 2010
SPEKTRUM DER WISSENSCHAFT · Juni 2010
ihr Verdienst sind, sondern ihr einfach in die Wiege gelegt wurden. Wie moralische Urteile, so verfehlen auch ästhetische Urteile ihre Wirkung nicht. Men schen sind in aller Regel bemüht, als höflich, zuvorkommend, hilfsbereit, zuverlässig, ver antwortungsbewusst, großzügig und fleißig zu gelten. Dagegen lassen sie sich nur ungern als faul, geizig, gehässig, gewissenlos, boshaft, niederträchtig oder schadenfroh bezeichnen. Selbst wenn diese Attribute nicht moralischnormativ, sondern ästhetisch-deskriptiv sind, lassen sich die allermeisten Menschen von die sen Urteilen beeinflussen. Mancher mag den Eindruck haben, dass ästhetische Urteile die moralischen Urteile nicht wirklich ersetzen können. Schließlich scheinen moralische Unwerturteile eine weit stärkere soziale Wirkung zu erzielen als ästhe tische. Doch ich wage zu bezweifeln, dass dies ein Nachteil sein muss. Denn moralische Ur teile gehen nicht nur mit sozialem Nutzen, sondern auch mit sozialen Kosten einher. Und der Zorn, die Wut oder der Hass, mit denen wir anderen begegnen, hat sowohl in persön lichen wie in politischen Beziehungen nur zu oft für vermeidbare Streitigkeiten und unnöti ges Blutvergießen gesorgt.
Keine Vergeltung an den Tätern
Das alles mag sich wie die seichte Predigt eines unverbesserlichen Gutmenschen anhö ren. Verlangt unsere Gesellschaft nicht gerade, dass wir endlich härter durchgreifen? Dass wir mit Verbrechern nicht nachsichtiger, sondern unnachsichtiger umgehen? Nun, wer glaubt, dass der Determinismus nicht tough on crime, sondern soft on crime sei, irrt sich. Der Deter minismus unterscheidet lediglich zwischen Verbrechern und Verbrechen. So war es beispielsweise durchaus konse quent, als der von Schopenhauer beeinflusste Staatsanwalt und bekennende Determinist Fritz Bauer in den Frankfurter AuschwitzProzessen hart durchgegriffen hat. Sein Ziel war schließlich nicht, Vergeltung an den Tä tern zu üben, sondern allen Menschen zu zei gen, dass es seinen Preis hat, sich an den Ver brechen eines Unrechtsregimes zu beteiligen. Und so gelang es ihm, ein wirksames Signal gegen die Verübung von Unmenschlichkeiten zu setzen. Dass wir keinen freien Willen haben, be deutet also keineswegs, dass wir gezwungen sind, jedes Verhalten wie eine Naturkatastro phe zu betrachten und es einfach tatenlos hin zunehmen. Unser Rechtssystem sollte jedoch in zweierlei Weise geändert werden. Zum ei nen sollten wir statt des Strafrechts ein Maß nahmerecht einführen. Und Begriffe wie
Gerhard Vollmer (* 1943), bekannt für seine evolutionäre Erkenntnistheorie, sieht keinen Widerspruch zwischen ob jektiver Determiniertheit und subjektiver Verantwortung.
INFO II Determinismus Nach Newtons physikalischer Theorie der klassischen Mechanik sind alle künftigen Ereignisse eindeutig festge legt, wenn alle Objekte der Gegenwart mit Ort und Geschwindigkeit bekannt sind. Dieser Determinismus wurde erst in der Quanten physik abgeschwächt, da sich damit künftige Ereig nisse (Messresultate) nur noch mit einer bestimmten Wahrscheinlichkeit vorher sagen lassen.
mit frdl. Gen. von Norbert Hoerster
viele Dinge sinnvoll, aber deshalb noch lange nicht gerechtfertigt. Denken wir nur an die »Sippenhaft«: Dass sie möglicherweise die Zahl der Verbrechen reduziert, rechtfertigt nicht, Unschuldige zu bestrafen. Ähnlich wie Schlick hat auch der Oxforder Philosoph Peter F. Strawson (1919 – 2006) unsere gegenwärtige Strafpraxis zu verteidigen gesucht. Seiner Ansicht nach gehören unsere moralischen Gefühle wie etwa Empörung, Wut, Zorn, Hass und Verachtung so sehr zu unserer Natur, dass es aussichtslos ist, von Menschen Nachsicht gegenüber Verbrechern zu erwarten. Peter Strawson liegt damit sicherlich nicht ganz falsch. Die meisten Menschen reagieren auf ein Verbrechen in der Tat mit Zorn. Und von den Opfern zu erwarten, ihre natürliche Entrüstung zu bezähmen, scheint etwas viel verlangt. Dennoch ist dieser Einwand nicht zwingend. Auch wenn bisweilen nach der To desstrafe gerufen wird, haben die meisten Menschen ihre moralistischen Aggressionen heute eher im Griff als früher. Nicht nur die Prügelstrafe, sondern auch die Todesstrafe er scheint vielen Menschen mittlerweile einer zi vilisierten Gesellschaft nicht würdig. Ein Beispiel dafür, dass sich unsere emo tionalen Reaktionen durchaus an empirischen Informationen orientieren können, bietet der berühmt gewordene Fall, über den der Neu rologe Jeffrey Burns von der University of Vir ginia kürzlich berichtete: Ein unbescholtener Lehrer wurde im Alter von 40 Jahren plötz lich von pädophilen Neigungen überwältigt. Als sich herausstellte, dass diese unbezähm baren Begierden von einem Tumor im orbitofrontalen Kortex verursacht wurden, änderte die zunächst entrüstete Bevölkerung ihre Hal tung sogleich – statt mit Vorwürfen reagierte sie mit Nachsicht. Wenn wir Rechtsbrechern aber nicht län ger mit Verachtung begegnen dürfen, was sol len wir dann tun? Nun, das Erste, was wir tun sollten, ist unsere Selbstgerechtigkeit aufge ben. Wie im Fall des pädophilen Lehrers müs sen wir uns dankbar in Erinnerung rufen, dass wir unter bestimmten Umständen alle mit dem Gesetz in Konflikt geraten können. Dies kann aber selbstverständlich nicht al les sein. Einem Vorschlag des britischen Phi losophen Jonathan Glover (* 1941) folgend, sollten wir noch einen Schritt weitergehen und unsere moralischen durch ästhetische Ur teile ersetzen. Während moralische Urteile Verdienst voraussetzen, kommen ästhetische Urteile bekanntlich ohne sie aus. So bewun dern wir etwa die Schönheit, den Charme oder die Intelligenz einer Person, obgleich uns durchaus bewusst ist, dass diese Reize nicht
mit frdl. Gen. von Gerhard Vollmer
Mensch & Geist
Für den Philosophen Norbert Hoerster (* 1937) basieren moralische und rechtliche Normen allein auf menschlichen Interessen.
75
Owen Egan; mit frdl. Gen. der McGill University
ESSAY: freier wille
Der argentinische Philosoph Mario Bunge (* 1919) hält Recht und Ordnung auch ohne Willensfreiheit für möglich.
Schuld und Verantwortung sollten mit neuem Inhalt gefüllt werden. Zunächst zum Begriff der Schuld. In einer Aussage des Bundesgerichtshofs heißt es: »Stra fe setzt Schuld voraus. Schuld ist Vorwerfbar keit. Mit dem Unwerturteil der Schuld wird dem Täter vorgeworfen, dass er sich für das Unrecht entschieden hat, obwohl er sich für das Recht hätte entscheiden können.« Da nach der von mir vertretenen Position, die man als revisionistischen Kompatibilismus bezeichnen kann, niemand anders hätte han deln können, als er tatsächlich gehandelt hat, bedarf der Begriff der Schuld einer neuen In terpretation. Danach kann Schuld nicht län ger etwas sein, was jemand auf sich lädt und uns das Recht gibt, es ihm zum Vorwurf zu machen. Vielmehr muss der Begriff seines normativen Inhalts beraubt und auf seinen rein deskriptiven Gehalt beschränkt werden. Mit dem Schuldigen dürfen wir also nicht länger vorschreibend, sondern nur noch be schreibend den »Urheber« oder »Verursacher« eines Ereignisses bezeichnen. Wenn wir jemanden zur Verantwortung ziehen, scheinen wir vorauszusetzen, dass er über Willensfreiheit verfügt. Doch dies muss keineswegs Willensfreiheit voraussetzen. Für die Verantwortung genügt es vollkommen, dass jemand die Zuständigkeit für etwas über
Viele wissen eben doch, was sie tun! Die Ersetzung moralischer durch ästhetische Urteile hätte absurde Konsequenzen. Wir brauchen nicht nur objektive Normen für das, was erlaubt und was nicht erlaubt ist – sondern auch dafür, unter welchen Bedingungen wir jeman den belangen, wenn er etwas Unerlaubtes getan hat. Von Michael Pauen
E
s gibt eine beliebte Strategie, mit dem Begriff der Willensfreiheit fer tigzuwerden. Der Kunstgriff besteht darin, den Begriff zu einer Erfin dung traditionalistischer Philosophen zu er klären, über deren antiquierte Ansichten die Wissenschaften, insbesondere Hirnforschung und Psychologie längst hinweggegangen seien. Statt sich also weiter mit dieser niemals en den wollenden, völlig unfruchtbaren Debatte
76
nommen und sich bereit erklärt hat, sich sein eventuelles Versagen zurechnen zu lassen. Zur Veranschaulichung dieses Punkts kön nen wir auf den Fall des Kindesmissbrauchs zurückkommen. Wenn sich ein Mann – de terminiert oder nicht – dazu entschließt, Leh rer an der Odenwaldschule zu werden, über nimmt er damit die Verantwortung für Erzie hung und Sicherheit der ihm anvertrauten Kinder. Dafür wird er bezahlt. Wenn er seiner Verantwortung jedoch nicht gerecht wird, in dem er die Erziehung und die Sicherheit der Kinder nicht gewährleistet oder sich gar an ih nen vergreift, muss er sich sein Versagen an rechnen lassen. Er muss sich daher auch zur Verantwortung ziehen lassen. Dies mag von einer Versetzung über eine Entlassung bis hin zum Freiheitsentzug reichen. Dasselbe gilt für den Leiter dieser Schule. Er hat die Verantwortung für die Lehrer über nommen und muss sich sein Versagen zu schreiben lassen. Selbst wenn er sich nicht selbst an einem Kind vergriffen hat, trägt er doch die Verantwortung für das Fehlverhalten der ihm unterstellten Lehrer. Wenn er den se xuellen Missbrauch der Kinder nicht bemerkt hat, hat er damit zu rechnen, zurücktreten zu müssen. Wenn er den Missbrauch sogar ge deckt hat, muss er damit rechnen, ins Gefäng nis gesteckt zu werden.
aufzuhalten, sollten wir den veralteten Begriff der Freiheit ganz aufgeben. Besser, wir gewöh nen uns daran, dass wir nun einmal von Na turgesetzen determiniert sind. Und wenn wir schon einmal dabei sind, dann können wir gleich kurzen Prozess mit einigen anderen nicht weniger antiquierten Begriffen machen: Warum noch von Schuld sprechen, wenn un ser Handeln doch ohnehin von Naturgesetzen festgelegt wird? Und was soll Verantwortung sein, wenn wir bezüglich der uns zur Last ge legten Tat doch gar keine Wahl hatten? Diese nicht ganz neue Strategie liegt auch dem Essay von Edgar Dahl zur Willensfreiheit zu Grunde. Auch in seinen Augen wird unser Handeln durch Umwelt und Gene festgelegt. Und da wir weder für unsere Gene noch für unsere Umwelt verantwortlich sind, sind wir für unser Handeln ebenfalls nicht verantwort lich – von Schuld kann keine Rede sein. So plausibel diese Argumentation auf den ersten Blick erscheinen mag – wenn man sie etwas näher betrachtet, werden gleich einige wichtige Probleme erkennbar. Eines besteht da rin, dass diese Argumentation den Begriff der Willensfreiheit gar nicht aufgibt, sondern mun SPEKTRUM DER WISSENSCHAFT · Juni 2010
ter einen ganz bestimmten Begriff der Freiheit verwendet, und das, ohne ihn zu begründen. Doch dieser Begriff ist äußerst problema tisch. Er bindet nämlich Freiheit daran, dass das eigene Handeln nicht determiniert ist: nicht von Naturgesetzen, nicht von Genen und auch nicht von der Umwelt. Und da es ein solches quasi aus dem Nichts kommendes Handeln nicht gibt, gibt es eben auch weder Freiheit noch Verantwortung oder Schuld. Dieser Schluss gilt natürlich nur so lange wie der zu Grunde gelegte Begriff von Freiheit. Aber der, das sieht auch Dahl, ist völlig ver fehlt: Eine Handlung, die von nichts abhängt, kann eben auch nicht von der handelnden Person abhängen. Wir hätten es mit einem bloßen Zufall zu tun – doch wie sollte man die Person für einen solchen Zufall verant wortlich machen? Statt diesen Begriff von Freiheit durch eine sinnvollere Konzeption zu ersetzen, bestreitet Dahl die Existenz von Freiheit selbst. Ein Pro blem mag er darin nicht erkennen: Auch wenn es Freiheit und Verantwortung nicht gibt, müssen wir in seinen Augen noch lange nicht auf unser Rechtssystem und die Strafen, durch die es abgesichert wird, verzichten. Die sind nach Dahl nämlich schon allein deshalb berechtigt, weil sie für jeden von uns Hab und Gut, Leib und Leben schützen. Doch halt! Hier lauert gleich die nächste Falle: Wem gegenüber sollten wir uns eigent lich rechtfertigen, und warum sollten wir dies tun, wenn es gar keine Freiheit und keine Ver antwortung gibt? Wenn Dahl Recht hat, dann kann sich doch jeder Abgeordnete, der die Ge setze erlässt, und jeder Richter, der Strafen ver hängt, darauf berufen, dass er gar nicht verant wortlich ist! Und das ist vielleicht auch ganz gut so. Denn wenn es darauf ankäme, könnte Dahls vermeintliche Rechtfertigung unseres Strafsystems wohl kaum überzeugen: Wäre es nicht ungerecht, einen Unschuldigen lebens lang hinter Gitter zu bringen, nur weil er un sere Interessen verletzt hat – selbst wenn es substanzielle Interessen sind? Nun ist der Verweis auf unsere Interessen allerdings nicht völlig falsch. Dahl hat näm lich Recht mit seiner Meinung, dass sich un ser Rechtssystem und insbesondere das mit ihm verbundene Strafregime auf eine Art Ver trag zurückführen lassen. Und dieser Vertrag ist unter anderem dadurch gerechtfertigt, dass er unsere substanziellen Interessen an Leib, Le ben und Besitz schützt. Unrecht hat Dahl nur mit seiner Annahme, ein solcher Vertrag würde unabhängig von Schuld und Verantwortung funktionieren. Würden Sie etwa einen Vertrag mit jemandem schließen, von dem Sie wissen, dass er nicht verantwortlich handeln kann? SPEKTRUM DER WISSENSCHAFT · Juni 2010
Die Idee eines solchen Vertrags geht zu rück auf die neuzeitlichen und aufkläreri schen Staatstheoretiker wie Thomas Hobbes (1588 – 1679), John Locke (1632 – 1704), Jean-Jacques Rousseau (1712 – 1778) und Immanuel Kant (1724 – 1804). Ein wenig angepasst an heutige Umstände sieht die Idee folgendermaßen aus: Wir haben ein sub stanzielles Interesse an einem Rechtssystem, das Leib und Leben, Hab und Gut schützt. Und da dieses Rechtssystem nur dann funk tioniert, wenn es seinen Forderungen Nach druck durch Strafen verleiht, haben wir auch ein Interesse an einem solchen Strafregime. Ein Vertrag, der uns Sicherheit für Leben und Besitz bietet und von uns im Gegenzug ver langt, die Sicherheit anderer zu respektieren, ist gerecht. Das schließt auch Strafen ein, sofern sie unsere Sicherheit garantieren und nur im Fall der Vertragsverletzung verhängt werden.
mit frdl. Gen. des University of Kansas Medical Center
Mensch & Geist
Der amerikanische Neurologe Jeffrey Burns zeigte, wie die öffentliche Meinung über einen Täter kippen kann, sobald eine Tumordiagnose bekannt wird.
Vom Sinn des Rechtssystems
Dies gilt natürlich nur so lange, wie die Stra fen die Richtigen treffen. Einen Unschuldigen zu bestrafen, wäre nicht nur ungerecht, es wäre auch völlig sinnlos: Der wahre Schuldige bliebe damit ja unbestraft! Genau hier sind Begriffe wie Freiheit, Schuld oder Verantwor tung unerlässlich. Diese Begriffe dienen der Unterscheidung zwischen den verantwort lichen und schuldigen Urhebern einer Straftat und denjenigen, die weder Verantwortung noch Schuld tragen und daher auch nicht zur Rechenschaft gezogen werden können. Ohne diese Unterscheidung müsste man fürchten, bestraft zu werden, obwohl man die Normen befolgt hat. Und man könnte hoffen, unbe helligt zu bleiben, auch wenn man sie bricht. Das wäre nicht nur ungerecht, vielmehr böten Strafen gar keinen echten Anreiz mehr, die Normen einzuhalten. Der Sinn unseres Rechtssystems würde damit verfehlt. Dahl glaubt jedoch, dass wir letztlich auf die Unterscheidung zwischen richtig und falsch ganz verzichten und stattdessen eine rein deskriptive, »ästhetische« Haltung ein nehmen können. Wir würden also nicht mehr sagen, dass eine Handlung verdienstvoll ist, sondern sie als bewundernswert bezeichnen; umgekehrt würden wir nicht mehr von ver werflichen, sondern allenfalls von unschönen Handlungen sprechen. Die Urheber solcher Handlungen würden wir nicht beschuldigen, sondern sie allenfalls bedauern. Hier lockt die Aussicht auf eine Welt, in der wir den Fehlern anderer Verständnis entgegenbringen, sie al lenfalls wegen ihrer Unzulänglichkeiten be dauern, aber auf Vorwürfe und Missbilligung ganz verzichten.
INFO III Kompatibilismus Ob und wie die Willensfrei heit mit dem Bild des klassischen Determinismus vereinbar ist, ist unter den Gelehrten umstritten. Eine häufig vertretene Position ist der Kompatibilismus, der auf David Hume (1711 – 1776) zurückgeht, wonach sich beide Positionen miteinander vereinbaren las sen. Einerseits ist Hume Determinist: Unter exakt gleichen inneren wie äuße ren Bedingungen würden wir stets auch gleiche Entschei dungen treffen. Andererseits gibt es freien Willen: Durch Wünsche oder Überzeugun gen anders disponiert, könnte der Mensch sich dann auch anders entscheiden.
77
alle drei: public domain
ESSAY: freier wille
Die Aufklärer und Staatstheore tiker Thomas Hobbes (1588– 1679), John Locke (1632–1704), Jean-Jacques Rousseau (1712– 1778) führten unser Strafsystem auf einen Vertrag zurück, der unsere Interessen an Leib, Leben und Besitz schützt.
Ich glaube in der Tat, dass wir alles dafür tun sollten, zu einem möglichst humanen Rechtssystem und einem verständnisvollen Umgang mit den Fehlern unserer Mitmen schen zu kommen. Dahls Strategie ist hierzu aber denkbar ungeeignet. Mit seiner Erset zung wertender durch beschreibende Urteile muss Dahl auf Missbilligungen und Schuld zuschreibungen verzichten – so wie er es am Beginn seines Beitrags auch vorschlägt. Doch wie sollte man dann noch jemanden für sein Handeln zur Rechenschaft ziehen? Auch da ran will Dahl festhalten.
Die Mörder bedauern statt bestrafen?
INFO IV Verantwortung Sie bedeutet die Möglich keit, dass eine Person für die Folgen eigener oder fremder Handlungen Rechenschaft ablegen muss. Sie drückt sich darin aus, bereit und fähig zu sein, später Antwort auf mögliche Fragen zu deren Folgen zu geben. Eine Grundvoraussetzung hierfür ist die Fähigkeit zur bewussten Entscheidung.
78
Er glaubt, dass auch ästhetische Urteile uns zu entsprechendem Handeln motivieren würden. Aber was, wenn sie dies nicht tun? Wenn mei ne Bewunderung für rechtmäßige Autokäufer einen Autodieb nicht davon abhält, mit mei nem Wagen davonzufahren? Und was ist mit den von Dahl erwähnten pädophilen Pries tern und Pädagogen? Sollten wir uns allen Ernstes damit begnügen, sie zu bedauern? Ich fürchte, wir hätten dann bald eine Menge mehr zu bedauern – vor allem unsere Kinder. Nun glaubt Dahl selbst, dass man auf Sank tionen gar nicht verzichten müsste. Aber wie begründet man sie, wenn es doch keine ver werflichen Handlungen mehr gibt und Mör der von uns lediglich bedauert werden? Ersetzen wir moralische durch ästhetische Urteile, dann erschwert das aber nicht nur un sere Reaktionen auf die Verletzung rechtlicher und moralischer Normen. Vielmehr beseitigt dies jede Klarheit darüber, was denn über haupt eine Normverletzung ist. Während wir uns bei rechtlichen und moralischen Normen um Objektivität bemühen, bleiben ästhetische Urteile dem eigenen Geschmack überlassen. Konsequenterweise müsste sich der Dieb meines Autos auf gar keine Diskussion darüber einlassen, ob mein Bedauern vielleicht irgend welche Sanktionen rechtfertigt oder nicht. Er könnte einfach entgegnen, dass er seine eigene Tat als geradezu bewundernswert betrachte – einen so schönen und eleganten Autodieb
stahl finde man schließlich nicht alle Tage. Auch Richter – wenn es sie dann noch gäbe – könnten sich auf ihren persönlichen Ge schmack berufen und jemanden ins Gefäng nis stecken, weil sie dessen vergleichsweise harmlose Tat »überhaupt nicht schön« finden, ein brutales Verbrechen dagegen als »bewun dernswert« beurteilen. Solche Konsequenzen sind absurd – zuge geben. Und ich glaube auch nicht, dass Dahl sie will. Das Problem ist nur, dass seine Theo rie derartige Folgen hätte. Und genau deshalb sollten wir sie zurückweisen – vor allem die Vorstellung, man könne auf objektive Krite rien verzichten. Wenn es wirklich gerecht zu gehen und wenn unser Rechtssystem seine Ziele erreichen soll, dann brauchen wir nicht nur objektive Normen für das, was erlaubt und was nicht erlaubt ist, sondern auch dafür, wann wir jemanden dafür belangen, dass er etwas Unerlaubtes getan hat, und wie wir da rauf reagieren. Das alles ist unendlich schwie rig – so wie die Binsenweisheit, dass wir wah re Objektivität nie erreichen. Aber es wäre verhängnisvoll, wenn wir diesen Schwierig keiten dadurch aus dem Weg gingen, indem wir das ganze Projekt streichen. Und wie steht’s mit der Freiheit? Ich habe schon kurz deutlich gemacht, warum ich Frei heit und Determination für vereinbar halte, nämlich weil die Aufhebung von Determina tion einfach nur zu mehr Zufällen und damit zu einem Verlust an Kontrolle führen würde – nicht jedoch zu einem Mehr an Freiheit. Doch es scheint wenig sinnvoll, hier noch einmal die hinlänglich bekannten Argumente aus der Freiheitsdebatte zu wiederholen. Statt dessen möchte ich einige Überlegungen vor stellen, die von dieser Debatte unabhängig sind und die man auch dann nur schwer ignorieren kann, wenn man von der Unvereinbarkeit von Freiheit und Determination überzeugt ist. Ausgangspunkt ist dabei die Beobachtung, dass es einerseits Lebewesen gibt, die offenbar nur ein geringes Maß an Kontrolle über ihr Handeln haben, andererseits aber solche mit einem vergleichsweise hohen Maß an Selbst SPEKTRUM DER WISSENSCHAFT · Juni 2010
Mensch & Geist kontrolle. Beispiele für erstere sind einfache Tiere, in einem geringeren Maß gilt das aber auch für kleine Kinder oder für Erwachsene, deren Einsichts- und Steuerungsfähigkeiten etwa auf Grund von Zwangsstörungen oder Suchterkrankungen eingeschränkt sind. Ein vergleichsweise hohes Maß an Kontrolle hat ein Banker, der im vollen Wissen um die Konsequenzen seines Tuns ein riskantes, ver botenes Geschäft macht, weil er sich davon ei nen hohen Gewinn verspricht. Eine entscheidende Bedeutung für das Aus maß an Kontrolle spielt offenbar die Fähig keit, eigene Interessen zu erkennen und ent sprechend zu handeln. Ein Alkoholiker han delt nicht völlig unkontrolliert, wenn er nach der Flasche greift; aber seine Sucht hindert ihn daran, all seinen Überzeugungen gerecht zu werden. Dies gilt insbesondere für seine langfristigen Interessen an einem gesunden Leben, die durch die kurzfristige Befriedigung seiner Sucht verdrängt werden. Doch selbst wenn sie wissen, wie zerstörerisch ihr Han deln ist, beugen sich die meisten Abhängigen ihrer Sucht. Im Gegensatz dazu hat der Ban ker in dem obigen Beispiel ganz offensichtlich weitestgehende Kontrolle über sein Handeln. Er selbst spekuliert auf die positiven Konse quenzen, doch es liegt nahe, ihm gegebenen falls auch die negativen Konsequenzen seines Tuns anzulasten. Entscheidend ist nun die Tatsache, dass unsere gesamten rechtlichen und moralischen Regelsysteme einschließlich der von ihnen verwendeten Sanktionen und Anreize ein ho hes Maß an Kontrollfähigkeit erfordern. Sie setzen insbesondere voraus, dass wir die Grün de für Regeln und Gesetze zumindest in gro ben Zügen verstehen. Wir müssen erkennen, welche Strafen uns drohen, wenn wir die Nor men verletzen, und welche Belohnungen wir erwarten können, wenn wir uns besondere Verdienste erwerben; schließlich müssen wir in der Lage sein, unseren Einsichten gemäß zu handeln. Natürlich ist es im Einzelfall immer schwie rig zu beurteilen, ob eine Person die erforder lichen Fähigkeiten besitzt. Doch selbst wenn hier ein Rest an Willkür und Unsicherheit kaum zu vermeiden sein dürfte: Die Unter scheidung zwischen Personen, die über das er forderliche Maß an Kontrollfähigkeit verfü gen, und denen, die dazu nicht in der Lage sind, erscheint sinnvoll. Personen, die ihr Handeln nicht in der skizzierten Weise kon trollieren können, können wir daher auch nicht verantwortlich machen. Genau dies tun wir ja mit kleinen Kindern, mit Abhängigen und mit Personen, die an schweren psychi schen Störungen leiden. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Es mag auf den ersten Blick angenehm er scheinen, von Verantwortung entlastet zu wer den. Doch zum einen ist diese Entlastung in der Regel nur um den Preis zu haben, dass an dere dafür belastet werden: Eltern haften für ihre Kinder. Zum andern wird, siehe Eltern und Kinder, die Entlastung von Verantwor tung in vielen Fällen nur durch einen Verzicht auf Freiheitsspielräume erkauft. Wer seinen Alkoholkonsum nicht selbst kontrollieren kann und nicht daran zu Grunde gehen will, muss diese Kontrolle früher oder später zum Beispiel an einen Therapeuten abgeben. Und wer die Regeln des Finanzmarktes nicht ver steht oder nicht fähig ist, sie anzuwenden, der sollte nicht die Möglichkeit haben, das Geld anderer Leute aufs Spiel zu setzen. Vergleich bares gilt für noch problematischere Fälle von Kontrollverlust, etwa hinsichtlich der eigenen Gewaltbereitschaft oder des Sexualverhaltens.
Wie frei ist jeder Einzelne?
Die Beispiele zeigen, dass es ganz unabhängig von allen erregten Diskussionen über Willens freiheit, Schuld und Verantwortung offenbar ganz handgreifliche und schwer zu leugnende Unterschiede hinsichtlich der Fähigkeit gibt, das eigene Handeln zu steuern. Und diese sind – ebenfalls aus ganz offensichtlichen Gründen – nicht nur für die Frage relevant, ob man einer Person ihre Handlungen zu rechnen kann oder nicht. Vielmehr spielen sie auch eine Rolle, wenn wir wissen wollen, wel che Freiheits- und Handlungsspielräume man jemandem zugesteht. Wer rundweg bestreitet, dass Menschen Verantwortung tragen können, der ignoriert diese offensichtlichen Unterschiede, die auch entscheidend sind für unsere alltägliche Praxis der Zuschreibung von Verdienst, Verantwor tung und Schuld. Daran mag vieles zu ver bessern sein – und um diese Verbesserungen sollten wir uns intensiv bemühen. Ein Ver zicht auf diese Praxis, also ein Verzicht auf die Unterscheidung zwischen verantwortungsfä higen und nicht verantwortungsfähigen Per sonen, würde nicht nur eine Menge evidenter Tatsachen ignorieren. Vielmehr ließe er, wie erwähnt, niemanden mehr übrig, an den sich der Appell zur Abschaffung von Schuld und Verantwortung richten könnte. Sämtliche potenziellen Adressaten könnten ja jede Verantwortung von sich weisen und so weitermachen wie bisher. Besser also, wir blei ben dabei, uns als prinzipiell verantwortungs fähige Wesen zu betrachten, und versuchen, ein wenig mehr darüber herauszufinden, wa rum wir von dieser Fähigkeit oft so sparsamen Gebrauch machen. Das wäre mal ein echter Fortschritt!
Edgar Dahl (links) ist promovierter wissenschaftlicher Mitarbeiter am Max-Planck-Institut für mole kulare Biomedizin und Dozent am Institut für Geschichte, Theorie und Ethik der Medizin an der WestfälischenWilhelms-Universität Münster. Neben Problemen der Bioethik beschäftigen ihn vor allem Fragen der Moral-, Rechts- und Religionsphilosophie. Michael Pauen ist Professor für die Philosophie des Geistes an der Humboldt-Universität zu Berlin. Unter anderen publizierte er die Bücher »Illusion Freiheit? Mögliche und unmögliche Konsequenzen der Hirnforschung« (Fischer, Frankfurt a. M. 2004) sowie »Was ist der Mensch? Die Entdeckung der Natur des Geistes« (DVA, München 2007).
Geyer, C. (Hg.): Hirnforschung und Willensfreiheit. Suhrkamp, Frankfurt a. M. 2004. Glover, J. I: The Philosophy and Psychology of Self-Identity. Penguin, London 1989. Hoerster, N.: Was ist Moral? Reclam, Stuttgart 2008. McKenna, M., Russell, P. (Hg.): Free Will and Reactive Attitudes. Ashgate, Farnham 2008. Roth, G.: Das Gehirn und seine Freiheit. Vandenhoeck & Ruprecht, Göttingen 2006. Strawson, G.: Freedom and Belief. Oxford University Press, Oxford 2010. Walter, H.: Neurophilosophie der Willensfreiheit. Mentis, Paderborn 2002. Wuketits, F. M.: Der freie Wille. Die Evolution einer Illusion. Hirzel, Stuttgart, 2. Auflage 2008.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030087.
79
ERDE3.0
Klimazeitbombe
10 cm
Katey Walter-Anthony
80
SPEKTRUM DER WISSENSCHAFT · Juni 2010
& UMWELT ERDE &ERDE UMWELT
Permafrost Der Permafrost in der Arktis taut und bildet Seen, aus denen Methan entweicht. Das starke Treibhausgas könnte die globale Erwärmung dramatisch beschleunigen. Wie groß ist die Gefahr? Und was lässt sich dagegen unternehmen? Vom Boden eines arktischen Sees aufgestiegenes Methangas (weiß) ist im Eis eingeschlossen, das den See überzogen hat.
Von Katey Walter Anthony
B
eim Aufsetzen auf der Schotterpiste in Tscherski im Nordosten Sibiriens machte meine Pobacke unangeneh me Bekanntschaft mit der Stahlspit ze eines Gummistiefels. Der gehörte zu den Ausrüstungsgegenständen, die ich in dem kleinen Propellerflugzeug zwischen mich und meine drei Kollegen gestopft hatte. Mit die sem schmerzhaften Erlebnis endete die letzte Etappe der fünftägigen Reise meines For schungsteams von der University of Alaska nach Sibirien zur »Nordöstlichen Forschungs station« im Land der Millionen Seen. Wir besuchten die Gegend zum wiederholten Mal in der Absicht, einen schlafenden Riesen zu überwachen, der die globale Erwärmung ra sant beschleunigen könnte, wenn er aufge weckt wird. Mit unseren Expeditionen möchten wir herausbekommen, wie viel von dem ganzjäh rig gefrorenen Boden – dem Permafrost – in Sibirien und der Arktis insgesamt kurz vor oder am Auftauen ist und welche Mengen Methan dabei freigesetzt werden. Diese Frage bewegt uns – sowie viele andere Forscher, aber auch Politiker –, weil Methan ein starkes Treibhausgas ist, das in der Atmosphäre pro Molekül die 25-fache Heizkraft von Kohlen dioxid entwickelt. Wenn der Permafrost durch die Erderwärmung rasch taut, könnte sich der Globus schneller erwärmen, als es die meisten Klimamodelle derzeit vorhersagen. Leider lassen unsere Daten in Verbindung mit er gänzenden Analysen weiterer Forscher nichts Gutes erwarten.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
In Kürze r Tauender Permafrost am Boden vieler arktischer Seen setzt Methan in die Atmosphäre frei, das als hochpotentes Treibhausgas die globale Erwärmung beschleunigt. r Dadurch kommt ein Teufelskreis in Gang: Die zusätzliche Erwärmung lässt weiteren Permafrost tauen, so dass noch mehr Methan entsteht. r Nach neuesten Unter suchungen vor Ort stehen wir kurz vor dem Einsetzen dieser verhängnisvollen Rückkopplungsschleife. r Die einzige realistische Gegenmaßnahme ist eine drastische Reduktion des Kohlendioxidausstoßes.
81
ERDE3.0
Zwischen einem Drittel und der Hälfte des Permafrosts befindet sich nur noch 1
Dauerfrost herrscht auf einem Fünftel der Erdoberfläche, und in dem Boden, der Dut zende bis Hunderte von Metern tief gefroren ist, stecken ungefähr 950 Milliarden Tonnen Kohlenstoff. Dieser stammt von toten Pflan zen und Tieren und hat sich über Zehntau sende von Jahren angesammelt. Solange er unter und zwischen den zahlreichen, nur im Sommer eisfreien Seen lagert, bleibt er in si cherem Abstand von der Luft weggesperrt.
unter dem Gefrierpunkt.
Wie bei offener Kühlschranktür
Bedrohliche Zahlen Permafrost bedeckt ein Fünftel des irdischen Festlands.
bis 1,5 Grad Celsius
Bei unverminderter Erd erwärmung wird so viel davon tauen, dass die Methan emissionen bis Ende des Jahrhunderts um 20 bis 40 Prozent steigen dürften. Methan in der Atmosphäre hat pro Molekül die 25-fache Heizkraft von Kohlendioxid. Fazit: Die Jahresmitteltemperatur der Erde könnte um
zusätzliche 0,32 Grad Celsius steigen.
In weiten Landstrichen wird der Permafrostboden bis 2050 oder spätestens 2100 tauen, wenn die Erderwärmung unvermindert weitergeht. Dabei gelangen riesige Mengen Methan in die Luft, die den Klimawandel beschleunigen dürften.
Aber sobald der Permafrost taut, wird das zu vor versiegelte organische Material für Mikro ben zugänglich, die es rasch zersetzen und da bei Gase produzieren. Das Gleiche passiert, wenn Sie das Gefrierfach Ihres Kühlschranks offen stehen lassen: Nach einer gewissen Zeit taut die Tiefkühlware darin auf und beginnt zu verfaulen. An der Luft zersetzen Bakterien und Pilze das organische Material aerob, wobei Kohlendioxid entsteht. Wassergesättigte Böden und die vollgesogenen Sedimente am Grund von Seen sind jedoch an Sauerstoff verarmt. Unter diesen Bedingungen findet ein anaero ber Abbau statt, bei dem Methan entsteht (ne ben einer geringen Menge Kohlendioxid). Am Seeboden sammelt es sich in Blasen, die auf steigen und an der Oberfläche zerplatzen. Die anaerobe Zersetzung ist die Hauptme thanquelle in der Arktis. Wenn Permafrostbo den taut, senkt er sich ab; in den Vertiefungen sammelt sich Schmelzwasser und bildet viele neue, kleine Seen. Aus ihnen entweichen zu nehmende Methanmengen, während der ge frorene Untergrund weiter taut. Wie narben bis 2050 tauender Permafrost bis 2100 tauender Permafrost 2100 noch stabiler Permafrost
Nordpol
Erblast in Sibirien Kanada
Sibirien Alaska
mapping specialists
82
artige Senken in der Landschaft zeigen, läuft dieser Vorgang schon seit rund 10 000 Jahren ab – also seit Beginn der jüngsten Warmzeit. Satellitenaufnahmen aus den letzten Jahrzehn ten legen allerdings nahe, dass sich das Tauen jüngst stark beschleunigt hat. Das deckt sich mit Beobachtungen an zahlreichen Überwachungsstationen in Alaska und Sibirien, die Forscher wie mein Kollege Vladimir E. Romanovsky aus Fairbanks be treiben. Demnach erwärmt sich der Perma frostboden an den Messstellen seit den frühen 1970er Jahren. Wie Extrapolationen der vor handenen Daten nahelegen, liegt bei einem Drittel bis zur Hälfte des dauerhaft gefrorenen Untergrunds in Alaska die Temperatur nur noch ein bis eineinhalb Grad Celsius unter dem Gefrierpunkt; an einigen Orten rund um die Welt hat sie ihn schon erreicht. Laufende Beobachtungen von weiteren Kollegen und meinem Team bei Reisen nach Tscherski und zu vielen anderen Stationen be stätigen den Eindruck einer drastischen Be schleunigung des Tauens. Zudem lassen sie viel größere Emissionen von Methan erwarten als bisher angenommen. Nach neuesten Schät zungen meiner Gruppe sollte bei einer Fort dauer des momentanen Erwärmungstrends tauender Permafrost bis Ende dieses Jahrhun derts alle anderen natürlichen und menschen gemachten Quellen des Treibhausgases weit in den Schatten stellen. Berechnungen von Vla dimir Alexeev aus Fairbanks zufolge dürfte das so freigesetzte Methan – einschließlich des Kohlendioxids, das der aufgetaute Boden ab gibt – die globale Mitteltemperatur um zusätz liche 0,32 Grad Celsius anheben. Das mag sich unbedeutend anhören, ist es aber nicht; es würde erheblich zur Beein trächtigung der Landwirtschaft, zum Anstieg des Meeresspiegels und zur Verbreitung von Krankheiten auf Grund der globalen Erwär mung beitragen. Falls Methan freikäme, das unter dem Permafrost oder am Meeresgrund in so genannten Gashydraten gespeichert ist, könnte die Temperatur sogar um mehrere Grad steigen. Deshalb muss der Menschheit mehr denn je daran gelegen sein, der Erd erwärmung energisch entgegenzuwirken, da mit nicht weite Bereiche der Arktis auftauen. Regionen wie die bei Tscherski liefern den Schlüssel zur Verifikation unserer Schätzungen – oder zu ihrer Revision. Während ich zu sammen mit meinem Kollegen Sergei A. Zi mov, dem Gründer der Nordöstlichen For schungsstation, an einem Flussufer entlang gehe, muss ich aufpassen, wo ich hintrete. Der durchweichte Boden unter meinen Füßen be SPEKTRUM DER WISSENSCHAFT · Juni 2010
ERDE & UMWELT menge, die ihn 1989 veranlasste, mit einer Gruppe junger Wissenschaftler die einsame Nordöstliche Forschungsstation zu gründen, um ganzjährig den Permafrost in Tundra und Taiga zu beobachten. In Skiffs (kleinen Ruder booten) bereisten die Forscher die großen rus sischen Flüsse und erklommen Permafrost kliffe, um den Kohlenstoffgehalt als Indikator der zu erwartenden Methanemission zu mes sen. Mit Armeepanzern und Bulldozern simu lierten sie äußere Störeinflüsse wie etwa schwe re Waldbrände, welche die Humusschicht an der Oberfläche beseitigen können. Ihre Expe rimente und Messungen enthüllten das Aus maß des im Permafrost gebundenen Kohlen stoffs und seine Bedeutung für die Erde. Aber warum hat Zimov – wie meine Grup pe später auch – eine Region zum Schwer punkt seiner Untersuchungen gemacht, die zuvor nur für die Gulags des Sowjetsystems bekannt war? Die Antwort lautet: Weil der Permafrost nicht überall gleich ist. Per Defini tion handelt es sich um eine Bodenschicht,
Überall in Sibirien bilden sich Seen, weil die sich erwärmende Luft den zuvor gefrorenen Boden auftaut. Auf dem unteren Foto nehmen die Autorin (in der roten Jacke) und ihre Mitarbeiterin Louise Farquharson Proben von aufgeschlossenem Permafrost (blaugrau), der unter einer dünnen Decke nicht gefrorener Erde liegt und oft Dutzende von Metern in die Tiefe hinabreicht.
beide Fotos: mit frdl. Gen. von Guido Grosse, Permafrost Laboratory Geophysical Institute, University of Alaska Fairbanks
steht hauptsächlich aus schlammigem, moos bewachsenem Torf. Er reicht nur einen halben Meter tief und sitzt lose auf einer 40 bis 80 Meter dicken, vereisten Schicht. Die verkrüp pelten Bäume in diesem »ertrunkenen Wald« neigen sich kreuz und quer, weil sie keine Wurzeln in den gefrorenen Untergrund trei ben können und die alljährliche Sommer schmelze starke Frostaufbrüche verursacht. Ein kürzlich umgestürzter Baum hat den dünnen Waldboden aufgerissen, so dass wir einen Blick auf die schwarz glänzende Eisfläche da runter werfen können, während uns der mod rige Geruch sich zersetzenden organischen Materials in die Nase steigt. Es ist schwer, nicht über die Unmengen an Knochen zu stol pern, die überall herumliegen und von Woll nashörnern, Mammuts, Säbelzahntigern, Bä ren und Pferden aus dem Pleistozän stammen. Aber nicht die Stoßzähne und Schädel aus gestorbener Tiere machen diese Region zu einem Mekka für Zimov. Vielmehr ist es die riesige im Boden gespeicherte Kohlenstoff
SPEKTRUM DER WISSENSCHAFT · Juni 2010
83
ERDE3.0 deren Jahresmitteltemperatur in mindestens zwei aufeinander folgenden Jahren unter null Grad Celsius bleibt. Dabei kommt es nicht darauf an, ob Eis vorhanden ist oder nicht. In dem hier betrachteten riesigen Teil Sibiriens findet sich ein bestimmter Typ von Permafrost namens Jedoma. Der enthält nicht nur viel Kohlenstoff, sondern auch jede Menge Eis – was für die Entstehung von Methan wichtig ist. 10 bis 80 Meter hohe Eiskeile und kleinere Eislinsen machen bis zu 90 Prozent des Bo denvolumens aus; der Rest besteht aus Erd säulen mit hohem Gehalt an organischem Material: den Überresten von pleistozänen Tieren und dem Gras, das sie einst fraßen.
Blubbernde Blasen In der eiskalten Arktis liegt unter einer dünnen Schicht jüngeren Bodens alter Permafrost, der tiefgefrorenes totes Pflanzen- und Tiermaterial enthält. Doch wenn sich die Atmosphäre erwärmt, taut der vereiste Untergrund auf. Dann beginnen sich die organischen Substanzen zu zersetzen, wobei Methan entsteht.
Trichter tauende Tundra Teich
Gefrorenes Blasenmeer Boden
Permafrost
nicht gefrorener Untergrund
flacher See
Methanblasen
tiefer See
tauender Permafrost
1 Eis im gefrorenen ●
Boden schmilzt, so dass er nachgibt. Dadurch bilden sich Trichter, die sich mit Wasser füllen und zu Teichen werden.
2 Die Teiche vereinigen ● sich zu Seen. Das Wasser beginnt den Permafrost darunter aufzutauen. Mikroben zersetzen das enthaltene organische Material und erzeugen dabei Methan.
tauender Permafrost
Methanblasen
Jedoma hat sich am Ende der letzten Eis zeit auf mehr als 1,8 Millionen Quadratkilo metern in Sibirien und in ein paar Arealen in Nordamerika gebildet. Das organische Ma terial ist an Ort und Stelle gefroren, bevor Mikroben es zersetzen konnten. Ein riesiger Nahrungsvorrat wurde so in einer weltum spannenden Tiefkühltruhe eingelagert. Doch nun steht der Truhendeckel auf einmal offen. Alle globalen Klimamodelle, die der Zwi schenstaatliche Ausschuss für Klimawandel der Vereinten Nationen (IPCC) in seinem Be richt von 2007 erwähnt, stimmen darin über ein, dass sich die hohen Breiten am stärksten erwärmen werden. Einige sagen einen Tempe raturanstieg um sieben bis acht Grad Celsius bis zum Ende dieses Jahrhunderts voraus. Ein wärmeres Klima aber lässt das JedomaEis schmelzen, wobei sich Seen bilden. Vege tation stürzt in zuvor eisgefüllte Spalten und in Vertiefungen, die der absinkende Boden hinterlässt. Die resultierende Landschaftsform wird als Thermokarst bezeichnet. Heute bede cken Seen bis zu 30 Prozent der Fläche Sibiri ens. Weiteres Tauen lässt sie wachsen und sich zu ausgedehnten Methanquellen vereinigen.
3 Unter den wachsenden ● und sich vertiefenden Seen taut immer mehr Permafrost auf. Große Mengen an organischem Material werden nun anaerob zersetzt. An vielen Stellen entsteht Methan und steigt in Form von Blasen auf, die an der Oberfläche platzen und das Gas in die Atmosphäre freisetzen.
Ke vi
Seit den 1990er Jahren beobachteten Wissen schaftler an der Nordöstlichen Forschungssta tion, wie das ganze Jahr über Methan vom Boden der Seen aufstieg. Doch die globale Be deutung dieser Emissionen blieb unklar. Das war der Grund für meine – etwas unsanfte – Landung mit dem Flugzeug in Tscherski letz ten August: Diese Expedition diente wie die acht früheren dazu, im Reich der rasant ex pandierenden Thermokarstseen die Verände rungen des Permafrosts und die Freisetzung von Methan zu messen. Alles hatte 2000 als Doktorarbeit angefan gen. Damals war schon bekannt, dass die Menge an Methan – des dritthäufigsten Treib hausgases in der Atmosphäre nach Wasser dampf und Kohlendioxid – in der Luft zu nimmt. Nie zuvor in den vergangenen 650 000 Jahren waren, wie Untersuchungen von Luftblasen in polaren Eisbohrkernen be legten, die Emissionen dieses Gases so hoch gewesen und so schnell gestiegen. Es gibt Indizien dafür, dass der Methange halt der Atmosphäre in vergangenen Epochen parallel zu natürlichen Klimaschwankungen über Zeiträume von Jahrtausenden hinweg um bis zu 50 Prozent variierte. Dem steht eine Zunahme um fast 160 Prozent seit Mitte des 18. Jahrhunderts gegenüber – von 700 ppb (parts per billion, milliardstel Volumen anteile) vor der industriellen Revolution auf fast 1800 ppb zu Beginn meines Projekts.
n Ha nd
84
SPEKTRUM DER WISSENSCHAFT · Juni 2010
beide Fotos: mit frdl. Gen. von Marmian Grimes, University of Alaska Fairbanks
ERDE & UMWELT
Ebenso war bekannt, dass Landwirtschaft, Industrie, Deponien und andere menschliche Einflüsse zu dem jüngsten Anstieg beigetragen haben. Ungefähr die Hälfte des Methans, das jedes Jahr in die Atmosphäre gelangt, stammt allerdings aus natürlichen Quellen. Niemand hatte bisher den genauen Beitrag der wich tigsten darunter ermittelt. Zwischen 2001 und 2004 pendelte ich zwi schen Fairbanks und Tscherski, wo ich bei den wenigen russischen Familien vor Ort lebte. Ich verbrachte lange Nächte in der Bibliothek der Forschungsstation, die sich auf dem Dachbo den des kleinen, gelben Holzbaus befand, mit
dem Basteln von Plastikflößen, die ich als Ge räte zum Auffangen von Methanblasen auf den Seen aussetzen konnte. Um sie zu Wasser zu lassen, beugte ich mich weit über den Rand herrenloser Boote, die ich kurzerhand requi riert hatte. Täglich prüfte ich die Fallen, um das Gasvolumen zu bestimmen, das sich unter ihren großen, quallenartigen Röcken gesam melt hatte. Anfangs war es nicht viel. Der Winter setzt früh ein in Sibirien. An einem Morgen im Oktober, als das Eis gerade dick genug war, um mich zu tragen, wagte ich mich auf die glänzende Fläche, die das Moor darunter schwärzlich färbte. Nach wenigen
Im Rahmen ihrer Untersuchungen zur Bestimmung der Methanemissionen aus tauendem Permafrost sammeln die Autorin und ihr Mitarbeiter Dragos Vas Methan, das aus einem Loch in der Eisdecke eines Sees im Inneren Alaskas austritt. Das Gas ist leicht entzündlich.
85
ERDE3.0 Bedrohung aus der Tiefe Nicht nur tauender Permafrost kann zu einem Methanproblem führen. Riesige Mengen des Treibhausgases sind auch in Eiskäfigen gefangen, die sich in weiten Bereichen am Meeresboden oder stellenweise an Land in mehreren hundert Meter Tiefe befinden. Wenn diese »Methanhydrate« schmelzen würden und das enthaltene Gas in die Atmosphäre entwiche, gäbe es sehr wahrscheinlich einen plötzlichen Klimawandel. Indizien in Meeressedimenten weisen darauf hin, dass eine solche Katastrophe vor 55 Millionen Jahren schon einmal stattfand – als Reaktion auf rasch steigende Wassertemperaturen. Nach Ansicht einiger russischer Wissenschaftler lagern mehr als 1000 Milliarden Tonnen Methan am Grund des Festlandsockels vor Sibirien. Selbst wenn nur zehn Prozent davon entweichen würden, wäre das doppelt so viel wie die 50 Milliarden Tonnen, die der tauende Permafrost nach unserer Schätzung freisetzen könnte (siehe Haupttext). Eine Erwärmung der Tiefsee ist in der nahen Zukunft zwar nicht zu erwarten. Aber in letzter Zeit wurden im Flachwasser des Schelfbereichs hohe Konzentrationen von Methan registriert. Weitere Untersuchungen müssen nun erweisen, was die Quelle ist: Gashydrate oder, was eher zutreffen dürfte, sich zersetzendes organisches Material in Permafrost, der bis in den Festlandsockel hineinreicht. Auch an Land lagern Linsen aus Methanhydrat unter der Permafrostschicht. Wenn diese am Grund von Thermokarstseen immer weiter taut, kann die Taufront fingerartig bis zu den Hydratvorkommen vordringen und so Kanäle zum Ausgasen schaffen. Meine Arbeitsgruppe untersucht zusammen mit Carolyn Ruppel und John Pohlman vom U. S. Geological Survey diese Möglichkeit. Falls sich erweisen sollte, dass die Gashydrate eine akute Bedrohung darstellen, könnte man als bescheidene Gegenmaßnahme versuchen, das Methan aufzufangen und als Brennstoff zu nutzen, bevor es unkontrolliert in die Atmosphäre entweicht. In den weltweiten Methanhydratvorkommen steckt mehr Energie als in allen Erdgas-, Erdöl- und Kohlelagerstätten zusammen. Allerdings lassen sich vermutlich nur wenige davon rentabel abbauen, weil sie sehr kleinräumig über große Gebiete verteilt sind, was die Exploration und Gewinnung selbst bei einem Erdölpreis über 100 Dollar pro Barrel zu teuer macht. An einigen Orten aber könnten Methanhydrate in konzentrierter Form vorliegen, so dass sich der Abbau lohnen würde. Länder wie Japan, Südkorea und China, die ihre Ölimporte verringern wollen, investieren in Technologien zur Förderung dieser Vorkommen. Auch ConocoPhillips und BP prüfen, wie rentabel der Abbau bestimmter Gashydrate in den USA wäre. Derzeit ist das Anzapfen von Methanhydraten noch umstritten. Gäbe es genügend fundierte Hinweise darauf, dass sie demnächst instabil werden und eine unkontrollierte Entgasung bevorsteht, wäre es auch im Interesse des Klimaschutzes, sie vorher gezielt abzubauen. Doch bislang deutet wenig darauf hin. Unter diesen Umständen würde der kommerzielle Abbau den von fossilen Brennstoffen angetriebenen Klimawandel nur verschärfen. Unter dem Aspekt der globalen Erwärmung sollten wir die Methan hydrate also vorerst lassen, wo sie sind. Küste
tauende Tundra tiefer See
Methanblasen
erwärmtes Meer
tauender Permafrost 1 ●
Festlandsockel
Ausgasungskanäle Methanhydrate
Schritten entfuhr mir ein erstauntes »Oh!«. Es war, als ob ich in den Nachthimmel schauen würde. Im dünnen schwarzen Eis waren trau benartig weiß schimmernde Blasen gefangen. Unregelmäßig über die Oberfläche verteilt, zeigten sie an, wo aus dem Seeboden Gas em porperlte. Als ich mit einer Eisenstange in eines dieser weißen Blasennester stach, spürte ich, wie mich ein Lufthauch anwehte. Kaum hatte ich ein Streichholz angezündet, da schoss eine fünf Meter hohe Flamme empor. Obwohl ich instinktiv zurückwich, verbrannte sie mein Gesicht und versengte mir die Au genbrauen. Methan! Den ganzen Winter hindurch stapfte ich über zugefrorene Seen, um Fallen über diesen Quellen zu platzieren. Mehr als einmal plumpste ich dabei ins eiskalte Wasser, weil ich ahnunglos auf eine Stelle getreten war, an der dem Seeboden so viel Gas entströmte, dass es sich in ausgedehnten Hohlraumsyste men gesammelt hatte, die nur von einer dün nen Haut aus Eis bedeckt waren. An solchen Methan-Hotspots, wie ich sie nannte, bleiben selbst dann, wenn die Lufttemperatur im dunklen sibirischen Winter auf minus 50 Grad Celsius fällt, brüchige Öffnungen in der Größe eines Kanaldeckels. Hier fing ich teils 25 Liter Methan am Tag auf – viel mehr, als Wissenschaftler normalerweise messen. Ich zeichnete Karten von den Hotspots zahlreicher Seen und führte Buch über ihre Emissionen. Das intensivste Blubbern regis trierte ich an den Rändern der Gewässer, wo der Permafrost am stärksten taute. Radiokar bondatierungen ergaben für das Alter des Gases an manchen Stellen 43 000 Jahre, was klar auf Jedoma als Ursprung hindeutete.
Umfangreiche Vorkommen von Methanhydraten, bei denen das Gas in Hohlräumen einer speziellen Kristallstruktur von Eis eingeschlossen ist, könnten sich bei Erwärmung plötzlich zersetzen. Dann würden riesige Mengen Methan in die Atmosphäre gelangen. Zwei denkbare Szenarien sind hier dargestellt. An Land könnten Finger aus aufgetautem Permafrost bis zu den Hydratvorkommen hinabreichen und Kanäle für die Entgasung öffnen 1 . Über dem Festlandsockel lässt ● möglicherweise sich erwärmendes Meerwasser die dünne Permafrostdecke tauen, so dass sich die Gashydrate 2. darunter zersetzen ●
2 ●
Kevin Hand
86
SPEKTRUM DER WISSENSCHAFT · Juni 2010
mit frdl. Gen. von Sergei A. Zimov, Northeast Science Station, Cherskii, Yakutien, Russland
ERDE & UMWELT
Ein Rentierhirte repariert den Zaun des Pleistozänparks, den Wissenschaftler in Nordostsibirien angelegt haben. Auf einer Fläche von 160 Quadrat kilometern wurden hier grasende Tiere wie Jakuten-Pferde angesiedelt. Sie sollen für die Bewahrung und Ausdehnung des Graslands sorgen und so helfen, den Permafrost vor dem Tauen zu schützen.
Von 2002 bis 2009 machte ich eine Be standsaufnahme der Methanquellen von 60 Seen unterschiedlicher Größe und Art in Sibi rien und Alaska und maß ihre Emissionen. Das Ergebnis überraschte mich selbst und die Fachwelt: Der Methanausstoß in der unter suchten Region nahm um fast 45 Prozent schneller zu als die Ausdehnung der Seen. Die Emission des Treibhausgases pro Wasserfläche stieg also. Aus Extrapolationen über die Seen in der gesamten Arktis erhielt ich als vorläu fige Schätzung eine Gesamtmenge von 14 bis 35 Millionen Tonnen Methan, die pro Jahr freigesetzt wurden. Thermokarstseen haben einen beträchtli chen Beitrag zur plötzlichen Erwärmung vor 10 000 bis 11 000 Jahren geleistet. Polare Eis bohrkerne und Radiokarbondatierungen des
Bodens ausgetrockneter Gewässer liefern An haltspunkte dafür, dass ihnen bis zu 87 Pro zent des Methans entstammten, das damals auf der Nordhalbkugel in die Atmosphäre ge langte und entscheidend mithalf, die Eiszeit zu beenden. Demnach kann die Schmelze des Permafrosts und die Freisetzung von Methan unter den richtigen Bedingungen an Fahrt ge winnen, weil sich beide Prozesse gegenseitig verstärken: Kohlenstoff aus dem Pleistozän wird in Form des Treibhausgases freigesetzt und trägt zur Erwärmung der Atmosphäre bei, was weiteres Tauen und die Freisetzung von noch mehr Methan auslöst. Die anthropogene Erderwärmung droht diesen Teufelskreis heute wieder in Gang zu setzen. Anhand zahlreicher Analysen prognos tizieren meine Kollegen und ich, dass in den
87
ERDE3.0
nächsten Jahrzehnten bis Jahrhunderten durch das Tauen der Jedoma mindestens 50 Milliar den Tonnen Methan aus Thermokarstseen in Sibirien entweichen werden – zehnmal so viel, wie sich derzeit in der Atmosphäre befinden.
Feinjustierung der Modelle
Literaturhinweise Grosse, G. et al.: Assessing the Spatial and Temporal Dynamics of Thermokarst, Methane Emissions, and Related Carbon Cycling in Siberia and Alaska. NASA Carbon Cycle Sciences Project, April 2008 – März 2011. Walter, K. M. et al.: Methane Bubbling from Siberian Thaw Lakes as a Positive Feedback to Climate Warming. In: Nature 443, S. 71 – 75, 7. 9. 2006. Walter, K. M. et al.: Thermokarst Lakes as a Source of Atmospheric CH4 during the Last Deglaciation. In: Science 318, S. 633 – 636, 26. 10. 2007. Walter, K. M. et al.: Understanding the Impacts of Icy Permafrost Degradation and Thermokarst-Lake Dynamics in the Arctic on Carbon Cycling, CO2 and CH4 Emissions, and Feedbacks to Climate Change. Project 0732735 for National Science Foundation /International Polar Year, Juli 2008 – Juni 2011.
88
So sorgfältig unsere derzeitigen Schätzungen sind, brauchen wir für verlässliche Aussagen jedoch ausgefeiltere Modelle. Dabei sollten auch mögliche negative Rückkopplungen ein bezogen werden, die hemmend wirken könnten. Zum Beispiel entleeren sich in Alas ka momentan so viele Thermokarstseen wie nie zuvor in historischer Zeit. Sofern sie in höheren Lagen entstanden sind, dehnen sie sich aus, bis sie eine Stelle erreichen, wo das Gelände abzufallen beginnt. Dort schwappt dann Wasser über ihren Rand, läuft bergab und gräbt durch Erosion eine sich stetig ver tiefende Rinne, über die der See schließlich ausfließt. Dabei werden beim Tauen freige setzte Sedimente in die Flüsse und schließlich ins Meer gespült. In den entleerten Becken wächst frische Vegetation und lässt Feuchtge biete entstehen. Diese produzieren zwar Me than, wenn sie im Sommer auftauen, aber die jährlichen Gesamtemissionen sind oft erheb lich kleiner als die der früheren Gewässer. Es ist schwer zu sagen, ob eine solche Ver landung von Thermokarstseen in größerem Rahmen stattfinden und die Freisetzung des Treibhausgases stark oder nur um ein paar Prozentpunkte verringern wird. In zwei Pro jekten versuche ich seit 2008 gemeinsam mit meinen Kollegen Guido Grosse in Fairbanks, Lawrence Plug von der Dalhousie University in Nova Scotia, Mary Edwards von der Uni versity of Southampton (England) und ande ren die aktuellen Näherungen erster Ordnung für die positiven und negativen Rückkopp
lungen zu verbessern. Dazu erstellen wir Kar ten und eine Klassifizierung der Thermokarst seen sowie des Kohlenstoffkreislaufs für ausge wählte Regionen Sibiriens und Alaskas. Dieses interdisziplinäre Vorhaben verbin det Ökologie, Geophysik und Fernerkundung und umfasst außer Emissionsmessungen auch die Inkubation von Proben aufgetauten Per mafrosts und von Seesedimenten im Labor. Ziel ist die Entwicklung eines quantitativen Modells der Methan- und Kohlendioxidemis sionen von Thermokarstseen für die Zeit vom Höhepunkt der letzten Vereisung (vor 21 000 Jahren) bis zur Gegenwart. Damit wollen wir schließlich die Stärke der Rückkopplung zwi schen der Erderwärmung und den Methan emissionen dieser Seen für die nächsten Jahr zehnte und Jahrhunderte vorhersagen. Derzeit entwickeln Plug und unser Postdoc Mark Kessler zwei Computermodelle. Das eine soll die Dynamik eines Thermokarstsees simulieren, das andere die Folgen von Verän derungen des Permafrosts in einer größeren Region berechnen und dabei auch die Vor gänge an Hügelflanken und die Bewegung von Oberflächenwasser berücksichtigen. Zur Validierung der Modelle vergleichen wir ihre Vorhersagen zunächst mit Befunden aus Landschaften, die wir bereits untersuchen. Später wollen wir Daten von Sediment bohrkernen aus Sibirien und Alaska, die 15 000 Jahre zurückreichen, und schließlich die Ergebnisse von Klimasimulationen für die jüngsten 21 000 Jahre zum Vergleich heran ziehen. Am Ende soll die Kopplung mit dem riesigen Klimamodell des Hadley Centre in Exeter (England) stehen, das die Zirkulation von Ozeanen und Atmosphäre beschreibt und für die Sachstandsberichte des IPCC verwen det wird. Das Ergebnis wird hoffentlich ein Masterprogramm sein, das Ausmaß und Aus wirkungen des Tauens von Permafrostböden komplett simulieren kann und uns so in die Lage versetzt, die künftigen Emissionsraten von Methan zu berechnen und deren Einfluss auf die globale Temperatur zu bestimmen. Weitere Feldstudien werden mit ihren Er gebnissen helfen, unsere Modelle stetig zu ver feinern. So wollen wir demnächst mit einem Luftkissenboot mehrere sibirische Flüsse und die Eismeerküste auf einer Strecke von etwa 1500 Kilometern abfahren, um die angren zenden Seen zu untersuchen. Geplant ist auch eine groß angelegte Expedition, um Bohr kerne von Seesedimenten zu gewinnen, die sich vor vielen Jahrtausenden abgelagert ha ben. Die Ergebnisse dieser Feldstudien sowie Daten aus der Fernerkundung werden schließ lich in das Programm des Hadley Centre ein fließen. Damit sollte es am Ende gelingen, die SPEKTRUM DER WISSENSCHAFT · Juni 2010
ERDE & UMWELT Entwicklung des Klimas vom Höhepunkt der letzten Eiszeit bis 200 Jahre in die Zukunft zu simulieren. Karten mit Angaben darüber, wo und wann der Permafrost tauen wird und wie viel Methan dabei entsteht, sollen bis April 2011 fertig sein.
Was tun?
Wenn sich, wie alle Indikatoren nahelegen, die Methanemissionen aus dem arktischen Perma frost beschleunigen, lautet die nächste Frage: Was können wir dagegen unternehmen? Vor stellbar wäre, das Gas als relativ sauberen Brennstoff aufzufangen, bevor es entweicht. Doch da Millionen von Thermokarstseen über riesige Flächen verstreut sind, rechnet sich das nicht. Nur kleine Gemeinden, die nah genug an starken Methanquellen liegen, könnten die se Energieressource anzapfen. Auf der Suche nach Alternativen haben Zi mov und sein Sohn Nikita deshalb einen faszi nierenden Plan entwickelt, um den Permafrost in Sibirien vor dem Tauen zu bewahren: die Schaffung eines Grasland-Ökosystems, für des sen Erhalt große nördliche Pflanzenfresser sor gen, wie sie vor mehr als 10 000 Jahren in Sibi rien lebten. Zu Demonstrationszwecken haben die beiden ein 160 Quadratkilometer großes Gehege im Nordosten Sibiriens eingerichtet und mit Pferden, Elchen, Bären und Wölfen besiedelt. Auch Moschusochsen und Bisons sollen in diesem »Pleistozänpark« erneut eine Heimat finden, sofern die russische Regierung, US-Behörden und private Sponsoren genü gend Geld zur Finanzierung bereitstellen. Zusammen mit dem Mammut schufen sol che grasenden Tiere einst ein Steppe-GraslandÖkosystem, das viel heller ist als die dunklen
borealen Wälder, die heute dort wachsen. Da durch reflektiert es die einfallende Sonnen strahlung besser und schützt die dauerhaft ge frorene Schicht darunter vor Erwärmung. Au ßerdem zertrampeln die grasenden Tiere im Winter die Schneedecke und wühlen sie bei der Suche nach Futter auf, so dass die eisige Kälte den Permafrost besser erreicht und kühlt. Ein Mann und seine Familie allein können die Welt aber nicht vor dem Klimawandel ret ten. Das verlangt eine globale Anstrengung, bei der jeder Mensch, jede Organisation und jeder Staat sich seiner Verantwortung stellt und alles dafür tut, den eigenen KohlenstoffFußabdruck zu verkleinern. Die Kohlendi oxidemissionen zu drosseln ist der einzige Weg für die Menschheit, der wechselseitigen Verstärkung von Erderwärmung und tauen dem Permafrost entgegenzuwirken. Wir sagen klipp und klar: Wenn die CO2Emissionen mit der momentan projizierten Rate steigen, werden die borealen Seen Ende des Jahrhunderts zwischen 100 und 200 Milli onen Tonnen Methan pro Jahr freisetzen – ein Vielfaches der 14 bis 35 Millionen Tonnen heute. Alle Methanquellen weltweit stoßen zu sammen etwa 550 Millionen Tonnen dieses Treibhausgases pro Jahr aus, so dass der Per mafrost, wenn wir sein Tauen nicht verhin dern, weitere 20 bis 40 Prozent beisteuern und die globale Jahresmitteltemperatur um 0,32 Grad Celsius zusätzlich anheben wird. Die Folgen wären fatal. Um den Gehalt der Atmo sphäre an Kohlendioxid zu reduzieren und so das Tauen des Permafrosts zu verlangsamen, müssen wir alle dem Elefanten im Porzellan laden entgegentreten: einer Menschheit, die hemmungslos fossile Treibstoffe verbrennt.
Katey Walter Anthony ist Research Professor am Water and Environmental Research Center der University of Alaska in Fairbanks. Sie untersucht in Sibirien und Alaska die Freisetzung von Methan und Kohlendioxid aus Seen und tauendem Permafrostboden.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030085.
WISSENSCHAFT IM ALLTAG akkumulatoren
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Maxienergie, Miniformat Lithiumionen-Akkus machen mobile Elektronik praktikabel. Von Ralf Strobel und Mark Fischetti
A
llzeit erreichbar, Musik, wann immer wir es wünschen, überall Zugriff auf das Internet, Fotografieren ohne Ende – dank ihrer immer kleineren Dimensionen gehören tragbare elektronische Geräte inzwischen zu unserem Alltag. Dass dazu nicht nur Chips und Datenträger schrumpfen mussten, wird oft vergessen. Insbesondere der Lithiumionen-Technik verdanken wir die stetig fortschreitende Minia turisierung der Energieversorgung von Handy et al. Grundsätzlich handelt es sich wie bei allen Batterien oder wiederaufladbaren Akkumulatoren (kurz Akkus) um galvanische Zellen, in denen zwei elektrochemische Reaktionen ablaufen. Dabei werden am Minuspol Elektronen freigesetzt und am Pluspol aufgenommen (Chemiker sprechen von Oxidation und Reduk tion). Verbindet man die Batteriepole über einen elektrischen Leiter, so entsteht ein äußerer Strom – tatsächlich sogar ein Kreislauf, denn gleichzeitig bilden sich geladene Atome oder Moleküle (Ionen) innerhalb der Batterieflüssigkeit, dem Elektrolyt, und bewegen sich ebenfalls zum jeweils entgegengesetzten Pol. Bei vielen Batterietypen ist dieser Elektrolyt eine Säure oder Base, die mit den Elektroden chemisch reagiert. Beim Auf- und Entladen entstehen hier auch unerwünschte, schwer wieder zu lösende Kristalle. Insbesondere bei unvollständiger Auf- und Entladung lässt die Kapazität deshalb allmählich nach; man spricht vom Gedächtnis (Memory-Effekt).
Anders bei den Anfang der 1990er Jahre eingeführten Lithiumionen-Akkus: Das namensgebende Lithium, das im Elektrolyt als Salz in einer organischen Trägerflüssigkeit gelöst ist, bildet mit den Elektroden keine grundlegend neuen Strukturen. Vielmehr lagert es sich nur in die Zwischenräume der schichtartig aufgebauten Festkörper ein. Im entladenen Akku befinden sich die Lithiumatome in der Kathode (Pluspol) zwischen den Schichten eines Metalloxids. Beim Laden werden ihnen Elektronen entzogen. Als elektrisch positive Ionen treten sie daraufhin in den Elektrolyt über und wandern zur Anode (Minuspol) aus Graphit. Nun zwängen sich die Lithiumionen zwischen deren Schichten und nehmen wieder jeweils ein Elektron auf. Dabei treiben sie die Kohlenstofflagen allerdings um bis zu zehn Prozent auseinander. Wie viel Energie dieser Prozess im Vergleich mit anderen Akkutypen verbraucht, zeigt die mit rund vier Volt mehr als doppelt so hohe Lade spannung. Hierin liegt aber auch der Grund für die deutlich höhere Energiedichte von Lithiumionen-Zellen, denn beim Entladen geben sie rund 90 Prozent der hineingesteckten Arbeit zurück. Ihre Vorteile wie der fehlende Memory-Effekt – es ist sogar besser, diese Speicher nicht vollständig zu entleeren – und eine geringe Selbstentladung machen Lithiumionen-Akkus heute zum Standard für mobile Geräte. Zudem sollen sie bald auch Elektrofahrzeuge mit Energie versorgen. Hier sind die Anforderungen jedoch deutlich anders. So verlieren Lithiumionen-Akkus über Jahre hinweg durch Materialalterung – also unabhängig von der Zahl und Art der Auf- und Entladungen – zu stark an Kapazität. Daher müssen Besitzer Ladezeiten von mehreren Stunden hinnehmen. Und obwohl die Zellen mit 180 Wattstunden pro Kilogramm fünfmal so viel Energie speichern wie die im Automobilbau gebräuchlichen Bleiakkus, stehen sie gemessen an den rund 10 000 Wattstunden pro Kilogramm von Benzin noch immer schlecht da.
Laptopbatterien enthalten in Reihe geschaltete Lithiumionen-Zellen. Eine Elektronik überwacht den Ladezustand und steuert die Wiederaufladung. Ein Wärmesensor dient als Schutz vor Überhitzung und unterbricht im Notfall den Stromfluss.
Wärmesensor
Elektronik
Zelle
Ralf Strobel ist Volontär beim Verlag Spektrum der Wissenschaft, Mark Fischetti ist Redakteur bei »Scientific American«.
90
SPEKTRUM DER WISSENSCHAFT · juni 2010
& Computer Technik TECHNIK & Computer
Wussten Sie schon? r Lithium brennt heftig, wenn es mit Wasser oder auch nur Luftfeuchtigkeit in Kontakt kommt. Öffnen Sie deshalb niemals einen Akku und löschen Sie ein Lithiumfeuer niemals mit Wasser, sondern mit Sand, einer Löschdecke oder speziellem Metallbrandpulver. Das Batteriegehäuse kann sich überdies allein durch den Betrieb aufheizen. Vorsicht also vor heißer Umgebung, selbst vor direkter Sonneneinstrahlung, die Zelle könnte mit einer Stichflamme aufplatzen. Selbstentzündung infolge innerer Kurzschlüsse ist bei Billigprodukten durchaus schon vorgekommen. r Den ersten Elektrosportwagen baut seit 2006 die Firma »Tesla Motors« in San Carlos (Kalifornien). Ihr Roadster war das erste vollelektrische Fahrzeug, das Lithiumionen-Akkus verwen
dete: 6831 Stück, um genau zu sein. Das getriebelose Auto beschleunigt in vier Sekunden von 0 auf 100 Kilometer pro Stunde. Weniger spektakulär, dafür bald für jeden erhältlich ist der Mercedes S 400 BlueHybrid. In ihm versorgen LithiumionenAkkus einen Elektromotor, der das Fahrzeug beim Anfahren unterstützt und als Anlasser und Lichtmaschine zugleich dient. r Superkondensatoren könnten der Lithiumionen-Technik im Automobilbau aber letztlich den Rang streitig machen. Indem sie Elektronen rein physikalisch zwischen Kohlenstoffnanoröhren binden, sollen sie eine Energiedichte von immerhin 60 Wattstunden pro Kilogramm erreichen. Ihr Vorteil: Das Laden der Kondensatoren dauert nur wenige Sekunden.
Kathodenanschluss Entlüftung Dichtung
Bryan
Christie
Jede Lithiumionen-Zelle besteht aus eng gewickelten Schichten des Anoden- (–) und Kathodenmaterials (+), die gemeinsam im Elektrolyt »schwimmen«. Isolatorlagen verhindern den Kontakt, erlauben aber den Durchtritt von Ionen. Ein einfacher Schutzmechanismus verhindert ein Überhitzen: In einer Kammer erzeugt eine chemische Substanz bei Wärme ein Gas, das nur über eine kleine Lüftungsöffnung entweichen kann. Entsteht zu viel davon auf einmal, platzt die Dichtung der Kammer und trennt den Stromfluss.
Bryan Christie Design
Design
Stromunterbrecher
Kathode
Anode
Separator
Kathode
Separator
Elektronenfluss Elektrolyt Lithium
+ + +
+
Jen Christiansen
+
SPEKTRUM DER WISSENSCHAFT · juni 2010
+
Anode
Beim Entladen eines Lithiumionen-Akkus löst sich Lithium von der Graphitanode (Minuspol) in Form von positiv geladenen Lithiumionen ab und wandert durch die Elektrolytflüssigkeit zur Kathode (Pluspol), wo es als Metalloxid gebunden wird. An der Anode bleiben freie Elektronen, die über den äußeren Stromkreis zur Kathode fließen und dabei in einem Verbraucher – etwa die Handyelektronik – Arbeit verrichten. Durch eine gegenpolige Spannung lässt sich dieser Vorgang umkehren.
91
Erdöl
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Berg- oder Talfahrt? Pessimisten meinen, dass die Erdölförderung ihren Zenit überschritten hätte und die Reserven nur noch wenige Jahrzehnte reichten. Doch immer bessere Prospektions- und Fördertechnologien geben Anlass zur Hoffnung, der Gipfel sei noch nicht erreicht.
r
Einige Experten warnen, die weltweiten Erdölreserven seien in wenigen Jahrzehnten aufgebraucht. Ihre Prognosen basieren auf Abschätzungen zu nachgewiesenen und mit heutiger Technik wirtschaftlich auszubeutenden Vorkommen.
r
Derzeit werden aber nur durchschnittlich 35 Prozent des Rohöls einer Lagerstätte gewonnen. Neue Techniken könnten diesen Anteil auf 50 Prozent erhöhen.
r
Zwei Drittel der in Frage kommenden geologischen Formationen wurden bislang noch gar nicht untersucht. Dank besserer Explorationsmethoden könnten also noch weitere Vorkommen entdeckt werden.
r
Erdöl aus Teersanden und anderen »unkonventionellen« Lagerstätten zu gewinnen, ist ebenfalls eine Option für die Zukunft.
92
A
uf einem 36 Quadratkilometer großen Erdölfeld in Kaliforniens Central Valley heben und senken über 8000 Gestängetiefpumpen unablässig ihre Kolben, Pipelines durchkreu zen das Gelände am Kern River. Als diese Lagerstätte 1899 entdeckt wurde, prognosti zierten Experten eine Ausbeute von lediglich zehn Prozent, denn das dort vorkommende Rohöl war sehr zähflüssig und mit den ver fügbaren Techniken schwer zu fördern. 1942 summierte sich die gesamte Fördermenge auf immerhin 278 Millionen Barrel (ein Barrel – zu Deutsch Fass – entspricht 159 Litern), aber nur 54 Millionen Barrel seien noch zu gewin nen. Doch die pessimistischen Schätzungen erwiesen sich als falsch – der kalifornische Staat schätzt die verbliebenen Reserven nun mehr auf 627 Millionen Fass (als Reserve be zeichnen Experten die mit aktuellen Verfah ren förderbare Menge eines Energierohstoffs). Die wundersame Ölvermehrung hat einen einfachen Grund: Alle Abschätzungen beruh ten auf dem jeweiligen Stand der Fördertech nik, aber die hat sich weiterentwickelt. Chev ron konnte die Produktivität des Kern-RiverÖlfelds in den 1960er Jahren dank einer neuen Technologie, der Dampfinjektion, deut lich steigern (siehe Kasten S. 95). Später taten neuartige Explorations- und Bohrtechniken das ihre, um diese einst als so schwierig einge
Corbis / San Francisco Chronicle / Lance Iversen
In Kürze
Von Leonardo Maugeri
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Technik & Computer
riskanter rohstoff Erdöl bietet noch immer eine Zukunft, so ist im neben stehenden Artikel zu lesen. Gleichzeitig beweist die Ölkatastrophe im Golf von Mexiko, dass die konven tionelle Energieversorgung Risiken für die Umwelt birgt. Wo liegt die Grenze, bis zu der wir sie belasten dürfen? Diskutieren Sie mit unter: www.spektrum.de/artikel/ 1030787
SPEKTRUM DER WISSENSCHAFT · Juni 2010
93
Erdöl
Info I 1899 ■■■■■■■
geschätzte förderbare Reserven
1942 ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■
bis dahin gefördertes Volumen ■■■■■■
Schätzung der noch verbleibenden förderbaren Reserve
Scientific American, nach: Leonardo Maugeri; Foto unten: Getty images / Newsmakers / David McNew
2007 ■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■
bis dahin gefördertes Volumen ■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■■■■■■■ ■■■■■■■■■■
Schätzung der noch verbleibenden förderbaren Reserve Jedes Quadrat entspricht 10 Millionen Barrel.
94
stufte Lagerstätte in ein wahres Füllhorn zu verwandeln. Mit Dampfinjektionen wollen auch die Konzerne Royal Dutch Shell und Exxon einem Erdölfeld nahe dem hollän dischen Städtchen Schoonebeek zu Leibe rü cken. Es war 1996 unrentabel und deshalb stillgelegt worden, ab Ende dieses Jahres bis 2030 soll es nun 120 Millionen Barrel des Schwarzen Goldes liefern. Gemäß der Lehrmeinung folgt die Ausbeu te eines Erdölvorkommens einem glockenför migen Verlauf. Ist es zur Hälfte gefördert, er reicht die nach dem Geologen M. King Hub bert benannte Kurve ihren Scheitelpunkt; von da an sollte es immer teurer werden, den Rest zu fördern. Die Hubbert-Kurve gelte aber auch für die Gesamtheit aller Erdölfelder welt weit. Viele Analysten sagen nun schon seit Jahren voraus, dass die globale Ölproduktion in den nächsten Jahren ihren Zenit erreichen und dann rückläufig sein wird. Das ist keine gute Nachricht, denn selbst wenn die Nut zung fossiler Brennstoffe Umwelt und Erdkli ma gefährden: Alternative Energieträger kön
nen in puncto Kosten, Vielseitigkeit sowie Transport- und Speicherfähigkeit noch nicht konkurrieren. Erdöl ist nach wie vor weltweit mit einem Anteil von etwa 35 Prozent am Pri märenergieverbrauch der wichtigste Energie träger und damit zumindest für eine Über gangszeit unverzichtbar. Zudem wird ein zwar kleiner, aber unverzichtbarer Anteil der geför derten Menge in der chemischen Industrie beispielsweise zu Kunststoffen verarbeitet. Vor zwei Jahren lag der Verbrauch weltweit noch bei jährlich 30 Milliarden Fass. Die Fi nanzkrise hat ihn zwar sinken lassen, er dürfte in naher Zukunft aber das alte Niveau wieder erreichen. Bliebe er dann konstant, reichten die derzeit nachgewiesenen Ölreserven unseres Planeten von 1,1 bis 1,3 Billionen Barrel noch etwa 40 Jahre lang. Doch nicht nur Kern River hat alle Erwartungen übertroffen. Eingedenk insbesondere der Fortschritte in der Förder technik und bei der Auffindung neuer Lager stätten, aber auch des Potenzials unkonventi oneller Vorkommen wie der Ölschiefer bin ich davon überzeugt, dass wir den Gipfel der
Wie viel Erdöl aus einem Reservoir gewonnen werden kann, lässt sich oft nur schwer vorhersagen. Beispielsweise hat das Gesamtfördervolumen (in der Grafik gelb) des Kern-River-Ölfelds in Kalifornien (Fotos unten und vorherige Seite) immer wieder alle Prognosen (in der Grafik rot) übertroffen. Der Energie-Spezialist Morris Adelman konstatierte 1995, es seien nicht 54, sondern 736 Millionen Barrel aus der Tiefe gepumpt worden, und Fachleute gingen damals von verbleibenden 970 Millionen Barrel aus. Doch auch diese Prognose erwies sich als zu konservativ. Im November 2007 erklärte der Betreiber, der US-amerikanische Ölkonzern Chevron, dass die gesamte Ausbeute die Zwei-Milliarden-Marke erreicht habe. Heute liefert das Ölfeld immer noch 80 000 Barrel pro Tag, der kalifornische Staat schätzt die verbliebenen Reserven nunmehr auf 627 Millionen Fass.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
Jen Christiansen, nach: IHS PEPS / E&P Statistics und IHS EDIN-GIS (www.ihs.com/energy)
■ Sedimentbecken ● 2000 Probebohrungen in den letzten 25 Jahren (die Punkte geben die örtliche Lage nur näherungsweise wieder)
Hubbert-Kurve erst in einigen Jahrzehnten überschreiten und die nutzbaren Vorkommen frühestens in einem Jahrhundert erschöpft sein werden. Denn alle Zahlen basieren auf Schätzungen jener Mengen, die sich aus heute bekannten Ölvorkommen mit heute üblicher Technik unter den heutigen wirtschaftlichen Rahmen bedingungen mit Gewinn fördern lassen. Schrumpfen aber beispielsweise die Vorräte, ziehen die Verkaufspreise an; dann müssten auch manche Vorkommen, deren Ausbeutung heute noch zu teuer ist, zu den nachgewie senen Reserven gezählt werden. Vor allem aber werden mit der derzeitigen Technik im Durchschnitt nur 35 Prozent des in den La gerstätten gespeicherten Öls gewonnen, rund zwei Drittel der Vorkommen warten noch im Gestein – eine immense Ressource (als Res
source bezeichnen Experten die Mengen eines Energierohstoffs, die geologisch nachgewiesen sind, jedoch zum Zeitpunkt der Prognose nicht wirtschaftlich zu fördern wären, sowie die nicht nachgewiesenen, aber aus geolo gischen Gründen zu erwartenden Vorkom men in einem Gebiet). Dass sie in Debatten nur selten erwähnt wird, liegt schlicht daran, dass dieser Schatz derzeit noch gar nicht oder nicht mit vertretbarem Aufwand zu heben ist. Der kostbare Rohstoff entstand über Äonen hinweg. Es begann mit großen Ablage rungen von Vegetation und toten Mikroorga nismen auf den Böden vorzeitlicher Seen. Sie zerfielen und wurden allmählich unter Ge steinsschichten begraben. Hohe Temperaturen und Drücke verwandelten die organischen Substanzen im Lauf von Jahrmillionen in Erd öl und -gas. Entgegen landläufiger Vorstellung
Erdöl findet sich im Sedimentgestein (schwarz) der Kontinente und Kontinentalsockel. Bislang wurde nur ein Drittel dieser Flächen mit modernen Explora tionstechniken untersucht. Die lange Tradition der USA in diesem Geschäft zeigt sich auch an der großen Zahl der Probebohrungen in Nordamerika.
Die drei Stadien der Ölförderung
SPEKTRUM DER WISSENSCHAFT · Juni 2010
primäre Förderung
sekundäre Förderung
tertiäre Förderung
Ausbeute: bis zu 15 Prozent
Ausbeute: 20 bis 40 Prozent
Ausbeute: bis zu 60 Prozent
Der innere Druck des Reservoirs presst das Öl nach oben.
In das Reservoir gepumptes Wasser und Erdgas drängen weiteres Öl nach oben.
Chemikalien, Hitze oder Mikroben helfen, das zähe Öl zu verdünnen.
Öl leitung
Förderschacht
Injektionsschacht
Wasser, Erdgas oder CO2
Verdünnungsmittel
Jen Christiansen
Etwa 10 bis 15 Prozent des in einem Reservoir enthaltenen Öls sprudeln nach dem Anbohren spontan an die Oberfläche (primäre Ölförderung). Lässt der Druck im Reservoir nach, pumpt man Wasser und Erdgas in die Tiefe, um ihn so wieder aufzubauen (sekundäre Förderung). Auf diese Weise steigt die Ausbeute auf 20 bis 40 Prozent. Das restliche Öl ist entweder in kleinen Gesteinshohlräumen gefangen – und somit überhaupt nicht förderbar – oder zu zäh, um zum Förderschacht zu fließen. Mit modernster Technologie (siehe »Info I« auf der linken Seite) lässt es sich dünnflüssiger machen und die Gesamtausbeute auf gut 60 Prozent erhöhen (tertiäre Förderung).
95
mit frdl. Gen. von Dario Speranza
füllt das Schwarze Gold aber keine Kavernen, sondern ist in Poren und mikroskopischen Rissen des Gesteins gespeichert. Wird ein solches Reservoir angebohrt, rea giert es wie eine frisch entkorkte Sektflasche: Der Druck im Reservoir lässt das Erdöl an die Oberfläche schießen (zusammen mit Steinen, Schlamm und anderem Schutt). Das hält so lange an, bis der Druck nachlässt – gewöhn lich mehrere Jahre. Mit dieser primären För derung lassen sich etwa 10 bis 15 Prozent des Vorkommens ausbeuten. Rund ein Drittel der noch verbliebenen Menge ist »immobiles Öl«: Tropfen, die von Kapillarkräften in Gesteins poren festgehalten werden. Einem weiteren Drittel versperren Gesteine geringer Durch lässigkeit den Weg zum Förderschacht. Erdöllagerstätten sind keine unterirdischen Seen, sondern Schichten von ölgetränktem porösem Gestein. Dieser fünf Zentimeter lange Bohrkern stammt von einem OffshoreÖlfeld nahe Sizilien, in dem die Förderung mit gängiger Technologie noch zu teuer ist. Was wie eine Färbung des Karbonatgesteins aussieht, ist das in Rissen enthaltene Schwarze Gold.
Bohrschächte in L-Form
Um den verbliebenen Anteil zu gewinnen, pumpt man Erdgas und Wasser in die Tiefe; man spricht von sekundärer Förderung. Der wieder ansteigende Druck presst das Öl durch das Gestein zum Schacht. Da es zudem leich ter ist als Wasser, steigt es darin auf. Primäre und sekundäre Förderung zusammen bringen die Förderrate heutzutage auf 20 bis 40 Pro zent des Potenzials. Eine der bislang wichtigsten technischen Weiterentwicklungen ist das Horizontalboh ren (Spektrum der Wissenschaft 7/1994, S. 52). Denn Förderschächte mit L-förmigem Verlauf erschließen sonst unerreichbare Be
reiche eines Reservoirs. Dieses erstmals in den 1980er Jahren angewandte Bohrverfahren eig net sich insbesondere für solche Lagerstätten, die Öl und Erdgas in dünnen horizontalen Schichten speichern. Nur ein Drittel der Sedimentbecken unse res Planeten – jene geologischen Formationen also, die Öl enthalten können – wurde bislang mit moderner Explorationstechnik untersucht (siehe Karte S. 95). Wie viele Lagerstätten mag es geben, von denen wir noch keine Ahnung haben? Heute haben Geophysiker Mittel und Wege, hoch aufgelöste 3-D-Bilder potenzieller Lagerstätten zu gewinnen. Eines der wich tigsten Verfahren wertet Aufnahmen von seis mischen Wellen aus, die durch Explosionen, den Aufprall tonnenschwerer Gewichte oder riesige Vibratoren erzeugt, an den Grenzen zwi schen verschiedenen Gesteinsschichten reflek tiert und mit einem Netz von Geophonen auf gezeichnet wurden. Anhand seismischer Profile lassen sich potenziell ertragreiche Bohrstellen aufspüren. Selbst mehr als 5000 Meter dicke Salzschichten unter dem Meeresgrund sind kein Problem mehr, auch wenn sie seismische Wellen verzerren – ausgefeilte Computeranaly sen gewähren dennoch den Blick in die Tiefe. Da zudem das Bauen fern der Küsten (so genannte Offshore-Technik) ebenfalls Fort schritte gemacht hat, konnte die Branche neue Vorkommen unterhalb der Ozeanböden erschließen. In den 1970er Jahren, als die Öl bohrungen in der Nordsee begannen, galten
Tertiäre Fördertechniken – unkonventionelle Waffen Verbrennung
Chemische Verfahren Grenzflächenaktive Substanzen lösen das Öl vom Gestein und verbessern die Fließfähigkeit, indem Schichten davon Ölmoleküle umschließen und Tröpfchen bilden (auf ähnliche Weise entfernt Seife ölige Stoffe beim Händewaschen). Eine Variante besteht darin, Chemikalien in die Lagerstätte zu pumpen, welche mit Bestandteilen des Erdöls zu den gewünschten grenzflächenaktiven Substanzen reagieren.
Biologische Verfahren Die Injektion von Bakterien (inklusive Nährstoffen und mitunter Sauerstoff) wurde experimentell erprobt. Die Einzeller wachsen in der Übergangszone zwischen Öl und Gestein und helfen, diese freizusetzen. Nach einigen Tagen lässt sich die Förderung wieder aufnehmen. In Zukunft könnten gentechnisch ver änderte Mikroorganismen zudem die zähflüssigsten Bestandteile des Rohöls zersetzen und es auf diese Weise verdünnen.
96
Jen Christiansen
Sofern die primäre und die sekundäre Förderung abgeschlossen sind, vermögen aggressivere Methoden – einige davon noch im Experimentierstadium –, das verbliebene Öl dünnflüssiger zu machen, so dass es zum Förderschacht fließen kann. Da sie kostspielig sind, rentiert sich ihr Einsatz aber erst, wenn Erdöl hinreichend teuer verkauft werden kann.
Wenn man einen Teil des Öls im Reservoir verbrennt (eine technische Luftzufuhr vorausgesetzt), erhöht sich die Ausbeute aus drei Gründen: Erstens macht die Hitze des Feuers den Rohstoff dünnflüssiger. Zweitens erzeugt die Verbrennung Kohlendioxid, das den Druck in der Lagerstätte erhöht. Drittens brechen größere und schwerere Ölmoleküle durch die Energiezufuhr auf, und kleinere sind beweglicher.
SPEKTRUM DER WISSENSCHAFT · Juni 2010
mit frdl. Gen. der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR)
Interview
»Auch mit tertiären Verfahren lässt sich eine Lagerstätte nicht vollständig entölen« Verfügt die Welt über schier unerschöpfliche Ressourcen an Erdöl oder hat die Förderung bereits den Höchststand überschritten? »Spektrum der Wissenschaft« sprach mit dem Geologen Hilmar Rempel von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover. Spektrum der Wissenschaft: In den vergangenen Jahren schoss der Erdölpreis oft rasant in die Höhe, bis zum Höchstkurs von 147 Dol lar pro Barrel im Juli 2008, fiel im Zuge der Wirtschaftskrise ins Bo denlose und lag im vergangenen April schon wieder bei 85 Dollar pro Barrel. Macht sich da bereits die Angst vor der Verknappung be merkbar? Hilmar Rempel: Nein, gegenwärtig reicht das Angebot aus, um die Nachfrage zu decken. Bedingt durch die Wirtschaftskrise haben wir eher ein Überangebot an Erdöl. Die Schwankungen beim Ölpreis sind wohl spekulationsbedingt. Das ist ein sehr volatiler Markt, und kleine Veränderungen im Angebot-Nachfrage-Gleichgewicht lassen den Preis heftig schwanken. Spektrum: Leonardo Maugeri, Ökonom beim italienischen Ölkon zern Eni, glaubt, dass die Versorgung mit Erdöl bis zum Ende des Jahrhunderts gewährleistet ist. Wie sieht das die BGR? Rempel: Wir gehören nicht zu denen, die davon überzeugt sind, dass die Welt bereits den »Peak Oil« überschritten hat und die Produktion nun immer weiter zurückgeht. Aber diese Prognose erscheint doch allzu optimistisch. Nach Auswertung aller verfügbaren Daten erwar ten wir bei günstigen Bedingungen Engpässe ab etwa 2030, sofern der Bedarf bis dahin nur moderat steigt. Spektrum: Wie kommen so unterschiedliche Einschätzungen über haupt zu Stande? Maugeri spricht beispielsweise davon, dass durch neue Techniken die Lagerstätten wesentlich besser ausgebeutet wer den könnten. Rempel: Wir haben diese Verfahren der tertiären Förderung durch aus berücksichtigt. Derzeit kommen sie nur bei wenigen Prozent der Lagerstätten zum Einsatz, und zwar vor allem, weil sie sehr teuer sind. Ab einem entsprechend hohen Erdölpreis könnten sie sich rech nen, wobei dann aber auch die Energiekosten für die Erdölprodu zenten selbst steigen. Überdies haben diese Verfahren ihre Grenzen. Wenn beispielsweise heißer Dampf in die Tiefe geschickt wird, um zähes Öl flüssiger zu machen und im Gestein Risse und Klüfte zu öffnen, so dass es zum Bohrloch fließen kann, dann hat eine solche Maßnahme eine begrenzte Reichweite. Danach ist wieder Schluss. Auch mit tertiären Verfahren lässt sich eine Lagerstätte also nicht vollständig entölen. Diese Techniken eignen sich aber gut für nichtkonventionelle Vorkommen. Spektrum: Maugeri sieht im nichtkonventionellen Erdöl ein Riesen potenzial, das in den Prognosen kaum berücksichtigt würde. Rempel: Das ist nicht ganz richtig, denn zwischen konventionellem Erdöl, das die Basis der Prognosen bildet, und nichtkonventionellem wird nicht einheitlich unterschieden. Mal führt das zu günstigeren Prognosen, mal zu pessimistischeren. Kanada etwa rechnet seine Öl sande teilweise in die Angaben zu den gesicherten Reserven mit ein, und vermutlich stecken auch in den Zahlen mancher OPEC-Länder Vorkommen, die andere nichtkonventionell nennen würden. Und dann gibt es Bewertungen, die Offshore-Lagerstätten von konventio nellem Erdöl in Wassertiefen größer 500 Meter als nichtkonventio nell bezeichnen.
Spektrum: Warum gibt es keine einheitliche Nomenklatur? Rempel: Der Erdölmarkt besticht nicht gerade durch Transparenz. Die Hälfte der 50 größten Unternehmen befindet sich mehrheitlich oder vollständig in staatlicher Hand, andere sind multinationale Konzerne. Aber inzwischen signalisieren immer mehr Akteure ein In teresse an verlässlichen, vergleichbaren Zahlen. Die BGR arbeitet eng mit der Internationalen Energieagentur zusammen. Spektrum: Wie sieht die BGR-Definition von konventionellem Erd öl aus? Rempel: Konventionelles Erdöl ist das relativ einfach und kosten günstig zu gewinnende Erdöl. Es zeichnet sich dadurch aus, dass es eine geringe Dichte von weniger als einem Gramm pro Kubikzenti meter besitzt und unter atmosphärischen Bedingungen fließfähig ist. Andere Experten betrachten es unter rein wirtschaftlichen Aspekten: Konventionell wäre demnach alles, was sich wirtschaftlich fördern lässt. Ölsande beispielsweise gehören unseres Erachtens klar zu den nichtkonventionellen Erdölen. In Kanada, wo es die größten Vor kommen gibt, werden sie bereits mit Gewinn abgebaut. Spektrum: Wo sehen Sie das Problem einer solchen Definition? Rempel: Sie erschwert die Vergleichbarkeit der Lagerstätten, nicht zuletzt mit Bezug auf frühere Schätzungen. Zudem finden Energie aufwand und Umweltbelastung der Förderung zu wenig Berücksich tigung. Betrachten Sie etwa die Ölsande. Auch wenn der hohe Preis pro Barrel die Förderung und Verarbeitung rentabel macht, bleibt dieser Rohstoff doch sehr problematisch. Gewinnt man ihn im Tage bau, gehen große Flächen verloren. Den Bitumen vom Sand zu lösen und ihn dann zu einem Leichtöl aufzubrechen, kostet Wasser und viel Energie. Insgesamt wird deshalb in dieser Prozesskette im Ver gleich zur konventionellen Erdölgewinnung dreimal so viel Kohlen dioxid freigesetzt. Noch schlimmer wird es beim Ölschiefer, einem Gestein mit einem hohen Anteil an organischem Material, das aber noch nicht alle geologischen Prozesse durchlaufen hat. Hier muss man bei der Verarbeitung durch Erhitzen des geförderten Gesteins sozusagen ein paar Millionen Jahre Entwicklung nachahmen. Spektrum: Könnte sich das trotzdem eines Tages rechnen? Wie groß wären dann die Erdölressourcen? Rempel: Die meisten Kosten fallen bislang nicht beim Betrieb, son dern durch Exploration, Erkundung und Erschließung an. Das wird sich bei nichtkonventionellen Erdölen ändern, da müssen die Unter nehmen mit erheblichen Folgekosten rechnen. Investitionen lohnen sich also erst, wenn der Marktpreis absehbar dauerhaft auf hohem Niveau liegt. Alle nichtkonventionellen Vorkommen zusammenge nommen wäre das noch verbleibende Potenzial wohl dem von kon ventionellem Erdöl vergleichbar – aber eben auch mit den beschrie benen Problemen behaftet. Da Deutschland weit gehend auf Importe angewiesen ist, hat die BGR der Bundesregierung deshalb empfoh len, die Suche nach Alternativen wie die Nutzung regenerativer Ener giequellen stärker voranzutreiben. Das Interview führte »Spektrum«-Redakteur Klaus-Dieter Linsmeier.
Erdöl 100 bis 200 Meter Wassertiefe und weitere 1000 Meter Bohrlochtiefe noch als Heraus forderung. In den letzten Jahren gelang es je doch, ultratiefe Felder anzuzapfen, die unter einer 3000 Meter hohen Wassersäule und 6000 Meter Fels und Salz begraben sind. Zudem arbeiten Ingenieure an Verfahren, um die Ausbeute zu erhöhen. Das primäre Ziel ist stets, das nach der Primärförderung
Jen Christiansen, nach: 1. Andreas Schätzer et al., »Transportation in a CLIMATE-CONSTRAINED WORLD«, MIT PRESS, 2009; 2. JEFF ROSENFELD, JENNIFER PONT uND KAREN LAW, »COMPARISON OF NORTH AMERICAN AND IMPORTED CRUDE OIL LIFECYCLE GHG EMISSIONS«, TIAX LLC REPORT, JULY 6, 2009; 3. JASON HILL, ERIK NELSON, DAVID TILMAN, STEPHEN POLASKY uND DOUGLAS TIFFANY, »ENVIRONMENTAL, ECONOMIC AND ENERGETIC COSTS AND BENEFITS OF BIODIESEL AND ETHANOL BIOFUELS«, PNAS, VOL. 103, NO. 30, JULY 25, 2006
Jen Christiansen, nach: (rote Kurve): Peter R. Odell, »Why Carbon fuels will dominate the 21st century’s global energy economy«, Multi-Science Publishing, 2004; (grüne Kurve): US Department of energy, report DOE/EIA-0484, 2009; (blaue Kurve): Sadad Al Husseini, based on 2005 interview with ASPO-USA; (lila Kurve): Association for the study of peak oil and gas (ASPO) Newsletter, COMPILED BY Colin J. CAMPBELL, NO. 90, JUNE 2008
Varianten der Hubbert-Kurve Vorhersagen der zukünftigen weltweiten Ölproduktion variieren in einem weiten Bereich. Einige Analysten nutzen ein von dem Geologen M. King Hubbert entworfenes Modell, das einen glockenförmigen Verlauf der Förderkurve annimmt. Ihren höchsten Punkt hätte die Kurve bereits 2002 (violett) erreicht oder wird ihn nach neueren Prognosen um 2015 (blau) überschreiten; danach fällt sie unerbittlich. Optimistischere Vorhersagen wie die der amerikanischen Regierung (grün) berücksichtigen zu erwartende Entdeckungen neuer Ölfelder sowie Verbesserungen in der Fördertechnik. Würden zudem unkonventionelle Ölvorkommen wie in Teersanden und Ölschiefer vollständig genutzt, könnte die Kurve noch weitere 50 Jahre ansteigen (rot). Wie viel Öl gibt es noch? Ölproduktion (in Millionen Barrel pro Tag) 120
Vorhersage (2009) der USEnergiebehörde für 2030
90
Prognose von Sadad Al-Husseini von Saudi Aramco (2005) Vorhersage von Colin Campbell und Jean Laherrère (1998)
aktuell 60 30 0
2000 heute
2020
Info II Die gesamte Kohlendioxidbilanz beim Verbrennen von einem Liter Kraftstoff hängt von sehr vielen Faktoren ab – unter anderem davon, wie das Rohmaterial gewonnen und verarbeitet wird. Die Verflüssigung zähen Rohöls durch Dampfinjektion erfordert zusätzlichen Energieaufwand (der mit zusätzlichen CO2-Emissionen einhergeht), ebenso die Gewinnung von Öl aus Teersanden. Die Verflüssigung von Kohle zu Diesel hat die ungünstigste CO2Bilanz.
98
2040
2060
Prognose von Peter Odell, Erasmus University (Rotterdam), unter der Voraussetzung voller Nutzung unkonventioneller Ölvorkommen (2004) 2080
2100
CO2-Emission (Kilogramm CO2 pro Liter Benzin oder äquivalenter Mengen anderer Kraftstoffe) 2,74 Öl aus der primären Förderung (Alaska) 3,22 durch Dampfinjektion gefördertes Öl (Kern-River-Ölfeld) 3,38 Teersand-Förderung mit Dampfinjektion Diesel aus Kohleverflüssigung 2,73 Ethanol aus Mais 1,58 Ökodiesel aus Sojabohnen
6,12
verbliebene Öl dünnflüssiger, also beweglicher zu machen. Das Ölfeld am Kern River ver dankte der ältesten dieser Techniken Anfang der 1960er Jahre seine Wiederbelebung: der Injektion von heißem Dampf. Eine Variante dieser Förderung wurde in Alberta bei Teer sanden eingesetzt, die zu tief liegen, um sie im Tagebau zu gewinnen. Ein anderes bereits in der Praxis getestetes thermisches Verfahren basiert darauf, einen Teil der Kohlenwasserstoffe im Reservoir zu verbrennen. Dabei entstehendes Kohlendioxid (CO2 ) löst sich teilweise im Öl und macht es damit dünnflüssiger, zudem erhöht das Gas den Druck im Reservoir. Obendrein bricht das Feuer größere und schwerere Ölmoleküle in kleinere, beweglichere auf. Um die Ver brennung aufrechtzuerhalten, muss Luft in den Bohrschacht nachgeliefert werden. Über die Luftzufuhr lässt sich die Menge des bren nenden Öls regulieren, auch um Schadstoff emissionen vorzubeugen. Verbreiteter ist die Methode, Gase wie CO2 oder Stickstoff mit hohem Druck in die Tiefe zu pumpen und so den Druck innerhalb des Reservoirs aufrechtzuerhalten oder erneut zu erreichen. Sie können sich auch mit dem Öl vermischen, was wieder dessen Viskosität senkt und die Adhäsionskräfte des Gesteins verrin gert. In den USA wird seit den 1970er Jahren CO2 aus den Emissionen von Vulkanen oder Kraftwerken gewonnen und bei der Ölförde rung eingesetzt. Derzeit kommt das Verfahren bei rund 100 laufenden Projekten zum Ein satz, die benötigten Pipelines haben eine Ge samtlänge von 2500 Kilometern. Das so erworbene Knowhow hat im Übri gen neue Wege gewiesen, Kohlendioxidemis sionen aus den Abgasen von Verbrennungs kraftwerken zu isolieren und unterirdisch zu speichern. Das erste kommerzielle Projekt die ser Art läuft seit 1996 vor der Küste Norwe gens im Sleipner-Ölfeld. Darin werden jähr lich eine Million Tonnen CO2 gespeichert. Das scheint kaum der Rede wert angesichts der schätzungsweise 50 Milliarden Tonnen an Treibhausgasen, die durch menschliche Akti vität pro Jahr in die Atmosphäre gelangen. Die Anlage liefert aber zumindest einen Machbarkeitsbeweis für diese Technologie. Paradoxerweise besteht ein Hauptproblem der CO2-gestützten Ölförderung in der Knappheit des Gases. Es aus Abgasen zu extrahieren, ist nicht billig und wird geradezu sündhaft teuer, wenn Industrieanlagen als Quelle die nen sollen. Ein Problem ist auch der Transport in die oft entlegenen Regionen der Ölfelder. Eine Alternative bieten deshalb Chemikalien, die sich mit den im Gestein gefangenen Tröpfchen vermischen und sie umschließen, SPEKTRUM DER WISSENSCHAFT · Juni 2010
so wie Seifenmoleküle Fettpartikel einhüllen und damit abwaschbar machen. Das erfolg reichste dieser Verfahren hat auf Wasser den umgekehrten Effekt: Es wird zähflüssig und kann dadurch Öl noch effektiver zum Förder schacht pressen. Im chinesischen Daqing-Öl feld soll diese Methode die Fördermenge seit Mitte der 1990er Jahre um zehn Prozent ge steigert haben. Mitunter lässt sich der Chemi kalieneinsatz reduzieren: Eine spezielle Lö sung, in das Reservoir gepumpt, reagiert mit Bestandteilen des Öls zu den gewünschten seifenähnlichen Substanzen. In den Kinderschuhen steckt noch der Ein satz von Mikroben. Versuche dazu laufen in den USA, China und anderen Ländern. Dabei pumpen Ingenieure große Mengen spezieller Mikroorganismen in die Lagerstätte, außer dem Nährstoffe und gegebenenfalls Sauerstoff. Die Organismen siedeln sich im Übergangsbe reich zwischen Öl und Gestein an, was wiede rum hilft, den Rohstoff abzulösen und zum Schacht fließen zu lassen. Gentechnische Mo difikationen könnten die Effizienz verbessern.
Abschied vom easy oil
Keine dieser neuen Technologien ist beson ders preisgünstig. Einige jedoch (vor allem CO2 -gestützte Verfahren, sofern eine leicht nutzbare Gasquelle in der Nähe ist) rechnen sich bereits dann, wenn der Rohölpreis ober halb von 30 Dollar pro Barrel bleibt. Die meisten aber werden erst bei Preisen ab rund 50 Dollar pro Barrel wirtschaftlich. In einem haben Pessimisten wohl Recht: Die Ära des easy oil – des leicht gewinnbaren Öls – neigt sich dem Ende zu, wohl auch, weil es das erste war, das entdeckt und geför dert wurde (siehe Interview S. 97). Viele der größten und produktivsten Öllager der Welt nähern sich dem Punkt, da traditionelle För dertechniken nicht mehr effektiv sind. Dazu gehören Reservoirs in den Ländern am Per sischen Golf sowie in Mexiko, Venezuela und Russland, wo die Ölförderung in den 1930er, 1940er und 1950er Jahren begann. Damit diese Felder auch in Zukunft das Schwarze Gold liefern können, bedarf es der beschrie benen neuen Verfahren. Dabei darf man nicht vergessen, dass auch das easy oil zum Zeitpunkt seiner Entdeckung technische Entwicklungen notwendig machte. Ich glaube, das »schwierige Öl« von heute wird das einfache von morgen sein – dank zu nehmend höherem Wissensstand. Tatsächlich wird sich aber eines ändern: In der bisherigen Geschichte meiner Branche war Erdöl immer überreichlich vorhanden und der Preis daher zu niedrig, um kostspielige Innovationen zu rechtfertigen. Die Entwicklung neuer Tech SPEKTRUM DER WISSENSCHAFT · Juni 2010
Corbis / Dallas Morning News / Lara Solt
Technik & Computer
niken dauerte deshalb sehr lange. Beispiels weise wurde das Horizontalbohren schon in den 1930er Jahren erstmals getestet, fand aber erst in den 1980ern weite Verbreitung. Doch nun beginnt eine neue Ära. Allerdings hat sich die politische Landschaft verändert: Während in den 1970er Jahren Öl konzerne rund 80 Prozent der globalen Reser ven kontrollierten, stehen heute mehr als 90 Prozent der weltweiten Produktion unter der direkten Kontrolle nationaler Firmen, mithin der Förderstaaten selbst. Solange Unsicherheit über den zukünftigen Ölbedarf herrscht, zö gern einige dieser Länder, in moderne Förderund Explorationstechnologie zu investieren – zumal solche Mittel aus sozialen und ökono mischen Entwicklungsprogrammen abgezogen werden müssten. Dennoch wage ich eine Prognose: Bis 2030 werden mehr als die Hälfte der bekannten Vorkommen auch erschlossen sein. Außerdem wird deren Anzahl bis dahin deutlich wach sen, des Weiteren wird ein größerer Teil der unkonventionellen Lagerstätten genutzt wer den. Nicht einmal die optimistischen USGSStatistiken berücksichtigen ultraschwere Öle, Teersande sowie Öl- und Asphaltschiefer. Sol che Vorkommen lassen sich nicht mit den heute gängigen Techniken ausbeuten, könnten aber zusammen mindestens noch einmal so viel Öl enthalten wie die herkömmlichen La gerstätten, was die Gesamtmenge der Reser ven auf schätzungsweise 4500 bis 5000 Milli arden Barrel erhöhen würde. Dennoch werden wir bis 2030 weitere 650 bis 700 Milliarden Barrel unserer Reserven ver braucht haben – insgesamt sind dann 1600 Milliarden des Gesamtbestands von 4500 bis 5000 Milliarden Barrel verbrannt. Der größte Teil aber steht noch zur Verfügung und sollte die Bedürfnisse der Menschheit bis zum Ende des 21. Jahrhunderts decken können. Das wirkliche Problem besteht nicht darin, dass wir den Scheitelpunkt der Hubbert-Kurve über schritten hätten, sondern in der Frage, wie wir das verbliebene Erdöl nutzen, ohne es zu ver schwenden und ohne die Umwelt und das Kli ma unseres Planeten weiter zu schädigen.
Teersande sind unkonventionelle Erdöllagerstätten mit weiter Verbreitung. Ihre Förderung ist jedoch energieaufwändig; zudem entstehen große Mengen belasteter Abwässer.
Der Ökonom Leonardo Maugeri ist Vizepräsident der Strategieabteilung des italienischen Ölkonzerns Eni. Er lehrt als Gastdozent am Massachusetts Institute of Technology (MIT) in Boston und gehört zum Energieberater-Stab des Instituts.
Mabro, R. (Hg.): Oil in the TwentyFirst Century: Issues, Challenges, and Opportunities. Oxford University Press, Oxford 2006. Maugeri, L.: The Age of Oil: The Mythology, History, and Future of the World’s Most Controversial Resource. Praeger Publishers, Santa Barbara (Kalifornien) 2006. Morgan, W. A. et al.: Petroleum Provinces of the Twenty-First Century. American Association of Petroleum Geologists, 2002.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/1030088.
99
REZENSIONEN Zoologie
Das Königreich der sozialen Insekten 20 Jahre nach ihrem epochalen Werk über Ameisen legen die Autoren einen nicht weniger dicken Nachfolge band vor.
B
lattschneiderameisen der Gattung Atta sind nicht besonders beliebt. Die Tiere können ganze Plantagen entlauben. Ihre Biologie aber ist bis in alle Details – im wörtlichen Sinn – beeindruckend. Wenn zum Beispiel Tiere der Kaste »Große Arbei terinnen« auf eigens angelegten Straßen schwer beladen heim zum Nest laufen, rei ten zusätzlich ein bis zwei winzige »Pyg mäen« auf den Blattstücken mit und schüt zen ihre Schwestern vor dem Angriff von Buckelfliegen, die ihre Eier auf deren Kör pern ablegen wollen. Eine besonders gut untersuchte Art, Atta sexdens, baut unterir dische Nester bis zu 2,5 Meter tief in den Boden. In Kammern dieser Nester wachsen auf den eingetragenen Blattstücken Pilze, die wiederum der Ernährung der Kolonie bewohner dienen. Ein typisches Nest einer über sechs Jahre alten Kolonie enthielt 1920 Pilzkammern bis zur Größe von Kohlköpfen. Für die gesamte Anlage dieses Systems hat ten die Tiere 40 Tonnen Erde nach oben transportiert.
Um die Architektur solcher Bauten stu dieren zu können, fertigte man bei einer an deren Art, Atta laevigata, einen Abguss der Teile unter dem Haufen an, indem man flüs sigen Beton in die Eingänge schüttete. Für ein großes Nest benötigte man eine Brühe aus 6,3 Tonnen Zement und 8200 Litern Wasser. Wie konnte in der Evolution das Programm zur Anlage solcher Monumental bauten entstehen? Das zu erklären ist Aufgabe der Sozio biologie, als deren Begründer einer der Au toren, Edward O. Wilson, selbst gilt. Als spe zieller Zweig der Verhaltensforschung tritt sie an, auch Verhaltensweisen wie jedes an dere Merkmal allein durch das Wirken der natürlichen Selektion zu erklären. Da sich ein Insektenstaat aus oft sehr vielen Indivi duen ähnlich entwickelt wie ein Organis mus aus unzähligen Zellen, hat sich für die großen Insektenstaaten die Bezeichnung »Superorganismus« eingebürgert. Schon vor 20 Jahren hatten die Autoren den Bestseller »The Ants« (deutsch »Amei
sen«, siehe Spektrum der Wissenschaft 5/1996, S. 126) veröffentlicht, der mit dem Pulitzer-Preis ausgezeichnet wurde. Seit dem hat die Wissenschaft so unglaubliche Fortschritte gemacht, dass sie abermals ein dickes Buch füllen. Bert Hölldobler, Jahrgang 1936, und Ed ward O. Wilson, Jahrgang 1929, sind inter national berühmte und vielfach ausgezeich nete Evolutionsökologen, Verhaltensforscher und Soziobiologen. Ihr neues Werk ist keine ganz leichte Lektüre. Viele Litera turzitate und die sehr hohe Informations dichte geben ihm den Charakter eines Lehrbuchs. Als kleine Hilfe gibt es 14 Seiten Glossar. Dazu kommen großartige Farbabbildungen, deren Klarheit kaum zu übertreffen ist, da die (Labor-)Tiere bei komplizierten Verhaltensweisen wie Kom munikation, Markieren, Dominanzverhalten, Tragen und Füttern vor neutralem Unterund Hintergrund (meist wohl Fließpapier) abgelichtet werden konnten. Meisterlich auch die Illustrationen der Grafikerin Mar garet C. Nelson, die dort einspringen, wo die Kamera etwa an der Schnelligkeit des Verhaltensablaufs oder der Kleinheit der Objekte scheitert. Der Untertitel hält nicht ganz, was er ver spricht. Es geht vornehmlich um Ameisen, gelegentlich um Termiten und die Honigbie ne, der Rest der sozialen Hautflügler spielt praktisch keine Rolle. Wer auf dem gleichen Stand der Forschung zur Honigbiene sein will, greife zu »Phänomen Honigbiene« von Jürgen Tautz (Spektrum der Wissenschaft 9/2007, S. 92). Dafür geht es bei den einzelnen For schungsergebnissen bis in die letzten Ein zelheiten: Ein Superorganismus stellt sich als riesiges, sich selbst organisierendes In formationsnetzwerk dar. Seine »kollektive Weisheit« sorgt für die Fitness der gesam ten Kolonie. Dagegen ist die »Weisheit« der einzelnen Mitglieder sehr begrenzt. Keines von ihnen weiß, wie der Bau, den sie ge meinsam errichten, am Ende aussehen wird. Solche Kollektivleistungen sind nur dann möglich, wenn alle streng geregelt mitei nander kooperieren (mit Arbeitsteilung in »Kasten«), sich gegenseitig möglichst nicht stören und (meistens) zusätzlich auch noch
Bei den Honigtopfameisen der Art Myrmecocystus mendax speichern Angehörige der Soldatenkaste flüssige Nahrung in ihrem Kropf (dem hinteren Abschnitt des Vorderdarms). Dabei kann dieser bis auf die Größe einer Erbse oder Kirsche anschwellen.
100
SPEKTRUM DER WISSENSCHAFT · JunI 2010
ihre Fortpflanzungsfähigkeit einbüßen. Die Evolution solchen »eusozialen« oder »altru istischen« Verhaltens stellt wohl die kniff ligsten Fragen an die Soziobiologie. Sie las sen sich heute teilweise zufrieden stellend beantworten, aber dazu brauchen die Auto ren rund 600 Seiten. Umstritten ist noch immer, auf welche Einheiten die Selektion in einer Kolonie eigentlich wirkt, auf einzelne Individuen oder auf ganze Gruppen untereinander verwandter Tiere, zum Beispiel eine Königin mit ihren Töchtern, den Arbeite rinnen. Die Autoren antworten »auf alle zu gleich« (»Multi-Level-Selektion«), sind sich aber nicht wirklich einig. Hölldobler schreibt im Vorwort, er halte die Familien verwandtschaft für den entscheidenden Auslöser der Evolution der Eusozialität, während Wilson neuerdings argumentiert, ebendiese genetische Familienverwandt schaft sei von geringer oder gar keiner Be deutung. Es ist nicht möglich, ein solches gewal tiges Werk in Kurzform zu würdigen. Inhalt lich wird zunächst der Superorganismus selbst beschrieben, danach sehr ausführlich seine Evolution und seine Funktionsweise: die Rolle der Selbstorganisation, die ver schiedenen Formen der Arbeitsteilung und
Ein reifes Nest der Östlichen Ernteameise Pogonomyrmex badius reichte mehrere Meter tief in den Boden. Zum Größenvergleich: Walter Tschinkel (rechts), der den Abguss dieses Nests herstellte, ist 1,78 Meter groß.
die Verständigung (vor allem durch Phero mone) untereinander. Es folgen Kapitel über die Evolution der Ameisen, schließlich die ultimativen Superorganismen der Blatt schneiderameisen und die Architektur ver schiedener Nester unter der Erde. Die zum Teil geradezu fantastischen Einzelheiten machen das dicke Buch dann doch zu einem Erlebnis. Als Motto stellen die Autoren ihrem Buch einen Ausspruch des heiligen Basilius (1468–1552) voran: »Derjenige, der sich rühmt, die Kenntnis über alle tatsächlich existierenden Dinge zu besitzen, soll uns zunächst einmal die Natur der Ameise er klären.« Rund 14 000 Arten sind bekannt, doppelt so viele sind es wahrscheinlich, und weniger als 100 sind gründlich er forscht. Den Autoren wird die Arbeit also nicht ausgehen. Jürgen Alberti Der Rezensent ist Biologielehrer und Naturfoto graf in Bad Schönborn.
Informatik
Zuses Muse Im Werk des deutschen Computerpioniers gibt es durchaus künstlerische, »weibliche« Elemente zu finden. Aber musste es ausgerechnet Ada sein?
K
urz bevor wir am 22. Juni dieses Jahres den 100. Geburtstag von Konrad Zuse feiern, erscheint ein Roman von Friedrich Christian Delius, der aus einem 280 Seiten starken, polternden, nächtlichen Monolog des Erfinders besteht – eine ungewöhnliche und zweifellos bemerkenswerte literarische Form, die im Feuilleton bereits große Auf merksamkeit gefunden hat. Über diese Freiheit in der Form hinaus darf ein historischer Roman selbstverständ lich auch mit den Fakten kreativ umgehen. Es ist durchaus reizvoll, auszuspinnen, was gewesen wäre, wenn gewisse Ereignisse an ders als in der Realität stattgefunden hät ten. Eine solide Recherche ist aber immer unabdingbar, vor allem wenn es um weltbe kannte Persönlichkeiten und ihre Wirkungs geschichte geht. An der Stelle enttäuscht SPEKTRUM DER WISSENSCHAFT · JunI 2010
das vorliegende Werk, da es nur Legenden, Mythen, Altbekanntes und dazu leider viel Falsches wiederholt oder erneut aufwärmt. Gleich am Anfang des Buchs verrät der fiktive Zuse, dass er während des Baus sei ner Rechenmaschinen Ada Lovelace heim lich zu seiner Muse gemacht hat – rein in Gedanken natürlich, wie Don Quijote seine Dulcinea, denn Ada lebte von 1815 bis 1852. Dies ist eine hübsche Fiktion und eine schö ne Metapher. Nur hat Zuse in Vorträgen und Schriften wiederholt darauf hingewiesen, dass er die Arbeiten von Charles Babbage, dem Erfinder der Differenz- und der Analy tischen Maschine, bis 1945 und darüber hi naus nicht kannte. Wie hätte ihn dann Ada Lovelace inspirieren können, die der wis senschaftlichen Nachwelt nur ihren Kom mentar zur nie gebauten Analytischen Ma
Bert Hölldobler und Edward O. Wilson Der Superorganismus Der Erfolg von Ameisen, Bienen, Wespen und Termiten Aus dem Englischen von Kerstin Afflerbach, Renate FitzRoy, Andreas Held, Gudrun Maxam, Claudia Schön und Sebastian Vogel. Springer, Berlin 2010. 630 Seiten, € 79,95
schine Babbages hinterlassen hat (Spektrum der Wissenschaft 7/1999, S. 80)? Als Tochter des Dichters Lord Byron war sie bereits als Kind eine Zelebrität, aber bis 1900 weit gehend in Vergessenheit gera ten. Erst der Anfang des Computerzeitalters machte aus ihr wieder einen Star. Von der einfachen Vertrauten von Babbage avan cierte sie zur »Assistentin«, von der Über setzerin einer Beschreibung der Analyti schen Maschine zu einer mit allen Wassern gewaschenen Mathematikerin und gar zur ersten Programmiererin der Welt. All diese Legenden hat Dorothy Stein be reits 1985 in »Ada: A Life and a Legacy« als unhaltbar entlarvt. In akribischer Archiv arbeit wies sie nach, dass Ada in der ein fachen Algebra große Schwächen aufwies und das gepriesene erste Computerpro gramm der Welt nicht von ihr, sondern von Babbage stammte. Steins Buch konnte je doch der Legende von Ada nichts anhaben, und fast ein Vierteljahrhundert später führt Delius sie in neue Höhen. Was wir von ihm über Zuse selbst und seine Maschinen erfahren, steht für jeder mann seit 1970 in Zuses Autobiografie »Der
101
REZENSIONEN
Computer, mein Lebenswerk« zu lesen. Mir ist kaum ein wirklich interessantes Detail aufgefallen, das nicht schon dort erwähnt ist. Zuses Beschreibung seiner Sturm- und Drangzeit ist irritierend modern und klingt, als wäre er bereits damals Mitglied im Cha os Computer Club gewesen: »Wir bauen drei Speicherblöcke mit vierundsechzig Wörtern zu je zweiundzwanzig Bits, verbinden diese mit einem Wählwerk zur Speicherung der binären Gleitkommazahlen.« Leider haben die Wörter Speicherwort, Bit und Gleitkom ma sich erst nach dem Krieg eingebürgert, und dies zuerst in den USA. Weitere Mythen finden sich im ganzen Buch verstreut. Über seine erste Maschine, die Z1: »Wenn es mal arbeitet, dann hat es schneller und genauer Wurzeln gezogen als jedes andere Rechengerät.« In Wirklichkeit konnte erst die Z3 von 1941 Wurzeln ziehen (Spektrum der Wissenschaft 5/1997, S. 54).
und S2 – für die Nachbearbeitung der Trag flächen von Flugbomben zu entwickeln. Da raus ist nicht mehr zu schließen, als dass sein wissenschaftlicher Beitrag als wichtig empfunden wurde oder er über ausreichend gute Verbindungen zum militärisch-indus triellen Komplex verfügte. Aber Delius geht ein Stück zu weit, wenn er Zuse sagen lässt: »In meinem Freundes kreis hat es keine Parteileute gegeben.« Das ist bei etwa sieben Millionen NSDAP-Mit gliedern bis 1945 schon statistisch kaum möglich. Als Zuse an der Technischen Hoch schule Berlin-Charlottenburg, der heutigen TU Berlin, studierte, erhielt schon 1931 die NSDAP mehr als 60 Prozent der Stimmen bei den Studentenschaftswahlen. Seit 1983, als Paul Ceruzzi das Buch »Reckoners« vor legte, ist bekannt, dass Zuses bester Freund Helmut Schreyer NSDAP-Mitglied war – was Zuse in seiner Autobiografie nicht erwähnt.
Zuses Maschinen waren nicht »faustisch«, sondern eher »ewig weiblich« Oder: »Tatsache ist, wir sind die Ersten oder mit die Ersten gewesen, die seine Revoluti on [das Binärsystem von Leibniz] in die Pra xis umgesetzt haben.« Dabei waren schon damals binäre Zähler hinreichend bekannt. John Atanasoff hatte bereits 1937 die Idee entwickelt, ein binäres Gerät mit sequen zieller Logik zu bauen. Im gleichen Jahr legte Claude Shannon in seiner Masterar beit am Massachusetts Institute of Techno logy eine vollständige mathematische Be schreibung von binären Relaisschaltungen vor. Viele andere, nicht nur Zuses Freund Helmut Schreyer in Berlin, arbeiteten in den 1930er Jahren an logischen Schaltungen mit Röhren. Die Komplexität des weltweiten Entstehungsprozesses des Computers wird, wie so oft, auf einen einzigen Ort und einen einzigen genialen Erfinder reduziert. Auf die Frage aller Fragen antwortet Zuse im Roman mit dem Satz »Ich hatte überhaupt keine Zeit, ein Nazi zu sein«. Nach allem, was wir über ihn wissen, stimmt das auch. Zuse war weder Nazi noch Wider standskämpfer. Er wurde während des Kriegs zweimal von der Front geholt, um Re chenmaschinen – die Sondermaschinen S1 Alle rezensierten Bücher können Sie in unserem Science-Shop bestellen direkt bei: www.science-shop.de per E-Mail:
[email protected] telefonisch: 06221 9126-841 per Fax: 06221 9126-869
102
Die Realität ist jedoch wieder einmal viel komplizierter, als es der Roman uns glau ben lässt, und die »faustischen« Kompo nenten auch viel extremer und bedrü ckender als die winzigen Details, die aus dem Monolog durchschimmern. So beschäf tigte auch Zuse in seinem Betrieb in BerlinKreuzberg Zwangsarbeiter. Es ist klar, dass Ada Lovelace in diesem Roman nur als Platzhalterin für eine der beiden Seiten des Schaffungs- und Erfin dungsprozesses steht: das erotische, künst lerische, solidarische und »ewig weibliche« gegen das »faustische«, ins Unendliche strebende Prinzip. Aber der kundige Leser hätte sich etwas Vielschichtigeres aus die ser Reise durch die Psyche und die Träume eines Konrad Zuse gewünscht. Wie funktio niert Erfindung? Wie viel geht auf das Konto der Besessenheit, wie viel zählt das Ego, wie viel Kunst muss dabei sein? Verglichen mit den amerikanischen oder britischen Computern waren Zuses Maschi nen höchst elegant. Der Erfinder mit dem kleinsten Budget aller Pioniere der Informa tik war etwas freier und in diesem Sinn »künstlerischer«, da er tatsächlich bei null und ohne Ballast anfing und zu einer Archi tektur gelangte, die noch heute von Fach leuten als wirklich modern empfunden wird. Dagegen fühlte sich zum Beispiel Howard Aiken in Harvard bei seinem »Mark I« an die bereits vorhandenen Standardbauteile ge bunden. Wenn man die Maschinen Z1, Z3
und Z4 mit einem einzigen Wort beschrei ben sollte, wäre dieses Wort nicht »binär« oder »programmierbar«, sondern »elegant«. Oder, um Goethe den Vortritt zu geben, »ewig weiblich« statt »faustisch«. Zuses Maschinen waren trotzdem nicht wirklich universell – die anderen frühen Ma schinen aus den USA übrigens auch nicht. Bedingte Sprünge konnten sie nicht bear beiten, nur lange Reihen von festen Opera tionen. Den Fluss der Rechenoperationen umzuleiten, ist selbst für einen modernen Prozessor das schwierigste Problem. Im Ro man redet Zuse an vielen Stellen über den »Universalrechner«, obwohl es ihm auf die Universalität anfangs gar nicht ankam. Dass nur »ein Draht« für Universalität, das heißt für bedingte Sprünge, fehlte, stimmt nicht, obwohl Zuse sich leider später so ausge drückt hat. Bereits 1998 habe ich in »An nals of the History of Computing« gezeigt, welche Klimmzüge man machen muss, um die Z3 universell zu gestalten. Und dass ihn jetzt noch die Muse daran gehindert hätte, den Draht zur Universalität zu legen, weil der Computer sich faustisch hätte verselbst ständigen können, ist einfach an den Haa ren herbeigezogen. Summa summarum: Der unkundige Le ser wird mit diesem Buch vielleicht seinen Spaß haben, vor allem wenn er Zuses Auto biografie nicht kennt. Der kundige Leser be dauert, dass schon wieder alte und neue Le genden in Prosa gedichtet wurden und dass eine Gelegenheit verpasst wurde, tief in den Kopf des berühmten Erfinders einzudringen und aus dieser Warte die künstlerische und faustische Spannung des Schöpfungspro zesses neu zu beleuchten. Was für eine Ironie! Zuse, der verkannte Erfinder; Zuse, der lange um die Anerken nung der Fachwelt kämpfen musste, dessen Lebenswerk, dem Computer, vom Patent amt die »Erfindungshöhe« aberkannt wur de; Zuse der Unterbewertete, der am An fang des Romans die Unterbewertung des Jägerschnitzels beklagt, mutiert hier im Ro man zum Groupie der »am meisten über bewerteten Persönlichkeit der Computer geschichte«, wie Bruce Collier 1990 im Vorwort zu »The Little Engine that Could’ve« Ada Lovelace nannte. Raúl Rojas Der Rezensent ist Professor für künstliche Intelli genz an der Freien Universität Berlin. Friedrich Christian Delius Die Frau, für die ich den Computer erfand Rowohlt, Berlin 2009. 288 Seiten, € 19,90
SPEKTRUM DER WISSENSCHAFT · JunI 2010
Mathematik
Baywatch für Wissenschaftler Rudolf Taschner findet auch für schwierige Phänomene erfreu lich einfache Analogien.
H
inter so manchem Phänomen unseres Alltags steckt, oft unerwartet und doch ganz wesentlich, Mathematik. Dass das nie manden erschrecken muss, zeigt der Wie ner Mathematikprofessor Rudolf Taschner in seinem fünften populärwissenschaft lichen Buch »Rechnen mit Gott und der Welt« auf unterhaltsame und eindrucks volle Weise. Von optischen Gesetzen über die Sinuskurve, die beim Schwingen einer Saite entsteht, bis hin zu Bereichen, in de nen man die Mathematik eher weniger ver mutet, wie etwa beim Fußball oder in der Theologie – in jedem der zehn Kapitel be fasst der Autor sich mit einem anderen As pekt unseres Lebens und beschreibt den Einfluss der Mathematik. Kuppelbauten großer Kathedralen, beginnend mit dem des Doms von Florenz, haben häufig ein regelmäßiges Achteck als Grundriss.
Oft prägen ganz einfache mathematische Konzepte unsere Alltagswelt entscheidend, wie etwa im Fall von Zinseszins und Wech selkurs. Taschner nutzt deren Gesetze für ein eindrucksvolles, wenn auch realitäts fernes Gedankenspiel, in dem er uns inner halb eines Jahres Millionär werden lässt. Auch für kompliziertere mathematische Konzepte findet er treffende und einpräg same Bilder. Der wohl geformte italienische Bademeister, der ein wunderschönes Mäd chen in Not aus dem Meer retten will, ist am Strand schneller als im Wasser. Deswegen läuft er nicht schnurstracks auf sie zu, son dern geht erst an einer ganz bestimmten Stelle des Strands ins Wasser. So verhält sich ein Lichtstrahl an der Grenze zwischen
Luft und Glas auch. So schwierig wie nötig, so einfach wie möglich – Taschner findet oder zitiert stets erfreulich einfache, aber nie verfälschende Analogien. Die Zusammenstellung dieser Beschrei bungen macht den Großteil und auch die Leistung des Buchs aus. Gelegentlich reflek tiert Taschner am Ende eines Kapitels noch einmal die vorgebrachten Gedanken; selten nimmt er auch Wertungen vor. Diese Passa gen wirken jedoch oft banal und die Wer tungen gar ungerecht, etwa wenn er erklärt, die alten Griechen hätten in ihren Zeich nungen eine unendliche Folge immer klei ner werdender Elemente »bewusst und gezielt« weggelassen, während er dem Zeichner Maurits C. Escher unterstellt, er habe diese Wiederholungen deshalb nicht eingebracht, »weil er einfach nicht weiter zu zeichnen verstand«. Wer sich ein wenig in einem der be schriebenen Bereiche auskennt, wird im zugehörigen Kapitel kaum etwas Neues er fahren. Mehr als absolutes Grundwissen versucht das Buch nirgends zu vermitteln. Die Beschreibung des goldenen Schnitts etwa wird dem Kunstinteressierten ebenso wenig neu sein wie die Obertonreihe für den Musiker. Stattdessen bietet das Buch eine große Themenfülle an. Mit dem Verzicht auf Tiefe zu Gunsten einer größeren Breite wird Taschner dem erklärten Ziel seines Buchs gerecht, den Leser staunen zu lassen, »wie viel und zugleich wie wenig man mit Mathe matik zu verstehen imstande ist«. Mit Mathematik kann man nicht alles er klären; dessen ist der Autor sich voll und ganz bewusst. Doch sie ist allgegenwärtig und dabei durchaus verständlich – genau das vermittelt dieses Buch. So macht Taschner, wie auch in vielen seiner anderen Werke, die Mathematik ei ner breiten Öffentlichkeit zugänglich. Für dieses Engagement wurde er 2004 in Öster reich zum »Wissenschaftler des Jahres« er nannt.
Erich Lessing Culture and Fine Arts Archives
Annika Meyer Die Rezensentin ist promovierte Mathematikerin und wissenschaftliche Angestellte an der RWTH Aachen. Unter dem Namen Annika Günther hat sie in Spektrum der Wissenschaft 1/2010 »Die Canterbury Rätsel« von Henry Ernest Dudeney rezensiert. Rudolf Taschner Rechnen mit Gott und der Welt Betrachtung von allem plus eins Ecowin, Salzburg 2009. 207 Seiten, € 22,–
SPEKTRUM DER WISSENSCHAFT · JunI 2010
103
Wissenschaft & Karriere
»Unser Ziel ist, den Schädling unter einer wirtschaftlichen Schadensschwelle zu halten«
alle Fotos: AMW Nützlinge GmbH
Bernd Wührer wurde 1962 in Darmstadt geboren und studierte dort Biologie an der TH (jetzt TU). 1990 schrieb er seine Diplomarbeit über die Haltung von Nutzinsekten und promovierte, gefördert von der Gesellschaft für Technische Zusammenarbeit, über den Einsatz von Schlupfwespen. Seit 1998 ist er Geschäftsführer der Firma AMW Nützlinge GmbH in Pfungstadt. Das Akronym leitet sich von den drei Firmengründern her: Conrad Appel, Sylvia Melchior und Bernd Wührer.
104
Die Firma AMW Nützlinge GmbH züchtet und vertreibt Nutz insekten gegen Schädlinge in Landwirtschaft und Privat haushalten. Ein Gespräch mit Geschäftsführer Dr. Bernd Wührer über den Werdegang einer ungewöhnlichen Geschäftsidee
Spektrum der Wissenschaft: Ein Stu dium der Biologie eröffnet ein Berufsfeld bis in die Pharmazie hinein. Das Züch ten von Nutzinsekten gehört aber wohl zu den selteneren Tätigkeiten. Bernd Wührer: (lacht ) Eigentlich wollte ich die Pflanzenphysiologie erforschen. Doch als studentische Hilfskraft am Ins titut für Biologischen Pflanzenschutz der Biologischen Bundesanstalt für Landund Forstwirtschaft betreute ich Nütz linge wie Marienkäfer, Schweb- und Flor fliegen. Es hat mir Spaß gemacht, und als man mir eine Diplomarbeit anbot, sagte ich zu. Und dann promovierte ich dort über den Einsatz von TrichogrammaSchlupfwespen im Gemüseanbau, grün dete in dieser Zeit eine Ein-Mann-Firma für Nutzinsekten und arbeitete für die Conrad Appel GmbH, bei der meine jet zige Kollegin Sylvia Melchior bereits Nützlinge für den Maisanbau züchtete. Spektrum: Der Zufall will es, dass »Spek trum der Wissenschaft« 1998 über diese Alternative zum chemischen Pflanzen schutz berichtete, damals eine noch recht neue Idee (SdW 5/1998, S. 86). Fanden Sie bereits einen Markt vor? Wührer: Schlupfwespen wurden sogar schon 1930 in Russland und in den USA eingesetzt, und seit 1970 verwendet man hier zu Lande Trichogramma-Arten ge
gen den Maiszünsler, den Hauptschäd ling beim Maisanbau. Aber von einem entwickelten Markt konnte damals noch keine Rede sein. Bekannte fragten mich: »Davon willst du leben?« Spektrum: Wie ging es weiter? Wührer: Ich konzentrierte mich auf Trichogramma für den Apfel- und Zwetsch genanbau, klebte die Eier auf handgefal tete Kärtchen und schickte sie an Klein gartenanlagen und Privatkunden. Dann meldete sich Ellen Norten, eine Mitar beiterin von Jean Pütz und seiner »Hob bythek«. Sie wollte einen Film über den Einsatz von Nützlingen im Haushalt drehen, insbesondere von solchen gegen Lebensmittelmotten. So musste ich mir quasi über Nacht ein Produkt überlegen, denn der Verbraucher sollte sich ja nicht mit der Überwachung der Entwicklungs stadien dieser Tiere herumschlagen. Mit te der 1990er Jahre waren meine ersten Insekten im Handel – bei Spinnrad. Spektrum: Ein Massenmarkt sind Nutz insekten aber auch heute noch nicht, oder? Wührer: Reich wird man damit nicht. Wir haben gute Zuwächse und liefern auch ins Ausland. Aus Spanien erhielten wir Anfragen, ob sich unsere Schlupf wespen zur Bekämpfung der Tomatenmi niermotte Tuta absoluta eignen, da man SPEKTRUM DER WISSENSCHAFT · Juni 2010
Zu den Kunden gelangen Trichogramma-Schlupfwespen (links) meist in Form aufgeklebter Eier auf Kärtchen (oben, grüne Karte) oder in Kugeln.
die bislang verwendete TrichogrammaArt aus Frankreich in riesigen Mengen einsetzen muss. Was Privathaushalte an belangt, fassen wir in Frankreich, Schweiz und Österreich Fuß. Spektrum: Schlupfwespen gegen Lebens mittelmotten – treiben Sie den Teufel mit dem Beelzebub aus? Wührer: Die 0,4 Millimeter großen Trichogramma evanescens fallen kaum auf, stechen und beißen nicht. Der Verbrau cher bekommt Kärtchen mit aufge klebten Eiern und stellt sie ins Küchenre gal. Nach dem Schlüpfen legen die Tiere Eier in Mottengelegen ab, statt Motten schlüpfen Wespen. Gibt es keine Schäd linge mehr, verschwinden sie wieder. Spektrum: Wären handelsübliche Phero monfallen nicht appetitlicher? Wührer: Die locken nur Männchen an, zudem oft solche von draußen. Und viele Weibchen sind längst befruchtet, bevor die Männchen in die Falle gehen. Zur Überwachung von Schädlingsflügen auf den Feldern schätze ich Pheromonfallen. Spektrum: Vermutlich gehören Biohöfe zu Ihren Hauptkunden? Wührer: Im Gegenteil. Weil nur wenige Biobetriebe Mais anbauen und weil im ökologischen Obstbau häufig Schwefel gegen Pilzkrankheiten eingesetzt wird, und den vertragen Schlupfwespen nicht. SPEKTRUM DER WISSENSCHAFT · Juni 2010
Spektrum: Apropos ökologisch, der Ein satz von Nützlingen kann auch uner wünschte Nebenwirkungen haben, wie beim asiatischen Harlekin-Marienkäfer. Wührer: Harmonia axyridis wurde in ei nigen Ländern zur Bekämpfung von Blatt läusen importiert, frisst aber auch Larven anderer Insekten und verdrängt die hei mischen Marienkäfer. Spektrum: Wie beugt Ihre Firma solchen Effekten vor? Wührer: Wir züchten ausschließlich hei mische Schlupfwespen. Zudem haben wir uns mit anderen Nützlingsanbietern unter der deutschen Gruppe der Interna tional Biocontrol Manufacturers Associa tion zusammengetan, um derlei Entwick lungen zu verhindern. Natürlich halten wir uns an die offizielle Nützlingsliste des Julius Kühn-Instituts. Es arbeitet ge meinsam mit dem Bundesamt für Ver braucherschutz und Lebensmittelsicher heit auch schon seit Längerem an einer neuen Verordnung, in der die Zulassung von Nützlingen geregelt werden soll. Spektrum: Kann man damit den Kampf gegen Schädlinge überhaupt gewinnen? Wührer: In der Landwirtschaft geht es darum, den Schädling unter einer wirt schaftlichen Schadensschwelle zu halten. Aber bei Lebensmittelmotten im Haus halt – einem geschlossenen System – ist
schon eine vollständige Ausrottung be absichtigt. Spektrum: Machen Nutzinsekten Insek tizide in Zukunft überflüssig? Wührer: Im Freiland sicherlich nicht. Allerdings lassen sich Nützlinge und In sektizide manchmal auch kombinieren. Hier kooperieren wir erfolgreich mit der chemischen Industrie. Anders sieht es im Gemüseanbau unter Glas aus, dort er setzen Nützlinge die Insektizide bereits größtenteils. Spektrum: An welchem Projekt arbeiten Sie gerade? Wührer: Wir möchten den Vorratsschutz verbessern, beispielsweise mit Ameisen wespchen gegen Getreideplattkäfer in Lagerbetrieben und Mühlen oder mit der Lagererzwespe gegen Kornkäfer. Zu dem beschäftigen wir uns mit dem Ein satz von Larvenparasiten wie Brackwes pen, um sie mit Trichogramma-Eipara siten gegen den Maiszünsler zu kombi nieren. An einigen Versuchsstandorten, insbesondere in Frankreich, waren die Bekämpfungserfolge 2009 sehr beacht lich! Und wir testen neue Ausbringungs techniken, beispielsweise das Versprühen von Nützlingseiern über Feldern. Das Interview führte die Berliner Wissenschaftsjournalistin Dagmar Pohland.
105
Heft Juli 2010 ab 29. Juni im Handel
Serie
Zeit und Kultur Vergangenheit, Gegenwart, Zukunft – diese lineare Abfolge erscheint uns natürlich. Doch Vorstellungen zyklischer Abläufe prägten die Kulturen seit dem Altertum. Erst in der Moderne setzte sich ein physikalisch geprägter Zeitbegriff durch
fotolia / Mary Lane
Die zwei Seiten des Gehirns
Weitere Themen im JuLi
Die Spezialisierung beider Hirnhälften für bestimmte Aufgaben wurde lange als Besonderheit des Menschen angesehen. Jetzt wird klar, dass dieses Phänomen schon in den frühen Wirbeltieren angelegt war
Der Max-Planck-Forscher Hans Schöler äußert sich über seine Forschung – und die damit oft ver bundenen utopischen Erwartungen
Drahtlose Ad-hoc-Netze Drahtlosnetze, in denen unsere Handys selbst Teil der Infrastruktur werden, ermöglichen überall einen schnellen Zugang zum Internet
Möchten Sie stets über die Themen und Autoren eines neuen Hefts auf dem Laufenden sein? Wir informieren Sie gern per E-Mail – damit Sie nichts verpassen! Kostenfreie Registrierung unter: www.spektrum.com/newsletter
106
Corbis / MedicalRF.com; Bearbeitung: Twist Creative
Utopie mit Stammzellen?
CERN
Im Juli-Heft 2010
Vorschau
Astronomie mit Geisterteilchen Neutrinodetektoren sind nun empfindlich genug, um uns direkt ins Zentrum von Sternen und anderen kosmischen Phänomenen blicken zu lassen