EDITORIAL Reinhard Breuer Chefredakteur
Gibt es ein Gütesiegel für Wissenschaft? Zum Alltag in unserer Redaktion gehört es, mit ungebetenen Zusendungen beglückt zu werden. Regelmäßig erreichen uns mehr oder weniger dicke Kuverts, in denen sich eng beschriebene Manuskripte verbergen, oft ergänzt um handgemalte Zeichnungen. Dazu nicht selten die herrische Aufforderung, das Beigelegte unverzüglich zu publizieren. Bisweilen ergeht sogar die Anweisung, sich zuvor mit einem Anwalt in Verbindung zu setzen (bei dem das Opus hinterlegt sei) und eine Schweigeverpflichtung zu unterschreiben. Selbst dann bliebe ja immer noch die Aufgabe, zu prüfen, ob es sich hier um solide Wissenschaft handelt. Manchmal genügt ein kurzer Blick, um festzustellen, wes Geistes Kind der Einsender ist. Doch wirkliche Mühe machen uns Texte, die sich nicht schon auf den ersten Blick als verstiegene Spekulation entlarven. Wo verläuft die Trennlinie zwischen seriöser Forschung und Pseudowissenschaft? Und wie unterscheidet man Unfug von einer neuen, vielleicht sogar revolutionären Theorie? Gern wird auf Sündenfälle der Vergangenheit verwiesen, wie etwa auf Alfred Wegeners Hypothese von der Kontinentalverschiebung, die jahrzehntelang von Fachleuten abgelehnt wurde – bis sie sich schließlich als die »richtige« Theorie durchsetzte. Sir Karl Popper hat sich ausgiebig mit dieser Trennlinie befasst. Dabei ging es ihm nicht, wie der Wissenschaftsphilosoph einmal schrieb, um die Frage »Wann ist eine Theorie wahr?« oder
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
»Wann ist eine Theorie akzeptabel?«. Vielmehr wollte er zwischen Wissenschaft und Pseudowissenschaft unterscheiden, »wohl wissend, dass Wissenschaft oft irrt, und dass Pseudowissenschaft über die Wahrheit stolpern« könne. Seitdem gilt als Kanon, dass sich Wissenschaft durch Widerlegbarkeit auszeichnet. Was nicht widerlegbar sei, behaupte auch nichts Überprüfbares und sei daher unwissenschaftlich. Als Beispiele für Pseudowissenschaft nannte Popper Astrologie, aber auch Marxismus, Freuds Psychoanalyse und Alfred Adlers Individualpsychologie. Hinzufügen könnte man heute den Kreationismus und verwandte »Gottes beweise«. Unser Essay befasst sich diesmal mit dem heutigen Status von Poppers Widerlegbar keitskriterium – denn die Praxis der Forschung wird dem nicht immer gerecht (S. 72). Autokrise allerorten: Kurzarbeit in den Werkshallen, volle Parkplätze bei den Händlern. Keiner kauft mehr Neuwagen, der alte tut’s auch noch eine Weile. Da, plötzlich geht ein Ruck durch die Lande. Wie zuletzt auf der Detroiter Autoshow präsentieren nun alle großen Auto firmen bislang stiefmütterlich behandelte Alternativen – vor allem Elektroautos. Liegt hier die mobile Zukunft? Unser Autor Reinhard Löser hat sich angesehen, womit sich die Branche retten will (S. 88). Herzlich Ihr
3
Inhalt astronomie & physik Folgenschwere solare Superstürme
24 46 38
medizin & Biologie Neuen Therapien bei Brustkrebs
medizin & Biologie Der Ameisenforscher Bert Hölldobler
aktuell
astronomie & physik
medizin & biologie
10 Spektrogramm
24 r Solare Superstürme – die verkannte Gefahr
38 r Therapeutische Fortschritte bei Brustkrebs
Auch Bienen können zählen · Chirurgi sche Mikrohände · Halluzinogener Kaffee · Feingefühl dank Fingerrillen u. a.
Träte erneut ein großer Sonnensturm wie 1859 auf, würde er unsere techni sierte Zivilisation hart treffen. Die Schäden an Satelliten und Stromnetzen dürften sich auf Dutzende Milliarden Euro belaufen
12 Bild des Monats Amtseinführung aus dem All
14 Bose-Einstein-Kondensat mit Swing
Raffinierte Kopplung von Mechanik und Quantenmechanik
15 Kelchproteine für den Kampf gegen Krebs Neuartige »Anticaline« können wie Anti körper Zielmoleküle selektiv ausschalten
19 Tief verwurzeltes Statusdenken
Unser Gehirn ist darauf programmiert, Hierarchien zu beachten
20 Tanz der Moleküle zeigt lebendiges Bild der Zelle Neue Methode zur Abbildung von Molekülen in lebendem Gewebe
23 Springers Einwürfe
Mit Robotern leben und sterben
Schlichting!
32 Schnell und schmerzlos Schlürfen als physikalisches Phänomen
Physikalische Unterhaltungen
33 Venus-Romantik
Wenn die Wolkendecke der Venus nicht so dicht wäre, hätten ihre Bewohner einen atemberaubenden Blick auf die leuchtende Erde – alle acht Jahre
Weitere Rubriken 3 Editorial: Ein Gütesiegel für Wissenschaft? 8 Leserbriefe 9 Impressum 71 Im Rückblick 106 Vorschau
Die Heilungschancen haben sich schon deutlich verbessert. Nächstes Ziel: eine Behandlung, die auf den individuellen Tumor zugeschnitten ist
Serie (Teil IiI) Evolution
46 r Der Ameisenfreund
Der Verhaltensphysiologe Bert Hölldobler ist weltweit einer der besten Kenner von Ameisen und ihren Staaten. Von ihm und dem Soziobiologen Edward O. Wilson erschien kürzlich das Buch »The Super organism«
102 Rezensionen: Thomas Bührke Die Sonne im Zentrum Roland Glaser Heilende Magnete – strahlende Handys C. Cederbaum Wie man einen Schokoladendieb entlarvt E. B. Burger et al. Wie man den Jackpot knackt S. Borchardt et al. Das Murmeltier-Buch
78 erde & umwelt Hier spaltet sich Afrika in zwei Teile
96
Titel
Die Zähmung des Unendlichen mensch & geist
TITEL
Serie (Teil VI) Die gröSSten Rätsel der Mathematik
54 Anderthalbfach unendlich Eines der hartnäckigsten Probleme der Mengenlehre, die Kontinuums hypothese, nähert sich einer über raschenden Lösung
54
erde & umwelt 78
r Die
Geburt eines Ozeans
Eine Fotoreportage lässt Sie hautnah miterleben, wie Afrika im AfarDreieck auseinanderbricht und sich ein neues Meeresbecken öffnet – ein ebenso seltenes wie dramatisches Ereignis
technik & computer Multisensitive Bildschirme
technik & computer
86 Eins, zwei, MP3 Datenkompression macht Musik mobil
Serie (Teil II) Autos der zukunft
88 Die Zukunft fährt elektrisch Tanken wir schon bald an der Steckdose? Getrieben von Befürchtungen über einen weltweiten Abschwung forcieren Autohersteller die Entwicklung von Elektrofahrzeugen – mit Erfolg
96 Sensible Bildschirme
64 Die Biologie des Wohlklangs
Displays, auf denen sich mehrere Ob jekte und Dokumente parallel bewegen lassen, könnten bald Tastaturen und Computermäuse überflüssig machen
Die Wahrnehmung von Dur und Moll gilt meist als erlernt, nicht als physiolo gisch vorgegeben. Doch unsere Autoren sehen darin einen Effekt der Obertöne
Wissenschaft im Alltag
Essay
Wissenschaft & Karriere
100 »Von der Forschung bis zur Produktion«
72 Manche Schwäne sind grau
Wissenschaftstheoretiker suchen nach einem realistischen Begriff wissenschaft licher Wahrheit Titelmotiv: Linas Vepstas (http://linas.org) Die auf der Titelseite angekündigten Themen sind mit r gekennzeichnet; die mit markierten Artikel finden Sie auch in einer Audioausgabe dieses Magazins, zu beziehen unter: www.spektrum.de/audio
Siemens-Wissenschaftler Martin Stetter über die Unterschiede zwischen univer sitärer und industrieller Forschung
Online
Mercedes-Benz
Hari Manoharan, Stanford University
Dies alles und vieles mehr finden Sie in diesem Monat auf www.spektrum.de. Lesen Sie zusätzliche Artikel, diskutieren Sie mit und stöbern Sie im Heftarchiv!
spektrumdirekt Auf dem Weg zum Quantencomputer www.spektrumdirekt.de/quanten
Interaktiv Sind Elektroautos die Zukunft? www.spektrum.de/artikel/980525
Tipps
Interaktiv
Schnell, prägnant, informativ
Sind Elektroautos die Zukunft?
Aktuelle Kurzmeldungen aus der Welt der Wissenschaft, sorgfältig nachrecherchiert und prägnant formuliert, bieten unsere aktuellen Online-Spektrogramme, von denen wir im gedruckten Heft nur eine Auswahl präsentieren können
Richtig: Sie brauchen kein Benzin im Tank. Doch der Strom, mit dem sie fahren, muss erst einmal erzeugt werden und stammt bislang vor allem aus Kohle- und Atomkraftwerken. Geht der Automobilbau trotzdem in die richtige Richtung (siehe auch »Die Zukunft fährt elektrisch« auf S. 88)? Stimmen Sie ab und diskutieren Sie mit unter
Nur einen Klick entfernt
Machen Sie mit!
Die Wissenschaftszeitung im Internet
Neues aus der Hirnforschung Was macht ein Genie aus? Wie lassen sich menschliche Verhaltensweisen erklären? Wie funktioniert das extrem komplexe Zusammenspiel der Neurone? Immer tiefer blicken Hirnforscher dank bildgebender Verfahren in das Gehirn. »spektrumdirekt« hält Sie auf dem Stand der Dinge
www.spektrum.de/spektrogramm
www.spektrumdirekt.de/hirnforschung
Auf dem Weg zum Quantencomputer Noch ist er Zukunftsmusik: der Computer, der nach quantenmechanischen Prinzipien arbeitet. Doch Forscher beherrschen es immer besser, einzelne Elementarteilchen zur Informationsverarbeitung zu nutzen
www.spektrumdirekt.de/quanten
www.spektrum.de/artikel/980525
Neue Bücher im Überblick Wie hieß noch gleich das Buch, das kürzlich in »Spektrum der Wissenschaft« so hoch gelobt wurde? Unsere Rezensionen finden Sie im Gesamtüberblick auch online. Schauen Sie nach frischem Lesestoff auf
www.spektrum.de/rezensionen
Feindliche Brüder im Geiste Es klingt nach erbitterter Gegnerschaft, wenn ein Autor die Evolutionstheorie bestätigen, ein anderer sich dagegen vom Darwinismus verabschieden möchte. Doch so weit liegen die beiden Streithähne Joachim Bauer und Sean B. Carroll gar nicht auseinander, sagt »spektrumdirekt«-Rezensent Andreas Jahn
www.spektrumdirekt.de/artikel/980308
ob. links: B. Knutson et al., JNeuroSci 2005, Vol.25, No.19; ob. rechts: M. Beauregard et al., JNeuroSci 2001, Vol.21, No.18; u. links: J.C. Britton et al., Neuroimage 2006, Vol.31, No.1; U. rechts: B. Knutson et al., Neuroreport 2008, Vol.19, No.5
Für Abonnenten »Warum das Gehirn kein Schweizer Taschenmesser ist« www.spektrum-plus.de
Für Abonnenten Ihr monatlicher Plus-Artikel zum Download
»Warum das Gehirn kein Schweizer Taschenmesser ist«
Alle Publikationen unseres Verlags sind im Handel, im Internet oder direkt über den Verlag erhältlich www.spektrum.com
[email protected] Telefon 06221 9126-743
Freigeschaltet
Ausgewählte Artikel aus Gehirn&Geist und Sterne und Weltraum kostenlos online lesen
»Psychologie des Erfolgs«
Bunte Bilder aus dem Hirnscanner sind heute allgegenwärtig. Doch die leuchtenden Farben verleiten dazu, sich stark vereinfachte, oft sogar irreführende Vorstellungen von der Arbeitsweise des Gehirns zu machen
Begabung, das familiäre Umfeld – oder einfach nur Glück? Was manche Menschen erfolgreicher macht als andere, erforschen Psychologen. Eine ihrer wichtigsten Erkenntnisse: Mit Intelligenz kommt man zwar weit, mit Durchhaltevermögen aber noch weiter
Dieser Artikel ist für Abonnenten frei zugänglich unter
Diesen Artikel finden Sie als KOSTENLOSE Leseprobe von Gehirn&Geist unter
www.gehirn-und-geist.de/artikel/978573
www.spektrum-plus.de
FReigeschaltet »Sternentstehung mit höchster Effizienz« www.astronomie-heute.de/artikel/980529
»Sternentstehung mit höchster Effizienz« Überraschenderweise entstehen im Quasar J1148+5251 jährlich Sterne mit einer Gesamtmasse von über 1000 Sonnenmassen – 1000-mal mehr als in unserer Milchstraße Diesen Artikel finden Sie als kostenlose Leseprobe von Sterne und Weltraum unter
www.astronomie-heute.de/artikel/980529
Die Wissenschaftsblogs
Dünger für die Weltmeere? Bringt man gelöstes Eisen in den Ozeanen aus, verhilft es Algen zur Blüte, wodurch wiederum der Atmosphäre Kohlendioxid entzogen wird. Ein Rezept gegen den Klimawandel? Um ein entsprechendes Experiment namens LOHAFEX im Süd pazifik wurde kürzlich heftig gestritten (siehe »Wer A sagt, muss auch B sagen«, www.spektrum.de/artikel/980243). Exklusiv versorgen die wissenslogs Sie nun mit weiteren Informationen: Hier finden Sie den Blog der Forscher auf der Polarstern – jenem Forschungsschiff, von dem aus das Experiment nun tatsächlich durchgeführt wird. Lesen Sie mit, diskutieren Sie mit – online unter www.wissenslogs.de
www.scilogs.de
leserbriefe Aufstand: Hughes Léglise-Bataille; Enten: InTheSunStudio, Charro Badger
Vergleich der freien Weglänge energie reicher Partikel wird der Wert von 50 Megaparsec genannt und mit dem Durchmesser unserer Milchstraße ver glichen. Deren Ausdehnung beträgt aber nicht 30 Megaparsec, wie im Artikel genannt, sondern nur 30 Kiloparsec – also ein Tausendstel des angebenen Werts. Die freie Weglänge ist damit sogar 1700mal größer als der Milchstraßendurchmesser und nicht nur 1,7-mal. Dr. Michael König, Rimbach-Zotzenbach
So einfach ist die Physik nicht Die Fälschung erkennt man schon beim Vergleich der Schatten bei Menschen und Enten.
Durch genaues Hinsehen Fälschung erkennen Wie entlarvt man gefälschte Digitalfotos? Januar 2009 Die beiden Fotos auf S. 91 und S. 92 lassen sich auch ohne computergestützte Analyse leicht als Fälschung nachweisen. So hängt auf dem Foto von Jan Ullrich das Haar der »Begleiterin« nahezu senkrecht herunter. Bei einem echten Foto müsste das Haar
Almadraba – eine nachhaltige Fischfangmethode Fischfarmen zur Rettung von Tunfischen? Dezember 2008 Die beiden Abbildungen auf S. 73 beziehungsweise deren Untertitel passen leider nicht ganz in den Kontext. Auf den beiden Fotos der »Fischereiflotte vor Südspanien« ist die traditionelle Fangmethode der ›Almadraba‹ zu sehen. Bei dieser jahrtausendealten phönizischen Fangmethode werden im Frühsommer und Herbst weitmaschige Stellnetze vor der Küste Andalusiens installiert. Große Tunfische verirren sich im Labyrinth des Stellnetzes und werden schließlich wie auf den beiden Abbildungen zu sehen aus dem Kopf des Netzes (aus dem Copo) herausgehoben. Auch wenn dieser Vorgang archaisch anmutet, so handelt es sich bei der Al8
wegen der Bewegung aber deutlich im Fahrtwind flattern. Und auf dem Foto von S. 92 sieht man auf dem Hals der hintersten Ente deutlich erkennbar den Schatten des Schabels. Die Menschen auf dem Foto werfen hingegen keinen beziehungweise nur einen sehr diffusen Schatten. Da kein Beleuchtungswechsel (zum Beispiel »Schattenrand«) erkennbar ist, muss es sich ebenfalls um eine Fälschung handeln. Jörg Michael, Hannover
madraba doch um eine bestandsschonende und nachhaltige Fangmethode, da durch die große Maschenweite und die Position der Netze wenig Beifang generiert wird und nur adulte Tiere über 70 Kilogramm dem Meer entnommen werden. Vielmehr befindet sich die Almadraba-Fischerei selbst in einer Krise, da es in den letzten Jahren (wie in Ihrem Artikel geschildert) immer weniger adulte Tunfische gibt. Nik Völker, Düsseldorf
Überdimensionierte Milchstraße Wie kosmische Strahlung ausgebremst wird Forschung aktuell, Februar 2009 Mit großem Interesse habe ich diesen Artikel gelesen. Leider enthält der gelungene Beitrag aber einen Fehler: Beim
Lesen im Kaffeefleck, Januar 2009 Die Erklärungen sind leider unvollständig und in einigen Teilen falsch. So stehen bei Kontakt einer Flüssigkeit mit einem Festkörper am Rand drei (und nicht zwei) Phasen miteinander im Gleichgewicht (Flüssigkeit, Festkörper, Gasphase), daher sind auch drei Grenzflächenspannungen zu berücksichtigen (Young-Gleichung) und nicht nur zwei »Grenzflächenenergien«. Weitere Überlegungen ergeben, dass der Rand im Kaffeefleck die Folge eines kinetischen Effekts und keineswegs ein Gleichgewichts phänomen ist. Prof. Dr. Michael Bredol, Münster
Antwort des Autors: Ich habe die von Ihnen angesprochenen Aspekte bewusst weggelassen. In dem Bemühen, ein alltägliches, aber physikalisch anspruchsvolles Problem auf begrenztem Raum so zu beschreiben, dass es für gebildete Laien lesbar und verständlich bleibt, habe ich mich nach reiflicher Überlegung für diese vereinfachte Darstellung entschieden. Oberstes Prinzip ist dabei die »Anschlussfähigkeit« der Erklärung, so dass die Adressaten bei zunehmendem physikalischem Hintergrundwissen auf dieser Erklärung aufbauen können, ohne umzulernen. Für Leser mit Spezialkenntnissen habe ich auf eine Fachpublikation verwiesen. Die Alternative darf meines Erachtens nicht sein, auf eine Beschreibung des Phänomens für Laien zu verzichten. Prof. Dr. H. Joachim Schlichting
(Den vollständigen Brief und die Antwort darauf finden Sie unter www. spektrum.de/artikel/980249.) SPEKTRUM DER WISSENSCHAFT · März 2009
… sind willkommen! Tragen Sie Ihren Leserbrief in das Online-Formular beim jeweiligen Artikel ein (klicken Sie unter www.spektrum.de auf »Aktuelles Heft« beziehungsweise »Heftarchiv« und dann auf den Artikel). Oder schreiben Sie mit kompletter Adresse an: Spektrum der Wissenschaft Frau Ursula Wessels Postfach 10 48 40 69038 Heidelberg (Deutschland) E-Mail:
[email protected]
Dämpfung aus Regelkreis eliminiert Wanted: Theorie für wilde Märkte Springers Einwürfe, Januar 2009 Der Autor weist in seinem Einwurf völlig zu Recht darauf hin, dass die Ökonomie nur begrenzt als Wissenschaft akzeptiert werden kann, da die verschiedenen Zweige dieser Lehre keine konsistenten Modelle der Realwelt liefern können. Alle Märkte sind kybernetische Netzwerke und unterliegen damit auch den fundamentalen Gesetzmäßigkeiten der Kybernetik und der Physik. Die Antriebs energie für alle Märkte erwächst aus Potenzialunterschieden, und alle Märkte bestehen aus rückgekoppelten Regelkreisen. Nun hat die Globalisierung massive Ver-
Chefredakteur: Dr. habil. Reinhard Breuer (v.i.S.d.P.) Stellvertretende Chefredakteure: Dr. Inge Hoefer (Sonderhefte), Dr. Gerhard Trageser Redaktion: Thilo Körkel (Online Coordinator), Dr. Klaus-Dieter Linsmeier, Dr. Christoph Pöppe, Dr. Adelheid Stahnke; E-Mail:
[email protected] Ständiger Mitarbeiter: Dr. Michael Springer Schlussredaktion: Christina Meyberg (Ltg.), Sigrid Spies, Katharina Werle Bildredaktion: Alice Krüßmann (Ltg.), Anke Lingg, Gabriela Rabe Art Direction: Karsten Kramarczik Layout: Sibylle Franz, Oliver Gabriel, Marc Grove, Anke Heinzelmann, Claus Schäfer, Natalie Schäfer Redaktionsassistenz: Eva Kahlmann, Ursula Wessels Redaktionsanschrift: Postfach 10 48 40, 69038 Heidelberg, Tel. 06221 9126-711, Fax 06221 9126-729 Verlag: Spektrum der Wissenschaft Verlagsgesellschaft mbH, Postfach 10 48 40, 69038 Heidelberg; Hausanschrift: Slevogtstraße 3–5, 69126 Heidelberg, Tel. 06221 9126-600, Fax 06221 9126-751; Amtsgericht Mannheim, HRB 338114 Verlagsleiter: Dr. Carsten Könneker, Richard Zinken (Online) Geschäftsleitung: Markus Bossle, Thomas Bleck Herstellung: Natalie Schäfer, Tel. 06221 9126-733 Marketing: Annette Baumbusch (Ltg.), Tel. 06221 9126-741, E-Mail:
[email protected] Einzelverkauf: Anke Walter (Ltg.), Tel. 06221 9126-744 Übersetzer: An diesem Heft wirkten mit: Dr. Markus Fischer, Dr. Rainer Kayser, Dr. Susanne Lipps, Dr. Andrea Pastor-Zacharias, Claus-Peter Sesín, Dr. Michael Springer. Leser- und Bestellservice: Tel. 06221 9126-743, E-Mail:
[email protected]
Korrigenda Missverständnisse um Darwin Februar 2009 Thomas Henry Huxley lebte natürlich nicht bis 1995, sondern von 1825 bis 1895. Elliptische Kurven und eine kühne Vermutung, Januar 2009 Bei der elliptischen Kurve y 2 = x 3–2 über den rationalen Zahlen (Bild S. 66) ist die Folge der Vielfachen des Punkts P falsch angegeben worden. Richtig ist P = (1, 2), P P = (2, 1), 3P = P P P = (3, 0), 4P = (2, 4), 5P = (1, 3), 6P = ∞. Roman Koutny aus Gars hat uns auf den Fehler aufmerksam gemacht. Nachfolgend die korrigierte Version. 4 3 ∞ 2 1 y= 0 x=0
1
2
3
4
Dr. Ulrich Grob, Hamm am Rhein
Vertrieb und Abonnementverwaltung: Spektrum der Wissenschaft Verlagsgesellschaft mbH, c/o ZENIT Pressevertrieb GmbH, Postfach 81 06 80, 70523 Stuttgart, Tel. 0711 7252-192, Fax 0711 7252-366, E-Mail:
[email protected], Vertretungsberechtigter: Uwe Bronn Bezugspreise: Einzelheft € 7,40/sFr. 14,00; im Abonnement € 79,20 für 12 Hefte; für Studenten (gegen Studiennachweis) € 66,60. Die Preise beinhalten € 7,20 Versandkosten. Bei Versand ins Ausland fallen € 7,20 Portomehrkosten an. Zahlung sofort nach Rechungserhalt. Konto: Postbank Stuttgart 22 706 708 (BLZ 600 100 70). Die Mitglieder des Verbands Biologie, Biowissenschaften und Biomedizin in Deutschland (VBio) und von Mensa e. V. erhalten SdW zum Vorzugspreis. Anzeigen: iq media marketing gmbh, Verlagsgruppe Handelsblatt GmbH; Bereichsleitung Anzeigen: Harald Wahls; Anzeigenleitung: Jürgen Ochs, Tel. 0211 6188-358, Fax 0211 6188-400; verantwortlich für Anzeigen: Ute Wellmann, Postfach 102663, 40017 Düsseldorf, Tel. 0211 887-2481, Fax 0211 887-2686 Anzeigenvertretung: Berlin: Michael Seidel, Goethestraße 85, 10623 Berlin, Tel. 030 526821-841, Fax 030 7526821-828; Hamburg: Matthias Meißner, Brandstwiete 1 / 6. OG, 20457 Hamburg, Tel. 040 30183-210, Fax 040 30183-283; Düsseldorf: Hans-Joachim Beier, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2053, Fax 0211 887-2099; Frankfurt: Axel Ude-Wagner, Eschersheimer Landstraße 50, 60322 Frankfurt am Main, Tel. 069 2424-4507, Fax 069 2424-4555; Stuttgart: Andreas Vester, Werastraße 23, 70182 Stuttgart, Tel. 0711 22475-21, Fax 0711 22475-49; München: Bernd Picker, Josephspitalstraße 15/IV, 80331 München, Tel. 089 545907-18, Fax 089 545907-24 Druckunterlagen an: iq media marketing gmbh, Vermerk: Spektrum der Wissenschaft, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2387, Fax 0211 887-2686 Anzeigenpreise: Gültig ist die Preisliste Nr. 30 vom 01. 01. 2009. Gesamtherstellung: Vogel Druck- und Medienservice GmbH & Co. KG, 97204 Höchberg
Sämtliche Nutzungsrechte an dem vorliegenden Werk liegen bei der Spektrum der Wissenschaft Verlagsgesellschaft mbH. Jegliche Nutzung des Werks, insbesondere die Vervielfältigung, Verbreitung, öffentliche Wiedergabe oder öffentliche Zugänglichmachung, ist ohne die vorherige schriftliche Einwilligung des Verlags unzulässig. Jegliche unautorisierte Nutzung des Werks berechtigt den Verlag zum Schadensersatz gegen den oder die jeweiligen Nutzer. Bei jeder autorisierten (oder gesetzlich gestatteten) Nutzung des Werks ist die folgende Quellenangabe an branchenüblicher Stelle vorzunehmen: © 2009 (Autor), Spektrum der Wissenschaft Verlagsgesellschaft mbH, Heidelberg. Jegliche Nutzung ohne die Quellenangabe in der vorstehenden Form berechtigt die Spektrum der Wissenschaft Verlagsgesellschaft mbH zum Schadensersatz gegen den oder die jeweiligen Nutzer. Wir haben uns bemüht, sämtliche Rechteinhaber von Abbildungen zu ermitteln. Sollte dem Verlag gegenüber der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar nachträglich gezahlt. Für unaufgefordert eingesandte Manuskripte und Bücher übernimmt die Redaktion keine Haftung; sie behält sich vor, Leserbriefe zu kürzen. ISSN 0170-2971 SCIENTIFIC AMERICAN 415 Madison Avenue, New York, NY 10017-1111 Editor in Chief: John Rennie, Chairperson: Annette Thompson, President: Steven Yee, Vice President: Frances Newburg, International Managing Director: Kevin Hause, Vice President, Finance and General Manager: Michael Florek, Managing Director, Consumer Marketing: Christian Dorbandt, Vice President and Publisher: Bruce Brandfon
Erhältlich im Zeitschriften- und Bahnhofs buchhandel und beim Pressefachhändler mit diesem Zeichen.
Christoph Pöppe
änderungen in allen Marktsystemen bewirkt. Alle Marktteilnehmer haben einen wesentlichen Hemmschuh des (kurzfris tigen) Wachstums aus allen Systemen eliminiert: die zeitliche Verzögerung. Sie ist in den Märkten ein wesentliches Dämpfungselement. Wenn man nun aus einem Regelkreis die Dämpfung fast vollständig eliminiert, so wird sehr wahrscheinlich das System anfangen, über das normale Maß hinaus zu schwingen. Dieser fundamentale Eingriff in das Regelkreissystem Weltwirtschaft lässt für mich nun einige Schlüsse zu. Ohne korrigierende Eingriffe erwarte ich eine relativ zügige Aufwärtsbewegung der Kurse, und zwar über den bisherigen Höchststand hinaus. Diese Hochphase wird aber nicht mehr so lange wie die letzte Boomphase andauern, nur um abrupt und verstärkt in eine weitere Abwärtsphase zu münden. Ich denke, dass man dem System in irgendeiner Weise wieder mehr Dämpfung zufügen muss. Es hat nicht notwendigerweise die zeitliche Verzögerung zu sein. Die leicht hektischen und unkoordinierten Bemühungen der verschiedenen Staaten haben kybernetisch eine ähnliche Wirkung. Neue Spielregeln (von staatlicher Stelle herausgegeben) erfordern eine Anpassung an die veränderten Bedingungen und wirken dämpfend. Es täte der Ökonomie gut, sich intensiv mit dem Regelverhalten komplexer Systeme auseinanderzusetzen.
Briefe an die Redaktion …
Spektrogramm Medizin
q Mitunter genügen wenige Zellen, um ein Herzkranzgefäß zu verengen und schlimmstenfalls einen Infarkt auszulösen. Ein chirurgischer Eingriff in solch kleinenDimensionen erfordert Greifinstrumente im Mikrometermaßstab. Die gibt es, aber sie müssen bislang über Kabel mit Strom versorgt und aktiviert werden; zudem sind sie schlecht manövrierbar. Einem Team um David Gracias von der Johns Hopkins University in Baltimore (Maryland) ist nun ein entscheidender Fortschritt gelungen: Ihre 700 Mikrometer messenden Greifer sind kabellos und, weil sie eine metallische Legierung enthalten, magnetisch durch den Körper lenkbar. Per
David H. Gracias, Johns Hopkins University
Chirurgische Mikrohände Magnetresonanztomografie lassen sich überdies Weg und räumliche Orientierung exakt verfolgen. Die Metallarme sind vorgespannt und werden nur durch einen Kunststoffüberzug im gestreckten Zustand gehalten. Dieser kann durch lokale Temperaturerhöhung auf über 40 Grad Celsius oder durch Zugabe von Chemikalien aufgelöst werden. Daraufhin biegen sich die metallischen Finger nach innen: Der Greifer schließt sich um das benachbarte Gewebe und packt es (Bild). Auf diese Weise gelang den Forschern bereits die Biopsie eines Zellhaufens aus dem Gewebe einer Rinderblase. Problematisch sei bislang nur, dass biochemische
Fluoreszenzmikroskopische Aufnahme eines gerade durch eine Chemikalie aktivierten Mikrogreifers, der einen Zellhaufen packt (hier grün eingefärbt)
Signale im Körper den Greifreflex fälschlich auslösen können, erklärt Gracias. Man arbeite daher an spezifischeren Polymer überzügen.
PNAS, Bd. 106, S. 703
WErkstoffe
Auch Bienen können bis drei zählen
Biegsame trans parente Elektroden
Biene beim Zähltest. Die Tiere lernten schnell, an der Menge der Objekte auf dem Brett zu erkennen, ob sich dahinter das Zu ckerwasser befand.
q Menschen können Mengen von bis zu vier Gegenständen auf einen Blick erfassen. Schon 1871 bewies das der englische Ökonom William S. Jevons mit Hilfe einer Schachtel Bohnen. Größere Mengen erfordern dagegen exaktes Abzählen. Einen Blick für die genaue Zahl von einer Hand voll Objekten demonstrierten in späteren Versuchen auch Affen, Tauben und andere Wirbeltiere.
10
Aber wie steht es mit Insekten? Honigbienen zum Beispiel? Das fragten sich kürzlich Forscher um Jürgen Tautz vom Biozentrum der Universität Würzburg. Für Bohnen haben Bienen natürlich nichts übrig, wohl aber für ein Schälchen mit süßem Zuckerwasser. Dieses postierten die Wissenschaftler hinter einem von zwei Brettern mit je einem Loch, durch das die Insekten fliegen konnten. Hinter welchem sich die Belohnung verbarg, war in der Anzahl der auf dem Holz abgebildeten Objekte kodiert. So hatten die Bienen im ersten Versuch bald heraus, dass sich das Zuckerwasser immer hinter dem Brett mit den zwei Gegenständen befand – gleich ob es sich dabei um rote Äpfel oder gelbe Punkte handelte. Das Experiment funktionierte auch mit drei oder vier aufgemalten Objekten. Waren es mehr, scheiterten die Bienen jedoch. Offensichtlich konnten sie die Mengen nicht mehr auseinanderhalten, und zum Zählen fehlen ihnen nun einmal die Finger. Und was haben die Bienen von ihrem intuitiven Zahlensinn? Die Würzburger Biologen vermuten, dass sie so zum Beispiel schnell abschätzen können, wie viele Blüten an einem Zweig oder andere Bienen auf einer Blüte sitzen. Damit wissen sie sofort, ob sie landen oder besser durchstarten sollten.
q Bislang ist Silizium das Material der Wahl für die meisten Produkte der Halb leiterindustrie, doch nun erwächst ihm vielleicht bald Konkurrenz durch einen erst vor wenigen Jahren entdeckten Stoff: Graphen. Es besteht aus einer einzelnen Schicht wabenartig angeordneter Kohlenstoffatome. Innerhalb der Flächen ist es außerordentlich steif und rissfest, nach vorne und hinten lässt es sich dagegen leicht biegen. Überdies zeichnet sich das neuartige Material durch außergewöhnliche elektrische Eigenschaften aus. Da die einzelnen Kohlenstoffschichten bisher
Eine durchsichtige Silikonfolie mit aufge brachtem Graphenmuster bildet einen trans parenten Elektronikbaustein, der sich elas tisch verbiegen lässt. Ji Hye Hong
Mario Pahl, BEEgroup der Universität Würzburg
Insekten
PLoSOne, Bd. 4, e4263
SPEKTRUM DER WISSENSCHAFT · März 2009
astrophysik
Entstehung übergewichtiger Sterne q Sterne mit mehr als der 20-fachen Sonnenmasse leuchten so hell, dass der Strahlungsdruck auf das umgebende Gas ihre Anziehungskraft übersteigt. Dadurch sollten sie kein Material mehr aufnehmen und nicht weiter wachsen können. Doch wie man aus Beobachtungen weiß, schaffen es manche Sterne aus bislang rätselhaften Gründen, mindestens die 120-fache Masse der Sonne zu erreichen. Mark Krumholz von der University of California in Santa Cruz und Kollegen konnten jetzt in einer drei dimensionalen Simulation das Rätsel lösen. Demnach kommt es bei der Wechselwirkung zwischen Gravi tation und Strahlungsdruck zu Instabilitäten, die ein praktisch unbegrenztes Wachstum erlauben. Eine Rolle spielt dabei insbesondere die Rayleigh-TaylorInstabilität, die an der Grenzfläche zweier flüssiger oder gasförmiger Substanzen unterschiedlicher Dichte auftreten kann. Wenn die schwerere über der leichteren liegt, dringen beide fingerartig ineinander ein. Analog wird das Material um den Stern nicht gleichmäßig davongetrieben. Vielmehr tun sich durch Verwirbelung Kanäle auf, durch die Gas, der Schwerkraft folgend, lokal nach innen strömen kann. So erhält der Stern Nachschub und wächst weiter. Science, Online-Vorabveröffentlichung
mühselig vom Graphit abgespalten wurden, lag die Ausdehnung der Plättchen allerdings nur im Mikrometerbereich. Mittels chemischer Gasphasenabscheidung ist Byung Hee Hong von der Sung kyunkwan University in Korea zusammen mit Kollegen bei den Abmessungen nun ein gewaltiger Sprung gelungen: Die Forscher erzeugten bis zu vier Quadratzentimeter große Graphenfilme. Dazu leiteten sie eine gasförmige Mischung von Kohlenwasserstoffen über eine erhitzte Nickelfolie. Auf ihr schieden sich einzelne Kohlenstoffatome ab und vereinigten sich zur wabenartigen Graphenstruktur. Durch rasches Abkühlen erhielten Hong und seine Kollegen schließlich einen ultradünnen, flexiblen und transparenten Film, von dem sich das Nickel leicht wegätzen ließ. Auf andere Trägermaterialien übertragen, könnten solche Filme nach Meinung der Forscher als Elektroden für Solarzellen oder Displays dienen.
Nature, Online-Vorabveröffentlichung
SPEKTRUM DER WISSENSCHAFT · März 2009
Dieser Schnappschuss der Entstehung eines massereichen Sterns in einer dreidi mensionalen Computersimulation zeigt die verwirbelte Struktur des umgebenden Gases auf Grund der Wechselwirkung zwischen Strahlungsdruck und Gravitation.
NEUROPSYCHOLOGIE
Halluzinogener Kaffee q Eine heiße Tasse Kaffee am Morgen bringt so manchen überhaupt erst in Schwung. Dass man es mit dem anregenden Getränk aber nicht übertreiben sollte, mahnt eine englische Studie: Demnach verdreifacht sich bei sieben Tassen am Tag die Wahrscheinlichkeit, Stimmen von Menschen zu hören oder Objekte zu sehen, die gar nicht da sind. Diesem Zusammenhang kamen Simon Jones von der Durham University und seine Kollegen auf die Spur, als sie 200 Studenten zu ihrem täglichen Konsum von Kaffee, Tee, Schokolade oder Koffeintabletten befragten. Anschließend sollten die Probanden Angaben über halluzinatorische Erlebnisse machen. Dabei zeigte sich eine klare Korrelation: Wer viel Koffein zu sich nahm, hatte öfter Sinnestäuschungen. Jones bietet auch eine mögliche Erklä rung, warum Koffein Halluzinationen fördert. Die Droge steigert das Stressniveau.
Ernst Rose / PIXELIO
Mark Krumholz UCSC / Science AAAS
Problematisches Anregungsmittel
Als Folge davon schüttet die Nebennierenrinde das Steroidhormon Cortisol aus. Dieses wiederum beeinflusst über den Fettstoffwechsel die Wirkung von Adrenalin – ein Hormon, das für seine psychischen Nebenwirkungen wie Ruhelosigkeit, Nervosität oder Angst bis hin zu psychotischen Reaktionen bekannt ist. Charles Fernyhough, ein Kollege von Jones, hält die Studie allerdings nicht für wirklich beweiskräftig. Seiner Ansicht nach könnten Studenten mit einer bereits vorhandenen Anlage zu Halluzinationen einfach mehr Koffein zu sich nehmen – beispielsweise, um die durchaus Angst einflößenden psychischen Phänomene besser zu ertragen. Personality and Individual Differences, Bd. 46, S. 562
11
q Ein aus fünf Quarks bestehendes Teilchen namens N* meinen Maxim Polyakov von der Universität Bochum und Viatcheslav Kuznetsov von der Universität Kyungpook in Daegu (Südkorea) jetzt in Daten des Bonner Elektronenbeschleunigers ELSA entdeckt zu haben. N* erscheint als so genannte Resonanz nach Photonenbeschuss von Kernteilchen bei 1685 Megaelektronenvolt und existiert zehnmal länger als alle bekannten Anregungszustände, die bei anderen Energien auftreten. Ferner lässt sich über die Zerfallsprodukte des Teilchens sein Aufbau aus fünf Quarks erschließen. Laut Polyakov entstehen solche Pentaquarks, wenn Photonen ein virtuelles Quark-AntiquarkPaar des Vakuums in ein reales Paar
umwandeln, das sich anschließend mit jenen drei Quarks vereinigt, aus denen das Kernteilchen besteht. Sollte das N* mehr als ein statistisches Artefakt sein, stützt es die Theorie der Quantenchromodynamik. Demnach verdankt ein Kernteilchen seine Eigenschaften auch den umgebenden virtuellen Quarks und nicht nur den drei realen, aus denen es aufgebaut ist. Seit der 1997 von Polyakov und Kollegen veröffentlichten Vorhersage der Pentaquarks sind Physiker weltweit auf der Suche danach. Schon 2003 gab es indirekte Hinweise auf ein Theta-Teilchen genanntes Exemplar, die sich aber nicht erhärten ließen. ELSA habe bisherige Experimente – etwa der europäischen Kollaboration
Amtseinführung aus dem All
Trotz stürmisch-kalten Wetters strömten am 20. Januar mehr als eine Million Menschen in Washington zusammen, um die Vereidigung Barack Obamas zum 44. Präsidenten der USA mitzuerleben. Der kommerzielle Satellit GeoEye-1 schoss dieses hoch aufgelös te Foto der enormen Menschenmassen aus 681 Kilometer Höhe. Der Blick fällt auf die
Spektrum der Wissenschaft
Mitarbeit: S. Czaja, V. Spillner und M. Ruhenstroth
Experimenteller Beleg für Pentaquark
GeoEye
Spektrogramm
Teilchenphysik
Das nun vermutlich gefundene exotische Teilchen namens N* setzt sich aus je zwei up- und down-Quarks sowie einem anti down-Quark zusammen.
GRAAL – verfeinert und erweitert, sagt Polyakov. Auch wenn die jetzigen Daten mit einer Signifikanz von drei Standardabweichungen noch nicht als endgültiger Beweis ausreichten, halte er sie für überzeugend.
Pressemitteilung der Universität Bochum
Biomechanik
Feingefühl dank Fingerrillen de Physique Statistique in Paris und Kollegen wollten diesen Vorgang nun genauer ergründen. Dazu machten sie Versuche mit einer künstlichen Fingerspitze, bestehend aus einem mechanischen Sensor mit einer elastischen Gummikappe. Damit registrierten die Forscher die Frequenzspektren der Vibrationen, die Julien Scheibert, CNRS-ENS Paris / Science, AAAS
q Das Rillenmuster in unseren Finger kuppen sorgt für einen eindeutigen Fingerabdruck. Aber das kann nicht sein biologischer Zweck sein. Bisher dachte man, die Leisten und Rillen auf der Fingerbeere seien zum besseren Festhalten von Objekten da. Das ist aber, wie sich nun zeigte, längst nicht alles. Die geriffelten Fingerkuppen helfen uns auch, die Feinstruktur von Oberflächen genauer zu ertasten. Unebenheiten im Abstand von weniger als 0,2 Millimetern auf einer Unterlage erkennen Menschen mit einem speziellen Mechanorezeptor, dem Vater-Pacini-Körperchen. Er registriert Vibrationen in der Haut, die entstehen, wenn die Fingerspitzen über eine fein strukturierte Oberfläche gleiten. Julien Scheibert vom Laboratoire
beim Gleiten über eine fein strukturierte Oberfläche entstehen. Bei glatter Gummikappe ergab sich eine breite, unspezifische Kurve. War die künstliche Fingerspitze jedoch gerillt, dominierte im Spektrum eine bestimmte Frequenz. Diese hing vom Abstand der Rillen und von der Gleitgeschwindigkeit ab. Menschen streichen gewöhnlich mit 10 bis 15 Zentimetern pro Sekunde über eine Oberfläche, und die Papillarleisten auf dem Finger liegen etwa einen halben Millimeter auseinander. Daraus ergibt sich eine Vibrationsfrequenz von 200 bis 300 Hertz. Das entspricht genau dem Wert von 250 Hertz, auf den das Pacini-Körperchen am stärksten anspricht.
Science, Online-Vorabveröffentlichung
Die Rillen auf der Oberfläche des mensch lichen Fingers ergeben nicht nur den charak teristischen Fingerabdruck, sondern unter stützen auch den Tastsinn.
bild des monats
National Mall zwischen dem Kapitol (rechts) und dem Obelisken des Washington Monument (links). Was aussieht wie riesige Insektenschwärme oder Ameisenhaufen, sind dichte Menschentrauben. Sie sammelten sich an den Stufen des Kapitols, auf denen die Amtseinführung stattfand, und vor diversen Großbildschirmen, die das Ereignis übertrugen.
FORSCHUNG AKTUELL Quantenphysik
Bose-Einstein-Kondensat mit Swing Forscher an der ETH Zürich haben ein Bose-Einstein Kondensat in einer Spiegelkammer an elektromagnetische Felder angekoppelt und dabei eine neue Spielwiese im Grenzbereich zwischen klassischer Physik und Quantenmechanik eröffnet. Von Stefan Maier
A
uch wer den Physikunterricht in der Schule in schlechter Erinnerung hat, denkt doch vielleicht gern an Versuche über mechanische Schwingungen zurück. An Federn aufgehängte Massen oder oszillierende Pendel ergeben eindrucksvolle Effekte, und auch die mathematische Beschreibung ist nicht so schwer, solange die Auslenkungen klein genug bleiben. Da solche harmonischen Schwingungen in vielen Zusammenhängen auftauchen – von Wasserwellen bis zur Stromverteilung in der Radioantenne –, kann man hier mit wenig Grundwissen eine Menge Physik verstehen. Die Forschergruppe von Tilman Esslinger am Institut für Quantenelektronik der Eidgenössischen Technischen Hochschule Zürich hat nun ein besonders schönes Experiment über mechanische Oszillationen im Grenzbereich zwischen klassischer Physik und Quantenmechanik veröffentlicht (Science, Bd. 322, S. 235). Dabei lässt der Strahlungsdruck eines Lasers in einer Spiegelkammer ein quantenmechanisches Objekt schwingen. Und als Folge davon wird das Licht periodisch reflektiert oder durchgelassen. Wechselwirkungen zwischen Strahlung und mechanischen Systemen machen sich viele Geräte zu Nutze, angefangen von CD-Spielern, die per Laser feinste Vertiefungen in der Platte abtasten, bis zu Detektoren für Gravitationswellen, die auf optischem Weg winzige Abstandsänderungen zweier Spiegel messen. Noch um einiges interessanter wird es, wenn der Strahlungsdruck der Photonen ausreicht, das Objekt, auf das er trifft, in Bewegung zu setzen. Das bekannteste Beispiel dafür sind wohl optische Pinzetten. Dabei werden mikroskopisch kleine Gegenstände im Brennpunkt eines Laserstrahls festgehalten und lassen sich so etwa durch eine Flüssigkeit bewegen. Auch die Laserkühlverfahren zur Herstellung ultrakalter Gaswolken 14
beruhen auf dem Impulsübertrag zwischen Photonen und Atomen. Die Physik der Wechselwirkung zwischen Lichtwellen und mechanischen Schwingungen lässt sich in einem einfachen Versuch mit zwei Spiegeln veranschaulichen, die parallel zueinander aufgehängt sind. Zwischen ihnen kann nun ein Lichtstrahl hin- und herreflektiert werden – im Idealfall beliebig oft. Allerdings funktioniert das nur für Licht, dessen Wellenlänge ein ganzzahliger Teiler des doppelten Spiegelabstands ist. Anderenfalls würde sich der Strahl, dessen Wellenzüge sich beim Hin- und Herlaufen überlagern, nach mehrfachen Reflexionen selbst auslöschen.
Spieglein an der Wand
In der Fachwelt spricht man von einem eindimensionalen Hohlraumresonator und optischen Moden, die sich darin ausbilden. Sind die Spiegel halb durchlässig, kann ein Lichtstrahl an einer Seite eingespeist und an der anderen ausgekoppelt werden. Dabei wirkt der Resonator wie ein Filter, den nur Lichtstrahlen, deren Wellenlängen den Moden entsprechen, durchqueren können; alle anderen werden erst gar nicht eingelassen, sondern gleich reflektiert. Und wie kommt eine mechanische Schwingung ins Spiel? Ganz einfach: Man muss nur einen der beiden Spiegel an einer Feder befestigen. Wird der Lichtstrahl an diesem Spiegel reflektiert, übt er einen Strahlungsdruck auf ihn aus und verschiebt ihn ein kleines Stückchen. Im Wechselspiel mit der rück treibenden Kraft der Feder kommt es so zu mechanischen Schwingungen. Ahnen Sie schon, was nun passiert? Richtig: Da die Schwingungen den Abstand zwischen den Spiegeln und somit die Länge des Hohlraumresonators periodisch modulieren, ändern sich die Wellenlängen der erlaubten Moden. Infolgedessen wird der Strahl abwechselnd durchgelassen oder reflektiert, und am Ausgangsspiegel
ist ein Blinken im Takt der mechanischen Schwingung zu beobachten. Um diese Rückkopplung noch interessanter zu gestalten, wandelten die Züricher Forscher den Versuch so ab, dass ein Quantenobjekt ins Spiel kam. Zunächst einmal verzichteten sie auf die Feder und brachten die Spiegel starr in einem Abstand von etwa 0,2 Millimetern voneinander an. Zum Erzeugen der mechanischen Schwingung diente ein Gas aus etwa 10 000 Rubidiumatomen, das Esslinger und seine Kollegen in den Hohlraumresonator einführten. Indem sie es bis fast auf den absoluten Nullpunkt der Temperaturskala abkühlten, verwandelten sie es in ein Bose-EinsteinKondensat. Das ist ein Zustand, in dem die Gasatome gewissermaßen zu einem gemeinsamen Quantenobjekt verschmolzen sind. Genau aus diesem Grund lieben Physiker Bose-Einstein-Kondensate – können sie damit doch gewissermaßen Quantenmechanik in makroskopischen Dimensionen treiben. Analog zu obigem Versuch speisten die Forscher einen schwachen Laserstrahl in den Resonator ein. In diesem Fall oszillierten zwar nicht die Spiegel, da sie starr fixiert waren. Aber dafür geriet das BoseEinstein-Kondensat in Schwingungen; denn der Strahlungsdruck der Photonen übertrug auch einen Impuls auf die Gaswolke und versetzte sie dadurch in Bewegung. Weil es sich um ein Bose-Einstein Kondensat handelte, pendelten alle enthaltenen Rubidiumatome im Gleichtakt hin und her. Dadurch begann die Dichte der Wolke rhythmisch zu fluktuieren. Diese Dichteoszillationen führten wiederum dazu, dass der so genannte opti sche Weg zwischen den Spiegeln periodisch kürzer oder länger wurde. Wenn sich ein Lichtstrahl statt im Vakuum in einem materiehaltigen Medium ausbreitet, verringert sich nämlich seine Geschwindigkeit proportional zum Brechungsindex dieses Mediums. Zugleich nimmt seine Wellenlänge ab, während die SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Aktuell
Ein Bose-EinsteinKondensat (bläulich) zwischen zwei halb durchlässigen Spiegeln (grauweiß) kann Licht periodisch durchlassen und blockieren. Vom Laserstrahl (rot) verursachte Dichtefluktuationen ändern die Wellenlänge der im Resonator hin- und herlaufenden Lichtwellen so, dass sie sich abwechselnd auslöschen und verstärken. Tilman Esslinger ETH Zürich
Frequenz, die über Farbe und Energie entscheidet, gleich bleibt. Bei kürzerer Wellenlänge passen aber mehr Wellen züge zwischen die beiden Spiegel. Da der Brechungsindex normalerweise mit der Dichte eines Mediums steigt, haben Dichtefluktuationen also den gleichen Effekt wie ein variierender Spiegelabstand. Entsprechend äußerten sich die Schwingungen des Bose-Einstein-Kondensats in einer periodischen Modula tion der von einem Detektor hinter dem Ausgangsspiegel aufgefangenen Photo nen. Anhand einer genauen mathemati
Biomedizin
schen Analyse der Ergebnisse schafften es die Forscher, ein quantenmechanisches Pendant zur klassischen Beschreibung der Koppelung zwischen mechanischer und optischer Schwingung zu formu lieren. Dabei zeigte sich, dass selbst ganz schwache Laserstrahlen, also sehr wenige Photonen in der Spiegelkammer, die mechanische Schwingung des Bose-Einstein-Kondensats stark beeinflussen – ein Phänomen, das mit klassischer Physik nicht mehr erklärbar ist. Nach diesem Erfolg sind die Forscher zuversichtlich, mit ihrer Versuchsanord-
nung auch das quantenmechanische Gegenstück von komplizierteren klassischen Kopplungen zwischen mechanischen und optischen Schwingungen erforschen zu können, bei denen zum Beispiel nichtlineare Effekte auftreten. Damit verlassen sie zwar den Bereich, in den ihnen Laien mit rudimentären Kenntnissen aus der Schulphysik gerade noch folgen können. Aber der wissenschaftliche Ertrag dürfte umso größer sein. Stefan Maier ist Professor für Physik am Impe rial College in London.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Kelchproteine für den Kampf gegen Krebs Ein kelchartiges Transportprotein aus dem Kohlweißling ist Vorbild für eine neue Klasse von Wirkstoffen. Diese so genannten Anticaline können sich wie Antikörper spezifisch an Zielmoleküle heften und sie gezielt ausschalten. Damit eignen sie sich besonders für die Krebstherapie. Von Thorsten Braun
M
onoklonale Antikörper gelten als viel versprechende Waffe der modernen Medizin. Mit ihrer spezifischen Wirkungsweise erlauben sie, eine Vielzahl von Krebs- und Autoimmunerkrankungen sehr gezielt zu behandeln. So hemmt Bevacizumab – Handelsname: SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Avastin – die Wucherung von Bronchialund Dickdarmkarzinomen, indem er sich an den Wachstumsfaktor VEGF (für englisch vascular endothelial growth factor) heftet und ihn neutralisiert. Dieser Faktor wird von allen soliden Tumoren ins angrenzende Gewebe ausgesendet, sobald sie Stecknadelkopfgröße erreicht haben. Er bewirkt das Aussprossen von
Blutgefäßen in die Geschwulst, so dass die schnell wachsenden Krebszellen mit Sauerstoff und Nährstoffen versorgt werden können. Avastin hat wie alle anderen monoklonalen Antikörper jedoch einige Nachteile. Vor allem kann das Molekül wegen seiner Größe – es besteht aus mehreren Polypeptidketten mit insgesamt 1334 15
FORSCHUNG AKTUELL
Antikörper
gebundenes Protein
Anticalin
gebundenes Protein
Rechts: Durch Variation des Kelchrands kann man Anticaline mit der optimalen Passform für ein bestimmtes Zielmolekül versehen. Die dargestellte Überlagerung dreier unterschiedlich gefärbter Beispielstrukturen vermittelt einen Eindruck von der Variationsbreite.
Arne Skerra, TU München
Aminosäuren – nur sehr schwer in die Zwischenräume von Zellen eindringen. Zudem erfordert seine Produktion in Bioreaktoren den Einsatz von Säugetierzellen, deren Kultivierung verhältnismäßig teuer und aufwändig ist. Diese Nachteile vermeidet ein Wirkstoff, den das bayerische BiotechnologieUnternehmen Pieris aus Freising nun entwickelt hat. PRS-050, so sein Kürzel, fängt ebenfalls VEGF ab, ist aber nur ein Achtel so groß wie Avastin und lässt sich in Bakterien- oder Hefekulturen gentechnisch herstellen. An Tieren wurde er schon erfolgreich erprobt. »Bei krebskranken Mäusen, die unseren Wirkstoff erhielten, wuchsen die Tumoren noch langsamer als bei solchen, die Avastin bekamen«, sagt Arne Skerra. Der Gründer von Pieris und Professor für Biologische Chemie an der Technischen Universität München führt die Überlegenheit von PRS-050 unter anderem darauf zurück, dass das kleine Molekül besser ins Tumorgewebe eindringt. Nach dem Erfolg im Tierversuch sind dieses Jahr erste klinische Tests geplant. PRS-050 besteht aus einer einzelnen Polypeptidkette, in der rund 180 Aminosäuren aneinandergereiht sind. Das maßgeschneiderte Protein gehört zur neuen Klasse der Anticaline, die den in der Natur vorkommenden Lipocalinen nachempfunden wurden. Deren Name setzt sich aus lipos und kalyx zusammen, den griechischen Begriffen für Fett und Kelch. Ihre Polypeptidkette ist nämlich so gefaltet, dass sie einen Kelch bildet. An dessen Rand sitzen vier Peptidschleifen, die ein anderes Molekül umschließen und fest16
Links: Kelchförmige Anticaline können wie Antikörper Proteine spezifisch binden, sind allerdings wesentlich kleiner. Gezeigt sind jeweils Strukturmodelle des Proteinrückgrats mit Faltblatt- (Pfeile) und Helix-Motiven auf der Basis von Röntgenbeugungsdaten. Beim Antigen wurde nicht nur der Verlauf der Aminosäurekette dargestellt, sondern auch die Proteinoberfläche transparent wiedergegeben.
halten können. So binden und transportieren die Kelchproteine im menschlichen Körper wasserunlösliche Vitamine, Hormone und andere fettartige Substanzen. Zum Beispiel versorgt ein Lipocalin den Tränenfilm mit Fettsäuren und Lipiden, während ein anderes, das Retinol bindende Protein, den Transport von Vitamin A im Blut übernimmt.
Eine Bibliothek aus Milliarden von Viren
Als Anticaline bezeichnet Skerra künstlich erzeugte Kelchproteine, die wie Antikörper auf ein bestimmtes Zielmolekül zugeschnitten sind. Allerdings ist es nicht ganz einfach, die jeweils passende Bindungstasche zu kreieren. Als Standardmethode dient das so genannte PhagenDisplay. Eine entscheidende Rolle spielen dabei Bakteriophagen: Viren, die normalerweise Bakterien befallen und sich darin vermehren. Zunächst variiert man das Gen eines natürlichen Lipocalins, indem man in dem Abschnitt, auf dem der Bauplan für die Peptidschleifen steht, mit einem automatisierten Verfahren Kodewörter für Aminosäuren austauscht. So ergeben sich Milliarden von Varianten. Deren Erbsubstanz wird dann jeweils derart in Bakteriophagen eingeführt, dass diese das zugehörige Protein auf ihrer Oberfläche präsentieren. Das Ergebnis ist eine so genannte Phagen-Bibliothek aus Milliarden von Viren – jedes mit dem Erbgut für eine bestimmte Anticalin-Variante, die es auf seiner Oberfläche darbietet. All diese Phagen lassen sich nach Belieben in Bakterien vermehren. Nun muss
man die Bibliothek nur noch mit dem Zielmolekül zusammenbringen, das seinerseits in vielen Kopien auf einem Trägermaterial fixiert ist. Anticaline mit einer passenden Bindungstasche geben sich dann selbst zu erkennen, indem sie samt den zugehörigen Phagen haften bleiben. Die Viren brauchen schließlich nur noch vermehrt und auf ihre Erbsubstanz ana lysiert zu werden. Daraus lässt sich die Abfolge der Aminosäuren in dem passenden Anticalin bestimmen und dieses selbst synthetisieren. Um die Affinität der beiden Bindungspartner zueinander zu erhöhen, verbessert man in zusätzlichen Schritten die Passform des Anticalins noch durch systematische Variation. In den 1990er Jahren wurde die dreidimensionale Struktur der ersten Lipocaline aufgeklärt. »Als ich damals diese Strukturen miteinander verglich, stellte ich fest, dass sie alle ein konserviertes Grundgerüst haben, verbunden mit aufgesetzten Schleifen, die sich von Lipocalin zu Lipocalin unterscheiden«, sagt Skerra über sein Aha-Erlebnis. »Das Aufbauprinzip ist das gleiche wie bei Antikörpern, die ebenfalls aus einem konstanten und einem variablen Teil bestehen.« In den Folgejahren beschäftigte sich das Team des Biochemikers mit der Suche nach Verfahren, die Gestalt von Lipocalinen routinemäßig so abzuwandeln, dass sie vorgegebene Zielmoleküle spezifisch binden. Als Ausgangspunkt diente zunächst ein strukturell besonders gut charakterisiertes Lipocalin, das im Großen Kohlweißling vorkommt und dort den blauen Farbstoff Bilin bindet. Die Schmetterlingsart Pieris SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Arne Skerra, TU München
Aktuell
brassicae war dann auch Namensgeber des Unternehmens, das Skerra 2001 als Ausgründung der Technischen Universität München ins Leben rief. Den Wissenschaftlern bei Pieris ist es mittlerweile gelungen, außer PRS-050 weitere Anticaline als potenzielle Arzneimittel-Kandidaten zu kreieren. Zwei da-
von befinden sich bereits in einem fort geschrittenen Entwicklungsstadium. Das eine, PRS-055, zielt auf die feuchte Makuladegeneration, eine altersbedingte Erkrankung der Augennetzhaut, die allmählich zum Verlust der Sehfähigkeit führt. Das andere, PRS-010, soll das körpereigene Immunsystem beim Kampf gegen
Krebs und Infektionskrankheiten mobilisieren. Es lagert sich dabei an ein Rezeptorprotein an, das auf der Oberfläche von stimulierten T-Lymphozyten präsentiert wird, und hält diese so länger aktiv. Inzwischen erproben die Pieris-Forscher auch Möglichkeiten, den Einsatzbereich der Anticaline zu erweitern. »Wir sind gerade dabei, zwei verschiedene Anticaline miteinander zu verknüpfen«, erklärt Skerra. »Die eine Bindungstasche dieses Duocalins würde die Tumorzelle erkennen, während die andere sich an einen Lymphozyten anlagern könnte.« Bei bispezifischen Antikörpern funktioniert dieses Prinzip bereits. Eine weitere viel versprechende Möglichkeit sieht Skerra darin, Anticaline mit einem Toxin oder einer radioaktiven Substanz zu koppeln. Die Kelchproteine könnten dann Krebszellen nicht nur aufspüren, sondern gleichzeitig auch vergiften oder durch Bestrahlung vernichten. Angesichts solcher Perspektiven dürfte den Anticalinen noch eine große Zukunft bevorstehen. Thorsten Braun ist promovierter Chemiker und freier Wissenschaftsjournalist in Berlin.
Anzeige
Für die neueste Wissenschaft, die Ihre Zukunft bestimmen wird.
www.nature.com/nature
Als Abonnent haben Sie viele Vorteile!
ABONNIEREN ODER VERSCHENKEN Wenn Sie Spektrum der Wissenschaft selbst abonnieren oder verschenken, bedanken wir uns bei Ihnen mit einem Präsent. Wenn Sie ein Geschenkabo bestellen, verschicken wir das erste Heft zusammen mit einer Grußkarte in Ihrem Namen. Das Buch »Der mittelalterliche Kosmos« zeigt anhand alter Karten, welches Bild von Welt und Kosmos das lateinische Abendland und der islamische Orient hatten.
1.
Sie sparen gegenüber dem Einzelkauf und zahlen pro Heft nur € 6,60 statt € 7,40. Als Schüler, Student oder Azubi
LESER WERBEN LESER Sie haben uns einen neuen Abonnenten vermittelt?
zahlen Sie sogar nur € 5,55.
Dann haben Sie sich eine Dankesprämie verdient!
2.
Sie haben online freien Zugang zu allen SpektrumAusgaben seit 1993 mit derzeit über 6000 Artikeln.
3.
Unter www.spektrum.de/plus finden Sie jeden Monat einen kostenlosen Zusatzartikel, der nicht im Heft erscheint, das Produkt des Monats, das Sie als Abonnent mit Preisvorteil bestellen können, sowie den Spektrum-Mitgliederausweis mit zahlreichen Vergünstigungen.
4.
Toolbag von Reisenthel: enthält alles, was für Reparaturen im Haushalt benötigt wird.
Sie erhalten für Ihre Bestellung ein Dankeschön Ihrer Wahl.
5.
Sie können die Online-Wissenschaftszeitung »spektrumdirekt« günstiger beziehen. PRODUKT DES MONATS
>>
Zum Bestellen einfach nebenstehende Karte ausfüllen und abschicken oder per Telefon:
06221 9126-743
per Fax:
06221 9126-751
per E-Mail:
[email protected]
oder per Internet:
www.spektrum.de/abo Spektrum der Wissenschaft Verlagsgesellschaft mbH | Slevogtstr. 3–5 | 69126 Heidelberg | Telefon 06221 9126-600 | Telefax 06221 9126-751 | www.spektrum.de | Geschäftsführer: Markus Bossle, Thomas Bleck | Amtsgericht Mannheim | HRB 338114 | Abonnementsverwaltung: ZENIT Pressevertrieb GmbH | Julius-Hölder-Str. 47 | 70597 Stuttgart | Vertretungsberechtigter: Uwe Bronn
Sonderpreis für Abonnenten
Aktuell Sozialpsychologie
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Tief verwurzeltes Statusdenken Versuche zeigen: Unser Gehirn ist darauf programmiert, Hierarchien zu beachten. So schenken wir sozial höher stehenden Personen automatisch mehr Aufmerksamkeit als rangniederen. Von Andreas Meyer-Lindenberg
K
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
okzipitaler/parietaler Kortex
Parahippocampus präfrontaler Kortex
ventrales Striatum
Andreas Meyer-Lindenberg
aum ein Phänomen ist im Sozialverhalten von Tieren so auffällig und weit verbreitet wie Hierarchien. Sie finden sich bei vielen Spezies – von Insekten über Vögel bis zu Primaten – und natürlich beim Menschen. Wie Studien belegen, bilden sich stabile hierarchische Strukturen schon bei zweijährigen Kindern aus. Sie begleiten uns während des gesamten Lebens in Familie, Beruf und Freizeit. Manche Sprachen wie Koreanisch bilden die hierarchische Position des Sprechers relativ zum Adressaten sogar in der Grammatik ab. Verhaltens untersuchungen zufolge schätzen wir anhand von Aspekten wie Alter, Geschlecht und Kleidung schnell und automatisch den Status unseres Gegenübers ein. Hierarchische Strukturen wirken sich auch auf die Gesundheit aus: Lebenserwartung und Krankheitshäufigkeit werden vom gesellschaftlichen Status beeinflusst – gerade auch bei psychischen Erkrankungen wie der Schizophrenie. Es erstaunt daher, dass darüber, wie sich soziale Hierarchien im Gehirn manifestieren, bisher so gut wie nichts bekannt war. Als mein Team und ich Untersuchungen zu diesem Thema durchführen wollten, betraten wir daher Neuland. Wir entschlossen uns, eine künstliche Hierarchie im Rahmen einer Spielsituation einzuführen und mit Hilfe der funktionellen Magnetresonanztomografie (fMRT) die betroffenen Gehirn regionen zu ermitteln. Die Versuchspersonen sollten eine Reaktionszeitaufgabe lösen oder die Anzahl von Punkten auf dem Bildschirm schätzen. Für jede korrekte Runde des Spiels versprachen wir einen Geldbetrag als Belohnung. Zugleich gaben wir zu verstehen, dass noch zwei andere Probanden an der Untersuchung beteiligt seien. Diese existierten jedoch nicht wirklich, und auch die Ergebnisse jeder Runde waren vorher festgelegt. Wir konnten der Versuchsperson daher glaubhaft machen, ihre Leistung liege im
In einem festgefügten hierarchischen System führt allein schon der Anblick einer rang höheren Person zu einer erhöhten Aktivierung von Hirnregionen, die an der Bewertung von Wichtigkeit, der Handlungssteuerung und der visuellen Aufmerksamkeit beteiligt sind (oben). Bei instabilen Hierarchien kommen zusätzlich Regionen ins Spiel, die mit Emotionen zu tun haben (unten). Die Anwesenheit rangniederer Individuen wirkt sich dagegen nicht auf die Hirnaktivität aus.
Mittelfeld; einer der anderen Teilnehmer sei deutlich besser und der dritte wesentlich schlechter. Diese künstliche Hierarchie verstärkten wir noch, indem wir den Spielern in Anlehnung an militärische Rangabzeichen einen bis drei Sterne verliehen. Für eine Position im Mittelfeld gab es zwei Sterne. Während eine Versuchsperson im MRT-Scanner lag, sah sie zunächst das Bild eines mit ihr spielenden fingierten
eilnehmers inklusive Rangabzeichen, T absolvierte dann den Test und erfuhr schließlich, ob sie selbst und/oder ihr Mitspieler in dieser Runde Geld gewonnen hatte. Bei der einführenden Unterweisung hatten wir ausdrücklich betont, dass die Rangfolge für die Belohnung unerheblich sei, weil die Teilnehmer nicht gegeneinander anträten, sondern jeweils für sich spielten. Eine »rationale« Versuchsperson hätte die Hierarchie also 19
FORSCHUNG AKTUELL
einfach ignoriert. Um zu sehen, ob das der Fall war, untersuchten wir mittels fMRI, wie die Einführung eines ranghöheren oder -tieferen Mitspielers die Gehirnaktivierung beeinflusste. Tatsächlich beachteten die Versuchspersonen die künstliche Hierarchie sehr wohl. Wenn ein als höher stehend gekennzeichnetes Individuum auf dem Bildschirm zu sehen war, ließen sich ausgeprägte Aktivierungen in verschiedenen Hirnregionen beobachten – unter anderem im ventralen Striatum, einem Wichtigkeits-/Belohnungszentrum, sowie im dorsolateralen präfrontalen Kortex, der für die Handlungssteuerung wesentlich ist, und im visuellen Aufmerksamkeitssys tem. Erschien ein rangniederer Spieler auf dem Bildschirm, war dagegen keine Hirnregion stärker als normal aktiviert.
Geldwertes Prestige
Wir schließen aus diesen Ergebnissen, dass soziale Hierarchien, selbst wenn man weiß, dass sie in der betreffenden Situation unwichtig sind, vom Gehirn automatisch berücksichtigt werden. Die Aufmerksamkeit wendet sich spontan den sozial höherstehenden Individuen zu und von den rangniederen ab. Dieser neurobiologische Befund stimmt gut mit Ergebnissen von Verhaltenstests überein und stützt insbesondere das Konzept der sozialen Vergleichsprozesse, das der USSozialpsychologe Leon Festinger schon 1954 aufgestellt hat. Darin wird die Bedeutung der Vergleiche »nach oben hin« betont. Ein wichtiger Aspekt von Hierarchien ist auch ihre Stabilität. Nur bei gefes tigter Rangordnung erfreuen sich zum Beispiel in einer Affenhorde die sozial hoch stehenden Tiere besserer Gesundheit und Lebensqualität. Geraten die Hierarchien dagegen ins Wanken, müssen speziell die ranghöheren Gruppenmitglieder andauernd ihren Status verteidigen und leiden so unter besonders viel Stress. Spiegelt sich derlei auch beim Menschen in der Hirnfunktion wider? Dazu führten wir ein zweites Experiment durch, bei dem im Unterschied zum ersten die Hierarchie von der vermeintlichen Leistung abhing, also instabil war. Diesmal erzählten wir den Versuchs- personen, dass sie zu Beginn als ZweiSterne-Spieler eingruppiert worden seien, ihre Rangfolge sich aber im Lauf des Spiels ändern könne – abhängig davon, 20
wie viel Geld sie relativ zu den anderen Teilnehmern gewinnen würden. Erwartungsgemäß feuerten die bei der stabilen Hierarchie aktiven Hirnregionen auch in diesem Fall besonders stark. Wieder sprachen ausgedehnte Areale auf sozial höher stehende und keine auf niedriger eingruppierte Individuen an. Anders als zuvor traten nun aber auch emotionale Systeme wie die Amygdala (der Mandelkern) in Aktion. Dies könnte gut etwas mit der erhöhten Stressbelastung in instabilen Hierarchien zu tun haben. In der Tat zeigte sich, dass das Ausmaß der Erregung in der Amygdala damit korrelierte, welche Bedeutung die Probanden bei einer Befragung nach Ende des Versuchs ihrem Status beimaßen: Spieler, für die es sehr wichtig war, drei Sterne zu bekommen, zeigten die höchste Amygdala-Aktivität. Außerdem wurden mit negativen Emotionen assoziierte Hirnregionen aktiv, wenn ein Spielergebnis die hierarchische Stellung der Versuchsperson bedrohte – weil sie zum Beispiel in einer Runde kein Geld be-
kam, der rangniedere Spieler aber eine Belohnung kassierte. Wie wichtig den Probanden der Status in dieser künstlichen Hierarchie war, ließ sich aber auch in den MRT-Bildern ablesen. Der entscheidende Bereich ist dabei das schon erwähnte ventrale Striatum: ein Teil des Streifenkörpers, der zum Belohnungszentrum des Gehirns gehört. Es reagierte nicht nur auf das Geld, das die Probanden erhielten, sondern auch auf den Auf- oder Abstieg in der Hierarchie. Bemerkenswerterweise war die Aktivierung in beiden Fällen etwa gleich stark. Weil es sich bei Geld um einen realen Wert, bei dem Rang jedoch nur um eine ideelle, kurzfristige Prestigefrage handelte, macht dieser Befund deutlich, welch große motivierende und belohnende Bedeutung dem sozialen Status beim Menschen zukommt. Andreas Meyer-Lindenberg ist Professor für Psychiatrie und Psychotherapie am Zentralin stitut für Seelische Gesundheit in Mannheim, das er zugleich als Direktor leitet.
Biomedizin
Tanz der Moleküle zeigt lebendiges Bild der Zelle Eine neue Methode zur Abbildung bestimmter Molekülsorten in lebenden Geweben verspricht einen Durchbruch in der biomedizinischen Forschung. In einem ersten Test ließ sich zum Beispiel die Aufnahme von Omega-3-Fettsäuren in eine Zelle verfolgen. Von Michael Groß
A
tome und Moleküle halten niemals still. In Gasen schwirren sie wild durcheinander. Auch in Flüssigkeiten können Moleküle frei umherschwimmen und sich zusätzlich um ihre Achse drehen. Selbst wenn sie in Festkörpern eingeschlossen sind, vibrieren sie fort während. Bei diesem Tanz gibt die Quantenmechanik den Takt vor; denn Moleküle können nicht beliebig schnell vibrieren oder rotieren, sondern nur in bestimmten »Gängen«, die separaten Energieniveaus entsprechen. Der Wechsel von einem Niveau zum anderen geht mit der Aufnahme oder Abgabe eines ge-
nau definierten Energiebetrags einher – gewöhnlich in Form von elektromagnetischer Strahlung. Wissenschaftler benutzen dieses Phänomen schon seit Langem in der Spektroskopie. Indem sie messen, bei welcher Wellenlänge eine Probe Licht absorbiert oder freisetzt, können sie die enthaltenen Verbindungen anhand der spezifischen Schwingungen ihrer Moleküle identi fizieren. Dabei ergibt sich jedoch nur ein Mittelwert für die gesamte durchstrahlte Region. Die kleinräumige Verteilung oder eventuelle Wanderung der Moleküle lässt sich nicht feststellen. Die Arbeitsgruppe von Sunney Xie an der Harvard University in Cambridge SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Die schönsten Arien und Duette auf 16 CDs:
€ 69,–*
Die berühmtesten Opern auf 7 Einzel-DVDs und 1 Doppel-DVD:
€ 99,–*
*
Unverbindliche Preisempfehlung; zzgl. Versandkosten.
Sichern Sie sich jetzt 400 Jahre Oper auf CD und DVD. FOCUS und Universal Music präsentieren:
IHRE VORTEILE:
Auf 7 Einzel-DVDs und 1 Doppel-DVD: acht komplette Inszenierungen der berühmtesten Opern. Auf 16 CDs: die schönsten Arien und Duette, gesungen von den größten Opern-Stars unserer Zeit. Erleben Sie Anna Netrebko, Rolando Villazón, Cecilia Bartoli, Plácido Domingo, Montserrat Caballé, Thomas Quasthoff, Renée Fleming, Luciano Pavarotti, Nicole Cabell, Juan Diego Flórez u. v. a.
• • • •
Vorzugspreis gegenüber Einzelkauf beide Editionen im hochwertigen Schmuckschuber 40 Stunden Musik in brillanter Bild- und Tonqualität exklusiv für FOCUS Abonnenten versandkostenfrei
Auch einzeln im Handel erhältlich: die Doppel-CDs für je € 9,99 und die DVDs für je € 14,99. (Unverbindliche Preisempfehlung)
Jetzt Editionen bestellen und alle Vorteile sichern: Tel. 0180 5 160 800 21 www.focus-mall.de/oper € 0,14 /Min. aus dem Festnetz der Deutschen Telekom; abweichende Preise aus den Mobilfunknetzen
Christian W. Freudiger et al., Science, Bd. 322, S. 1860
FORSCHUNG AKTUELL
a
b
d
e
(Massachusetts) hat nun eine etwas kompliziertere Version der Rotations- und Schwingungsspektroskopie so weiterentwickelt, dass sie auch detaillierte räumliche Informationen liefert und für die medizinische Bildgebung taugt (Science, Bd. 322, S. 1857). Es handelt sich um ein Verfahren, das nach seinem Ent decker Chandrasekhara Venkata Raman benannt ist und auf der Lichtstreuung beruht. Fällt ein dünner Lichtkegel in einen dunklen Raum, können wir ihn in der Regel sehen, obwohl die Strahlen eigentlich an uns vorbeigehen. Das liegt daran, dass Staubteilchen einen Teil des Lichts ablenken. Das Streulicht hat dabei dem Anschein nach die gleiche Farbe – und damit Energie – wie der eigentliche Strahl, der sich geradeaus an uns vorbeibewegt.
Tor zu neuer Ära aufgestoßen
Raman stellte aber schon 1928 fest, dass das nicht 100-prozentig gilt: Unter dem abgelenkten Licht befindet sich auch ein sehr kleiner Anteil von Photonen mit geänderter Wellenlänge. Sie haben das streuende Teilchen auf einem höheren oder tieferen Energieniveau zurückgelassen und selbst den entsprechenden Energiebetrag verloren oder hinzugewonnen. Da der Effekt äußerst schwach ist, war die Messung von Raman-Streuung zunächst sehr schwierig. Die darauf beruhende Spektroskopie wurde erst praktikabel, als Laser starkes Anregungslicht einheitlicher Frequenz lieferten. 22
Sunney Xie und seine Mitarbeiter benutzen für ihr Verfahren sogar gleich zwei Laserstrahlen verschiedener Wellenlänge. Passt deren Energiedifferenz genau zu der charakteristischen Änderung im Schwingungszustand eines bestimmten Moleküls, so lässt sich damit feststellen, ob dieses sich am Schnittpunkt der beiden Strahlen befindet; die entsprechende Bande im Raman-Spektrum erscheint dann deutlich verstärkt. Dabei handelt es sich um eine stimulierte Emission ähnlich derjenigen, die den Laserstrahl selbst erzeugt. Durch weitere Tricks konnte Xies Team die Empfindlichkeit der Methode noch erheblich steigern. So verwendete es einen Pulslaser, der nicht kontinuierlich strahlt, sondern flackert – ähnlich wie ein Stroboskop, nur sehr viel schneller. Auf diese Weise ließ sich die Nachweisgrenze für Biomoleküle bei RamanUntersuchungen um vier Zehnerpotenzen verbessern und zugleich die Konzentra tion der angepeilten Moleküle ermitteln. Damit taugt das Verfahren nun auch für medizinische Anwendungen. Als erstes Beispiel untersuchten die Forscher die Aufnahme von Omega-3Fettsäuren in die Zelle. Tatsächlich konnten sie mit ihrer Methode nicht nur die Konzentration von Eicosapentaensäure (EPA) zu verschiedenen Zeiten oder an bestimmten Orten messen, sondern auch die Verteilung des Moleküls in der Zelle darstellen. Dabei zeigte sich, dass die Säure nach einer Weile zu kleinen Tröpfchen zusammenklumpt.
c
Durch Aufnahmen bei verschiedenen Wellen längen lässt sich mit der neu entwickelten Mikroskopie mittels stimulierter RamanStreuung die Verteilung verschiedener Biomoleküle in einem Gewebe gleichzeitig sichtbar machen. Das ist hier für ein Stück Haut demonstriert, das mit den beiden Chemikalien Dimethylsulfoxid (DMSO) und Retinolsäure (RS) versetzt wurde. Das Eindringen von beiden Substanzen in das Gewebe ließ sich verfolgen. Wiedergegeben sind Schnappschüsse der Verteilung von DMSO (grün) und RS (blau) in der Hornschicht der Oberhaut – zum einen in der Aufsicht (a, b) und zum anderen als Tiefenprofil längs der gelben Linie (d, e). Die dritte Abbildung (c) zeigt gleichzeitig die Verteilung von körpereigenen Lipiden (rot) und DMSO im Fettgewebe der Unterhaut.
In einem weiteren Anwendungsbeispiel benutzten Xie und Kollegen die Schwingungen körpereigener Fettmoleküle zur Abbildung von Gewebestrukturen in Hirn- und Hautpräparaten. Dabei hat ihre Methode den großen Vorteil, dass das Gewebe nicht angefärbt werden muss. Desgleichen gelang es, den Transport eines Medikaments in die Zelle zu verfolgen – ebenfalls ohne Farbstoff. Indem sich die Forscher die Schwingungen der Moleküle und eine 80 Jahre alte Entdeckung zu Nutze machten, konnten sie somit erstmals unverfälschte bewegte Bilder von Vorgängen in der lebenden Zelle gewinnen. Es ist wohl kaum übertrieben, zu sagen, dass damit das Tor zu einer neuen Ära der biologisch-medizinischen Forschung aufgestoßen wurde. Michael Groß ist promovierter Biochemiker und arbeitet als freier Wissenschaftsjournalist in Ox ford (England). SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Aktuell Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
Springers Einwürfe
PR A K T I SCHE S
AUS
DEM
LESERSHOP REGENSCHIRM »SONNENFRAKTALE«
Mit Robotern leben und sterben Wir werden mit Kunstwesen auskommen müssen – und sie mit uns.
Solche Entwicklungen muten umso gruseliger an, als sie in allen Industrieländern einem wachsenden Bedarf nach individueller Pflege bei zunehmendem Zerfall tradi tioneller Betreuungsstrukturen begegnen. Darum mahnt der britische Computerwis senschaftler Noel Sharkey von der University of Sheffield, rechtzeitig die ethischen Nebenwirkungen solch technischer Problemlösungen zu bedenken (Science, Bd. 322, S. 1800). Vollends makaber ist die Anwendung von Robotern in der Kriegsführung. Fernge steuerte Drohnen, die aufs Gefechtsfeld Raketen und Bomben herabregnen lassen, sind schon heute üblich, gleichen aber technisch gesehen noch dem Babyfon, da sie einem anderswo sitzenden Menschen die Initiative überlassen. Doch die Militärs las sen bereits autonom agierende Kampfroboter entwickeln. Das ethische Problem sieht Sharkey hier vor allem in der mangelhaften Fähigkeit, zwischen gegnerischen Soldaten und der Zivilbevölkerung zu unterscheiden. Diese kognitive Leistung wird Roboter selbst auf lange Sicht noch viel stärker überfordern als menschliche Rekru ten – vor allem in den schmutzigen, asymmetrischen Kriegen, die anscheinend immer häufiger werden. Und weit hinter alldem lauert ein komplementäres ethisches Problem, auf das der Philosoph Thomas Metzinger hartnäckig hinweist. Ein künftiger Roboter mit autonomem Intellekt dürf te eine Art Bewusstsein und Empfindungen entwickeln. Spätestens dann werden wir uns nicht nur fragen müssen, was er uns antut, sondern auch, was wir als Schöpfer eines leidensfähigen Michael Springer maschinellen Sklaven anrichten.
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
So macht Ihnen auch der heftigste Schauer nichts mehr aus. Der etwa 75 cm lange Schirm mit 8 Fiberglasschienen hat einen blauen Polyesterüberzug und ist mit seinem ansprechenden Fraktalmotiv ein echter »Hingucker« . Mit seinem Durchmesser von fast 130 cm auch bestens für zwei Personen geeignet € 25,– (zzgl. Porto/Versand).
PAPPAUFSTELLER EINSTEIN Die fast lebensgroße Standfigur von Albert Einstein als Inspirationsquelle für Ihr Arbeitszimmer Material: stabiler Karton € 34,50 (zzgl. Porto)
160 cm
So ein Babyfon ist eine feine Sache. Wir legen das Kind schlafen und besuchen die Nachbarn, die uns zum Abendessen eingeladen haben. Während wir plaudern, haben wir ein Ohr auf das regelmäßige Atmen im mitgebrachten Lautsprecher, der drahtlos mit einem Mikrofon neben dem Gitterbett verbunden ist. Wenn das Kleine aufwacht und zu weinen beginnt, laufen wir schnell nach nebenan und beruhigen es. Vielleicht können wir uns den Weg bald sparen. Schon heute bieten japanische und südkoreanische Firmen Roboter an, die mit Videospielen und einfachen Unter haltungen Kindern die Zeit vertreiben oder sie beruhigen und in den Schlaf singen. Wird man sich schon bald angewöhnen, die Kleinen zeitweilig mehr oder weniger in telligenten Maschinen zu überlassen, die etwa Teddybären, sprechenden Puppen oder gar einem menschlichen Babysitter ähnlich sehen? Erste Tests verliefen viel ver sprechend. Kinder sind offenbar noch viel eher als Erwachsene bereit, selbst einfach gestrickte Roboter als Personen zu akzeptieren. Dabei sage ich ja auch über meinen Computer: Heute spinnt er wieder. Noch ist kaum erforscht, welche Auswirkungen es hat, Heranwachsende schon früh mit interaktionsfähigen Maschinen zu konfrontieren. Wird dadurch die kindliche Entwicklung gehemmt? Werden die Kleinen so stark auf die allzeit willigen Helfer und Diener fixiert, dass menschliche Erzieher es künftig noch schwerer haben wer den? Oder ist es sogar sinnvoll, Kinder möglichst früh auf die von elektronischem Ge rät geprägte Alltags- und Arbeitswelt vorzubereiten? Nicht nur am Anfang, auch gegen Ende des Lebens sollen Roboter einspringen. In der Altenpflege sehen Firmen wie Sanyo und Mitsubishi einen Markt für intelligente Geräte, die bei Körperpflege, Nahrungsaufnahme und Medikation zur Hand gehen. Künstliche Haustiere, die schnurren, wenn man sie streichelt, geben einsamen alten Menschen die Illusion, nicht ganz allein zu sein.
sp ek trum.com/le sershop
Weltraumwetter weltraumwetter
solare SuperstÜrmE – die verkannte Gefahr
Wiederholt sich der große Sonnensturm von 1859, drohen Milliardenschäden an Satelliten und Stromversorgungsnetzen. Denn noch schützen wir uns nur unzureichend gegen geomagnetische Störungen, obwohl bereits Ausbrüche mittlerer Stärke die globale Energie- und Kommunikationsinfrastruktur in Mitleidenschaft ziehen können. Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
In Kürze r
Der Sonnensturm von 1859 war der stärkste, der je aufgezeichnet wurde. Bis tief nach Italien und in die Karibik waren Polarlichter zu sehen, Magnetkompasse spielten verrückt und Telegrafensysteme fielen aus.
r
Eisbohrkerne deuten darauf hin, dass derartige Ausbrüche solarer Teilchen im Mittel nur alle 500 Jahre vorkommen. Aber schon ein Sturm, wie er alle 50 Jahre auftritt, könnte zum Verlust von Satelliten führen, Radiosender stören und kontinentübergreifende Stromausfälle verursachen.
r
Um Folgekosten in Milliardenhöhe zu vermeiden, müssen wir die Sonne systematischer als bisher beobachten und Schutzmaßnahmen für Satelliten und Stromnetze verbessern.
24
Von Sten F. Odenwald und James L. Green
U
nerwartet bescherte die Nacht vom 28. auf den 29. August 1859 vielen Menschen eine völlig neue, fremdartige Erfahrung: das geisterhafte Leuchten von Polarlichtern, die sich als helle Vorhänge aus Licht über den Himmel erstreckten. Selbst fern polarer Breiten wie in Rom und Havanna richteten sich verwunderte oder entsetzte Blicke gen Himmel – so mancher glaubte an jenem Sonntag, seine Stadt stünde in Flammen. Auch Logbücher von Schiffen, die zu dieser Zeit in Äquatornähe kreuzten, beschreiben purpurfarbene Leuchterscheinungen, die bis zur halben Zenithöhe reichten. Messinstrumente überall auf der Welt, die sonst nur winzige Änderungen des Erdmagnetfelds registrieren, schlugen plötzlich wild aus. Doch dies war nur der erste Teil des Spektakels. Am 1. September beobachtete der englische Astronom Richard C. Carrington kurz vor Mittag eine Gruppe enorm großer Sonnenflecken. Während er sie skizzierte, registrierte er um 11.18 Uhr einen intensiven weißen Lichtblitz, der von zwei Orten in der Fleckengruppe ausging – ein Phänomen, das rund fünf Minuten andauerte. 17 Stunden später machte eine zweite Welle rötlicher und grünlicher Polarlichter die Nacht zum Tag,
selbst noch in so südlichen Regionen wie Panama. Und überall in Europa und Nordamerika brachen die Telegrafennetze zusammen. Was war passiert? Nicht einmal die Wissenschaftler selbst, bedrängt von Reportern auf der Suche nach einer Erklärung, konnten eindeutige Auskunft über die Himmelslichter geben. Handelte es sich um meteoritische Materie aus dem All, um Licht, das an polaren Eisbergen reflektiert wurde, oder um eine Art Blitze in großen Höhen? Zur Aufklärung trug erst der Sturm von 1859 selbst bei. Dem »Scientific American« vom 15. Oktober jenes Jahres zufolge war »eine Verbindung zwischen den Nordlichtern und den Kräften der Elektrizität und des Magnetismus nun vollständig nachgewiesen«. Mittlerweile kennen wir dank zahlreicher Messdaten und Untersuchungen auch den Ursprung der Polarlichter, der letztlich in energiereichen Ereignissen auf der Sonne liegt. Dann und wann stößt sie gewaltige Wolken aus Plasma aus, die, wenn sie unseren Planeten erreichen, das irdische Magnetfeld durcheinanderwirbeln (siehe »Das Wüten der Weltraumstürme« SdW 7/2001, S. 30). Der Sonnensturm von 1859 traf auf eine vergleichsweise wenig technisierte Zivilisation. Heute wären seine Folgen dramatischer: Satelliten würden schwer beschädigt, der Funkverkehr bräche zusammen und kontinentweite SPEKTRUM DER WISSENSCHAFT · März 2009
Astronomie & Physik
Pat Rawlings SAIC
Stromausfälle würden wochenlange Reparaturarbeiten erfordern. Zwar treten Stürme dieser Stärke im Mittel nur alle 500 Jahre auf. Doch Ereignisse mit immerhin der halben Intensität geschehen bereits zehnmal so häufig. Zuletzt am 13. November 1960, als ein Sonnensturm weltweite geomagnetische Störungen verursachte und Radiosender ausfallen ließ. Trifft uns der nächste Supersturm unvorbereitet, könnte er zum kosmischen »Katrina« werden. Berechnungen zufolge lassen sich seine direkten und indirekten Folgekosten mit denen eines großen Hurrikans wie jenem vergleichen, der 2005 so zerstörerisch über die Südküste der USA fegte. Wer wissen will, wie sich solche Stürme zusammenbrauen, muss einen genauen Blick auf die Sonne werfen. Die Anzahl der Sonnenflecken wächst und sinkt ebenso wie andere Zeichen der Sonnenaktivität in elfjährigen Zyklen. Im Januar 2008 begann der aktuelle Zyklus, bis 2013 wird die Aktivität des Zentralgestirns nun stetig zunehmen. Was im vorigen Zyklus geschah, haben Sonnenforscher lückenlos dokumentiert: Sie beobachteten 21 000 Strahlungsblitze oder »Flares« und 13 000 koronale Massenauswürfe (siehe Kurzglossar rechts). Beide sind Folgen der unaufhörlichen Turbulenzen solarer Gase. Sonnenstürme – der Begriff fasst Flares und Massenauswürfe zusammen – ähneln in mancher SPEKTRUM DER WISSENSCHAFT · März 2009
Hinsicht irdischen Stürmen, besitzen allerdings eine weitaus größere Ausdehnung. Und vor allem: Auf der Sonne bestimmen nicht Druck- und Temperaturverhältnisse, sondern Magnetfelder über die Dynamik der Gase (siehe »Explosionen auf der Sonne« SdW 6/2006, S. 40, »Die rätselhafte Heizung der Sonnenkorona« 9/2001, S. 28).
Weltraumunwetter mit Folgen: Wenn sich der Sonnenwind zum Sturm entwickelt und auf das irdische Magnetfeld (blaue Linien) trifft, kann dies unsere hochtechnisierte Zivilisation teilweise außer Gefecht setzen.
Entfesselte Kräfte
Die meisten solcher Stürme lassen allenfalls Polarlichter am irdischen Himmel tanzen. Doch gelegentlich entfesselt die Sonne vielfach größere Kräfte. Zwar hat niemand, der heute lebt, je einen solaren Supersturm mitgemacht, doch um zu verstehen, was damals geschah, rekonstruierten wir gemeinsam mit vielen anderen Forschern die Ereignisse des großen Sturms – einerseits aus historischen Aufzeichnungen, andererseits auf Basis von Satellitendaten der letzten Jahrzehnte. 1. Der Sturm zieht herauf. Vor dem Supersturm von 1859 erscheint auf der Sonne, etwa auf dem Höhepunkt ihres Aktivitätszyklus, eine auffällige Sonnenfleckengruppe. Die Flecken nahe dem solaren Äquator sind so groß, dass Astronomen wie Carrington sie ohne technische Hilfsmittel (aber mit geschützten Augen) sehen. Zum Zeitpunkt des ersten koronalen Massenauswurfs – im Verlauf des Sturms wird es noch zu einem weiteren kom-
Lexikon Flares sind Ausbrüche energiereicher Teilchen und intensiver Röntgenstrahlung, die als Folge von Magnet feldänderungen auf relativ kleinen Skalen in der Grö ßenordnung von einigen tausend Kilometern auftreten. Koronale Massenauswürfe wiederum (die Korona ist die äußere Atmosphäre der Sonne) sind magnetische Blasen, die Millionen von Kilometern durchmessen und in denen Milliarden Tonnen Plasma mit Geschwindigkeiten von mehreren Millionen Kilometern pro Stunde ins All geschleudert werden.
25
Der Supersturm von 1859
Wie es zum geomagnetischen Cha0s kommt
So haben ihn die Autoren rekonstruiert. Die Koordinierte Weltzeit (UTC) entspricht fast genau der Mittleren Greenwich-Zeit (GMT).
Normalerweise lenkt das irdische Magnetfeld die geladenen Partikel ab, die von der Sonne zur Erde strömen. Die tränenförmige Raumregion, in der das irdische Magnetfeld dominiert und in der dieser Schutz wirksam ist, wird als Magnetosphäre bezeichnet. Die Grenze zwischen ihr und dem solaren Plasma, die Magnetopause, ist auf der sonnenzugewandten Seite rund 60 000 Kilometer von der Erdoberfläche entfernt. Eine zusätzliche magnetische »Falle« für geladene Teilchen ist der torusförmige Van-Allen-Gürtel.
Magnetopause
26. August Auf der Sonne erscheint bei einer westlichen Länge von 55 Grad eine große Gruppe von Flecken. Vermutlich kommt es jetzt zu einem ersten koronalen Massenauswurf.
magnetische Feldlinie
28. August
Erde
Der Massenauswurf erreicht die Erde, sein Magnetfeld ist nach Norden gerichtet.
Van-Allen-Gürtel (magnetische »Falle« für geladene Teilchen)
Sonne
Sonnenflecken
28. August 7.30 UTC
Sonnenwind
Das Greenwich Magnetic Observatory registriert Störungen, die auf eine Stauchung der Magnetosphäre hindeuten.
Magnetosphäre
28. August 22.55 UTC Die Hauptphase des Sturms beginnt. Jetzt treten starke magnetische Störungen, Unterbrechungen der Telegrafen verbindungen und Polarlichter bis zu einer magnetischen Breite von 25 Grad Nord auf.
Zieht ein Sonnensturm in Form eines koronalen Massenauswurfs herauf, rast eine Blase ionisierten Gases auf die Erde zu, staucht die irdische Magnetosphäre und passiert unseren Planeten mit Überschallgeschwindigkeit. In extremen Fällen wird die Magnetopause sogar in den Van-Allen-Gürtel hineingeschoben, der dadurch vorübergehend verschwindet.
koronaler massenauswurf
30. August
Sonnenflecken
An diesem Tag enden die durch den ersten koronalen Massenauswurf ausgelösten geomagnetischen Störungen.
koronaler Massenauswurf
1. September 11.18 UTC Magnetfeld des Auswurfs (zeigt Richtung Süden)
Der Astronom Richard C. Carrington und andere be obachten einen weiß leuchtenden Strahlungsblitz (Flare) auf der Sonne. Die große Fleckengruppe hat sich nach 12 Grad West weiterbewegt.
Erdmagnetfeld (zeigt Richtung Norden)
Weil das solare Gas sein eigenes Magnetfeld mit sich führt, bringt es das irdische Magnetfeld in Unordnung. Zeigen beide in entgegengesetzte Richtung, kommt es zur Rekonnektion: Beide Felder verbinden sich miteinander, wobei magnetische Energie frei wird. Diese kann Teilchen auf hohe Geschwindigkeiten beschleunigen und dadurch helle Polarlichter hervorbringen, aber auch starke elektrische Ströme erzeugen.
2. September 5.00 UTC
Region mit neu verbundenen Feldlinien (Rekonnektion)
Polarlichter
Region mit neu verbundenen Feldlinien (elektrische) Ströme
Illustrationen: Melissa Thomas; Sonnenflecken: Carnegie Institution of Washington; Koronaler Massenauswurf und Röntgen-Flare: SOHO / NASA
turbulente Feldlinien solares Plasma
sichtungen von Polarlichtern
Die Magnetfeld-Observatorien von Greenwich und Kew regis trieren Störungen, denen unmittelbar ein geomagnetisches Chaos folgt. Binnen 17 Stunden erreicht ein zweiter koronaler Massenauswurf die Erde. Seine Geschwindigkeit beträgt 2380 Kilometer pro Sekunde, sein Magnetfeld ist nach Süden gerichtet. Helle Nordlichter erscheinen bis zu einer magneti schen Breite von 18 Grad Nord.
röntgen-Flare
3. und 4. September Die Hauptphase der geomagnetischen Störungen durch den zweiten Auswurf endet. Am Himmel sind noch einzelne Polarlichter mit deutlich ver ringerter Intensität zu sehen.
sichtungen von Polarlichtern
Astronomie & Physik men – steht die Fleckengruppe der Erde genau gegenüber, hat sie also gewissermaßen im Fokus. Dabei müsste die Sonne nicht einmal sonderlich genau zielen, denn sobald ein Massenauswurf die Erdbahn erreicht, hat er sich zumeist auf gut 50 Millionen Kilometer und damit auf eine Breite von einem Mehrtausendfachen des Erddurchmessers ausgedehnt. 2. Der erste Treffer. Der erste Massenauswurf benötigt vermutlich 40 bis 60 Stunden, um die Erde zu erreichen. Magnetometerdaten von 1859 deuten auf eine spiralförmige Struktur des Magnetfelds im ausgeworfenen Plasma hin. Als das ionisierte Gas zum ersten Mal die Erde trifft, zeigt sein Feld nach Norden. Dadurch verstärkt es das irdische Magnetfeld, was die Folgen gering hält. Gleichzeitig aber staucht es die Magnetosphäre, also die Raumregion, in der das irdische Magnetfeld über das der Sonne dominiert. Zu diesem Zeitpunkt registrieren die Magnetometer den Beginn eines magnetischen Sturms. Doch während das Plasma weiter an der Erde vorbeiströmt, dreht sich das Feld allmählich. 15 Stunden später zeigt es genau in die dem irdischen Magnetfeld entgegengesetzte Richtung. Dabei kommt es zu einem magnetischen »Kurzschluss«, einer Rekonnektion: Die nach Norden zeigenden Feldlinien des Erdmagnetfelds und die nach Süden zeigenden Feldlinien des Plasmas berühren einander, verbinden sich und nehmen eine energieärmere Konfiguration ein. Dabei setzen sie große Energien frei, womit die Störungen der Telegrafen und das Auftreten der Polarlichter ihren Anfang nehmen. Erst ein bis zwei Tage später, als das Plasma die Erde passiert hat, normalisiert sich das geomagnetische Feld wieder. 3. Das Röntgen-Flare. Die größten koronalen Eruptionen gehen typischerweise mit einem oder mehreren intensiven Flares einher. Der Strahlungsblitz, den Carrington und andere am 1. September im optischen Bereich beobachteten, deutet auf Temperaturen von fast 50 Millionen Kelvin und damit auf enorme Energiemengen hin, die in der Sonnenatmosphäre frei werden. Dabei muss neben sichtbarem auch Röntgen- und Gammalicht abgestrahlt worden sein. Nach achteinhalb Minuten treffen die energiereichen Photonen auf der Erde ein und übertragen Energie in die Ionosphäre. Hätte es damals schon Kurzwellenempfänger gegeben, wären sie dadurch nutzlos geworden. Denn an dieser hochatmosphärischen Schicht aus ionisiertem Gas wird kurzwellige Radiostrahlung normalerweise zurück zum Erdboden reflektiert, nun aber wird sie immer stärker absorbiert. Die Energie der Röntgenstrahlung heizt außerdem die obere Atmosphäre auf, die sich dadurch um meh SPEKTRUM DER WISSENSCHAFT · März 2009
Es regnet Protonen Solare Protonenereignisse sind Schauer energiereicher Protonen, die gelegentlich zusammen mit Flares und koronalen Massenauswürfen auftreten. Sie können Datenspeicher und elektronische Schaltkreise in Satelliten zerstören, belasten aber auch Astronauten und Flugpassagiere mit einer zusätzlichen Strahlungsdosis. Die energiereichsten Protonen erzeugen in der Atmosphäre auch sekundäre Neutronen, die bis auf den Erdboden gelangen und sich dort als ground level events von entsprechenden Instrumenten detektieren lassen. Die Gesundheit gefährden die neutralen Teilchen aber nicht.
Georg Wolschin Facetten der Physik Höhepunkte moderner physikalischer und astronomischer Forschung Mit einem Vorwort von Peter Grünberg
Sturmspuren im EIS Als Kenneth G. McCracken von der University of Maryland Bohrkerne aus dem Eis Grönlands und der Antarktis untersuchte und die Kon zentration von im Eis eingeschlossenen Nitraten maß, stieß er auf plötzliche sprunghafte Veränderungen. In den zurückliegenden Jahrzehnten scheinen diese Sprünge mit bekannten Ereignissen auf der Sonne zu korrelieren. Die größte Nitratanomalie, die für die vergangenen 500 Jahre gefunden wurde, lässt sich auf das Jahr 1859 zurück führen und ist etwa äquivalent zur Summe aller grö ßeren Ereignisse der letzten vier Jahrzehnte.
Höhepunkte moderner physikalischer und astronomischer Forschung der letzten zehn Jahre werden in zahlreichen aufeinander abgestimmten Einzelbeiträgen dargestellt. Die mit aufschlussreichen Bildern und Internet-Quellen zur eigenen Recherche versehenen Essays begleiten in Form einer Chronik die Forschung und zeigen exemplarisch das Fortschreiten naturwissenschaftlicher Erkenntnis. Zum Internationalen Jahr der Astronomie 2009 liegt ein besonderer Schwerpunkt auf astrophysikalischen Themen. 266 Seiten / Format 17 x 24 cm geb. Ausgabe / 39,90 Euro ISBN 978-3-86858-060-0
www.shaker-media.de
Weltraumwetter
Polarlichter wie hier im isländischen Njardvik entstehen, wenn geladene Teilchen vor allem aus dem Sonnenwind mit Gasmolekülen in der Atmosphäre kollidieren. (Die Farben entsprechen den Emissionen verschiedener chemischer Elemente.) Sie treten meist in polaren Regionen auf, große Sonnenstürme lassen sie aber auch in tropischen Breiten erscheinen.
Unbeachtetes Risiko Durch ihre Abhängigkeit von elektronischen Geräten wird die Gesellschaft immer verletzlicher gegenüber Sonnenstürmen, was in der öffentlichen Wahrnehmung aber keine Rolle spielt. Als die Autoren Zeitungsausgaben seit den 1840er Jahren auf die Berichterstattung über Weltraumwetter-Ereignisse durchforsteten, stellten sie fest: In der Zeit etwa vor 1950 waren magnetische Stürme, solare Flares und ihre Folgen den Tageszeitungen aufwändige Titelgeschichten wert. In fünf Zentimeter großen Lettern titelte beispielsweise der »Boston Globe« am 24. März 1940: »U.S. Hit by Magnetic Storm« (USA von magnetischem Sturm getroffen). Seit 1950 aber werden solche Berichte in die Innenteile der Zeitungen verbannt.
28
rere zehn oder gar Hunderte von Kilometern ausdehnt. 4. Der zweite Treffer. Das Raumgebiet, durch das der erste Auswurf zog, ist nun fast frei von Plasma. Bevor der Sonnenwind, ein steter Strom geladener Partikel, es wieder auffüllen kann, feuert die Sonne aber ein zweites Mal. Diesen Massenauswurf blockiert nur noch wenig Material, so dass er schon nach 17 Stunden eintrifft. Diesmal weist sein Magnetfeld nach Süden, als es auf die Magnetosphäre der Erde trifft. Sofortiges geomagnetisches Chaos ist die Folge. Der Aufprall ist so stark, dass die in Sonnenrichtung rund 60 000 Kilometer weit reichende Magnetosphäre auf 7000 Kilometer oder möglicherweise gar bis in die obere Stratosphäre hinein gestaucht wird. Der unseren Planeten umgebende VanAllen-Gürtel – eine torusförmige Raumregion, in der geladene Teilchen wie in einer magnetischen Falle gefangen gehalten werden – verschwindet vorübergehend. So wird eine große Zahl von Protonen und Elektronen frei, die für die intensiven roten Polarlichter weltweit verantwortlich gewesen sein könnten. 5. Neutronenregen durch energiereiche Protonen. Der Strahlungsblitz und die Massenauswürfe beschleunigen Protonen auf Energien von 30 Megaelektronvolt oder mehr. Im Bereich der Arktis, wo das Erdmagnetfeld am wenigsten Schutz bietet, dringen sie bis auf 50 Kilometer über der Erdoberfläche vor und laden weitere Energie in der Ionosphäre ab. Nach Berechnungen von Brian C. Thomas von der Washburn University in Topeka (Kansas) sinkt die Menge stratosphärischen Ozons dadurch um fünf Prozent. Die schnellsten Protonen mit Energien von über einer Milliarde Elektronvolt reagieren jetzt mit den Kernen von Stickstoff- und Sauerstoffatomen der Luft und setzen dabei Neutronen frei, die auf den Erdboden treffen und Nitratanomalien verursachen (siehe »Sturmspuren im Eis«, S. 27).
Satelliten in Gefahr Schon das alltägliche Weltraumwetter fordert seinen Tribut von Satelliten. Ein Supersturm aber würde binnen weniger Stunden Schäden anrichten, die dem Verschleiß während mehrerer Jahre entsprechen.
Illustrationen: Melissa Thomas; Satellit: JPL
Corbis / Arctic images
6. Starke elektrische Ströme. Während sich die Polarlichter von den hohen Breiten, wo sie üblicherweise sichtbar sind, in südlichere Gefilde ausbreiten, induzieren die in der Ionosphäre und den Polarlichtern fließenden elektrischen Ströme auch am Erdboden starke Ströme. Sie breiten sich über ganze Kontinente aus und finden auch Wege in das Telegrafennetz, wo die Spannung zu hochgefährlichen, viele Ampère starken Entladungen führt und mehrere Telegrafenstationen in Brand setzt. Letztlich aber waren die Folgen des Sturms von 1859 überschaubar. Trifft uns ein solches »Unwetter« heute erneut, drohen unheilvollere Szenarien. Am offensichtlichsten bedroht sind Satelliten, denn Sonnenstürme schaden der Energieversorgung der ohnehin empfindlichen Sonden. Schon unter normalen Umständen lassen die Partikel der kosmischen Strahlung die Solarzellen erodieren, wodurch sie jährlich etwa zwei Prozent weniger Strom erzeugen. Außerdem stören eindringende Teilchen die Elektronik. So wurde etwa der US-Kommunikationssatellit Telstar 401 im Jahr 1997 irreparabel beschädigt, und bereits 1994 hatte solare Aktivität die kanadische Sonde Anik E2 für Monate außer Kontrolle geraten lassen. Nach einer neuerlichen
Treffen solare Teilchen und Strahlung auf die Erdatmosphäre, bläht sich diese auf. Für Satelliten auf niedrigen Umlaufbahnen erhöht sich dadurch die Luftreibung.
SPEKTRUM DER WISSENSC
Astronomie & Physik solaren Attacke im Jahr 1996 war auch ein Solarmodul ihres Schwestersatelliten Anik E1 nicht mehr zu gebrauchen – es musste fortan mit halber Energie auskommen. Generell gilt, dass starke Sonnenstürme die Lebensdauer von Satelliten binnen Stunden um ein bis drei Jahre verringern und hunderte Fehler auslösen können, von harmlosen falschen Kommandos bis hin zu zerstörerischen elektrostatischen Entladungen.
Machtlos gegenüber den Folgen
Welche Kosten damit einhergehen könnten, zeigten wir, indem wir anhand 1000 unterschiedlicher Sturmszenarien das Schicksal speziell von Kommunikationssatelliten untersuchten. Die Intensitäten lagen dabei zwischen der des Ereignisses von 1859 und jener, die der größte Sturm im Raumfahrtzeitalter am 20. Oktober 1989 aufwies. Unter anderem fanden wir heraus, dass Satellitenbetreiber Umsatzverluste von oft über 20 Milliarden US-Dollar hinnehmen müssten, weil sie keine Kommunikationsverbindungen zur Verfügung stellen können. Dabei gingen wir allerdings von der Annahme aus, dass sie von vornherein große Ersatzkapazitäten für die Datenübertragung und eine anfänglich zehnprozentige Überschussproduktion von Energie vorsehen.
Unter weniger optimistischen Annahmen können die Verluste hingegen bis zu 70 Milliarden Dollar betragen. Das entspricht etwa dem jährlichen Umsatz aller Kommunikationssatelliten zusammengenommen. Noch gar nicht berücksichtigt sind dabei Folgekosten für die Nutzer ihrer Dienste. Glücklicherweise sind geostationäre Kommunikationssatelliten zumindest gegenüber Sonnenstürmen einer Stärke, wie sie statistisch einmal pro Jahrzehnt auftritt, erstaunlich robust. Ihre Lebensdauer ist seit 1980 von damals knapp fünf Jahren auf jetzt fast 17 Jahre gestiegen. Außerdem bestehen ihre Solarzellen mittlerweile nicht mehr aus Silizium, sondern aus Galliumarsenid, weshalb sie leichter und effizienter, aber auch widerstandsfähiger als ihre Vorgänger sind. Und schließlich erhalten Satellitenbetreiber (ebenso wie Fluglinien) mittlerweile Sturmwarnungen, etwa vom europäischen Weltraumwetternetz SWENET oder vom Zentrum für Weltraumwettervorhersage der amerikanischen Wetter- und Ozeanografiebehörde NOAA. Letztere informiert rund 1000 US-Regierungsstellen und Firmen, so dass sie fehleranfällige Satellitenmanöver während des Sturms vermeiden können. Doch nicht alle Folgen eines Supersturms lassen sich abmildern. Transportiert Röntgen-
Energiereiche Teilchen lassen Solarzellen erodieren. Außerdem dringen sie in die elektronischen Schaltkreise ein und lösen dort falsche Signale aus. Datenverlust oder gar der Verlust der Kontrolle über den Satelliten kann die Folge sein.
Computer unter Strom Auch elektronische Geräte leiden unter starken Son nenstürmen, denn energiereiche Protonen von der Sonne können im Erdboden Neutronen erzeugen. Ergebnisse einer Studie des IT-Konzerns IBM aus den 1990er Jahren deuten darauf hin, dass die Sekundäreffekte kosmischer Strahlung in Computern (die in der Regel nicht abgeschirmt sind) typischerweise einen Fehler pro 256 Megabyte Arbeitsspeicher (RAM) und Monat verursachen. Die Strahlungsflüsse, die mit einem Sonnensturm einhergehen, würden weltweit also zahlreiche Computer versagen lassen. Ein Neustart der Geräte dürfte das Problem allerdings in den meisten Fällen beheben.
SchutzmaSSnahmen Noch widerstandsfähiger würden die Satelliten, wenn die Ingenieure deren Abschirmungen verstärkten, die elektrischen Spannungen der Solarmodule verringerten (um elektrostatischen Entladungen entgegenzuwirken), zusätzliche Back-up-Systeme einbauten und gegenüber Datenverlusten unempfindlichere Software entwickelten.
Elektronen können sich auf Satelliten ansammeln und zu elektrostatischen Entladungen führen, die wiederum die Elektronik beschädigen.
SPEKTRUM DER WISSENSCHAFT · März 2009
29
Wenn die Lichter ausgehen Elektrische Ströme in der Ionosphäre induzieren Ströme im Erdboden und in Pipelines.
elektrische Ströme in der Ionosphäre
Transformator
induzierter Strom
Pipeline
Joh n von ; Thomas mit frdl Ge Melissa Karte: tion: USA ra d st Illu ator un Transform
Welche Gefahr droht Astronauten? Selbst bei einem Supersturm wären Astronauten in einer niedrigen Erdumlaufbahn wahrscheinlich keiner tödlichen Strahlungsdosis ausgesetzt. Lawrence W. Townsend von der University of Tennessee in Knoxville hat für die erwartbare Belastung einen Wert von 0,2 Gray ausgerechnet. Das entspricht etwa der von der NASA festgesetzten Grenze für einen 30-tägigen Aufenthalt im All, ist aber immer noch mehr, als Menschen am Erdboden während eines 70-jährigen Lebens durch natürliche Strahlungsquellen empfangen. Die Belastung für Passagiere in einem hoch fliegenden Flugzeug ist vergleichbar mit der, die bei einer Computertomografie entsteht.
30
n Kappe
nman
Diese Ströme können in Transformatoren eindringen und sie durchbrennen lassen. Weil Sonnenstürme nicht lokal begrenzt sind, könnte dies überall in einem Land oder Kontinent geschehen, was wochenlange Reparaturen nach sich ziehen würde.
strahlung Energie in die Atmosphäre, bläht sich die Lufthülle unseres Planeten auf, wodurch Satelliten stärkerer Reibung ausgesetzt sind. So verlor der japanische Forschungssatellit ASCA infolge des Sturms am 14. Juli 2000 an Höhe, seine Stromversorgung fiel aus, und wenige Monate später verglühte er vorzeitig in der Atmosphäre. Dem Risiko, wenige Wochen oder Monate nach einem starken Sturm verloren zu gehen, unterliegen alle Satelliten auf niedrigen Umlaufbahnen bis etwa 600 Kilometer Höhe. Aber auch Elektrizitätsnetze sind bedroht, zumal sie schon bei gutem »Wetter« fragile Gebilde sind. Laut Kristina Hamachi-LaCommare und Joseph H. Eto vom kalifornischen Lawrence Berkeley National Laboratory verliert die US-Wirtschaft durch Spannungsabfälle oder Stromausfälle jährlich etwa 80 Milliarden Dollar, da die Netze den Ansprüchen der Nutzer immer weniger gewachsen sind. Europa ist ebenso anfällig. 2006 führte eine von Deutschland ausgehende Kaskade von Störungen gar zu kontinentweiten Ausfällen. Sonnenstürme stellen die Netze aber vor völlig neue Probleme, denn geomagnetisch induzierte Ströme können die großen geerdeten Transformatoren beschädigen. Unter Umständen dringen die Gleichströme über die Erdungskabel ein und erzeugen in den Spulen Temperaturspitzen von über 200 Grad Celsi-
induzierter Strom
us, woraufhin Kühlmittel verdampfen und die Transformatoren durchbrennen. Selbst wenn dies ausbleibt, können die Ströme dazu führen, dass deren Magnetkerne während der einen Hälfte des Wechselstromzyklus gesättigt sind und die Wellenform des Stroms stören. Ein Teil der Energie entfällt dadurch auf Frequenzbereiche, auf die elektrische Endgeräte nicht zugreifen können. Weil Sonnenstürme nicht lokal begrenzt sind, droht schließlich ein netzweiter Kollaps der Spannungsregulation. John G. Kappenman von der kalifornischen Metatech Corp., der 2003 auch dem amerikanischen Kongress Rede und Antwort stand, zeigte in Studien, dass der magnetische Sturm vom 15. Mai 1921, träfe er uns heute erneut, zu Stromausfällen in halb Nordame rika führen würde. Ein Supersturm wie der von 1859 zwänge gar das gesamte nordamerikanische Netz in die Knie, zumal hier die Auswirkungen auf Grund der geografischen Nähe zum nördlichen Erdmagnetpol besonders groß sein dürften. Gleichzeitig würde er auch den Funkverkehr und damit das globale Positionssystem GPS stören. Denn intensive solare Flares stören nicht nur die Ionosphäre, durch die sich die GPS-Zeitsignale hindurchbewegen. Sie verstärken auch das Rauschen auf den GPS-Frequenzen, was die Positionsbestimmung (durch militärische wie zivile Nutzer) um 50 Meter SPEKTRUM DER WISSENSCHAFT · März 2009
Eine Studie zeigte, dass ein dem Sonnensturm von 1921 vergleichbares Ereignis in großen Teilen der USA (graue und blaue Flächen) die Lichter ausgehen ließe. Im Erdboden würden sich dabei elektrische Felder einer Stärke von etwa 20 Volt pro Kilometer aufbauen. Und was geschieht mit der Stromversorgung, wenn der Sturm so stark wäre wie 1859? Entsprechende Simulationen stehen noch aus.
oder mehr verfälschen kann. Ein vergleichbarer Präzisionsverlust trat beim Sonnensturm vom 29. Oktober 2003 auf. Damals schaltete sich das Wide Area Augmentation System ab (ein Funknetz, das die Genauigkeit der GPS-Positionen verbessert), so dass viele Piloten auf Alternativen zurückgreifen mussten.
Meidet die Polarregion!
Insbesondere in hohen Breiten würden energiereiche Teilchen auch den Funkverkehr mit Flugzeugen beeinträchtigen und entsprechende Gefahren heraufbeschwören. Flüge über die Polarregion wurden daher schon häufiger in niedrigere Breiten umgelenkt, außerdem mussten sie auf geringere Flughöhen gehen – Umwege, die jeweils Zehntausende von Dollar Treibstoffkosten verursachen können. Selbst schwächere Stürme kommen uns teuer zu stehen. 2004 untersuchten Kevin Forbes von der Catholic University of America in Washington D. C. und Orville Chris St. Cyr vom Goddard Space Flight Center der NASA in Greenbelt, Maryland, eines der größten Stromnetze der USA. Ein Teil des Stroms daraus wird zu Real-Time-Preisen verkauft, die alle fünf Minuten ermittelt werden. In einem 19-monatigen Zeitraum in den Jahren 2000/2001, so fanden Forbes und St. Cyr heraus, hatten allein Sonnenstürme diese Preise um etwa drei bis vier Prozent erhöht. SPEKTRUM DER WISSENSCHAFT · März 2009
Das US-Verteidigungsministerium wiederum schätzte ab, dass Störungen von Satelliten der amerikanischen Regierung durch solare Aktivitäten mit jährlich 100 Millionen Dollar zu Buche schlagen. Und von 1996 bis 2005 zahlten Versicherungen knapp zwei Milliarden Dollar für Schäden an kommerziellen Satelliten, die zum Teil ebenfalls auf ungünstiges Weltraumwetter zurückgehen. Wie können wir uns schützen? Seit rund 20 Jahren bemühen sich Einrichtungen weltweit, Vorhersagemodelle für das Weltraumwetter zu entwickeln. Die Daten liefert allerdings ein Sammelsurium von Satelliten, die für ganz unterschiedliche Forschungsaufgaben entwickelt wurden, nicht aber für eine verlässliche, langfristige Beobachtung des Weltraumwetters. Um mehr Messwerte und damit zuver lässigere Vorhersagen zu gewinnen, bräuchten wir daher vor allem kostengünstige, langlebige Weltraumbojen, die mit einfachen Geräten »von der Stange« arbeiten. In jedem Fall aber haben die Forscher noch einen langen Weg vor sich, bis sie die Physik der Sonnenstürme verstehen und auch deren Folgen vorhersagen können. Wenn wir unsere technische Infrastruktur wirklich schützen wollen, müssen wir die Investitionen in ihre Vorhersage, Modellierung und Erforschung darum deutlich erhöhen – nur dann sind wir für den nächsten solaren Supersturm wirklich gerüstet.
Sten F. Odenwald (links) ist Professor für Astronomie an der Catholic University of America in Washington D. C., außerdem SeniorWissenschaftler bei SP Systems in Greenbelt (US-Bundesstaat Maryland). Das Unternehmen berät unter anderem die NASA in Fragen der Weltraumforschung und Informationstechnologie. Odenwald ist auch erfolgreicher Autor populärwissenschaftlicher Texte und steht als solcher beim Goddard Space Flight Center der NASA unter Vertrag. Seine wichtigsten Forschungsgebiete sind der kosmische Infrarothintergrund und die Phänomenologie des Weltraumwetters. James L. Green ist Direktor der Planetary Science Division der NASA, gehört zum Team der Magnetosphärensonde IMAGE und ist auf die Magnetosphären von Planeten spezialisiert. Während seiner Arbeit an einer Veröffentlichung über den Einsatz von Ballons im amerikanischen Bürgerkrieg stieß er auf mehr als 200 Zeitungsartikel über den Sonnensturm von 1859.
Forbes, K. F. et al.: Solar Activity and Economic Fundamentals: Evidence from 12 Geographically Disparate Power Grids. In: Space Weather 6(10), S10003, 25. Oktober 2008. Forbes, K. F. et al.: Space Weather and the Electricity Market. In: Space Weather 2(10), S10003, 21. Oktober 2004. Odenwald, S. F.: The 23rd Cycle: Learning to Live with a Stormy Star. Columbia University Press, New York 2001. Shea, M. et al.: The Great Historical Geomagnetic Storm of 1859: A Modern Look. In: Advances in Space Research 38(2), S. 117 – 118, 2006.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/artikel/ 979749.
31
Schlichting! Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Schnell und schmerzlos – Physik am Morgen Über eine nicht ganz gesellschaftsfähige, aber physikalisch hochinteressante Methode, heiße Getränke zu kühlen Der Mensch kann … nach allen Arten [trinken]. Er saugt an der Mutter-Brust schon und beständig wenn er ordentlich stark trinkt, den Tee schlurft er mit erweiterter Brust ein, und wenn er aus einer Bouteille mit einem engen Hals trinkt, so gießt er. Georg Christoph Lichtenberg (1742 – 1799)
Richard Zinken
Luftsäule zwischen den gespitzten Lippen eine chaotische Schwingung ausbildet. Jetzt endlich durchmischen sich kühle Luft und heiße Flüssigkeitsportionen in idealer Weise. Einerseits stellt sich eine im Mittel gleich bleibende Mischungstemperatur ein, die niedriger ist als die der Flüssigkeit allein. Andererseits kommen die Schleimhäute nur mit kleineren Flüssigkeitsportionen in Berühan kennt das: Kurz bevor morgens der rung, die durch Luft thermisch voneinander Bus kommt, ist der Kaffee (oder Tee) isoliert sind und daher auch eine geringere noch viel zu heiß. Schmerzlosen Genuss er- Wärmekapazität aufweisen. Dies reduziert die langen wir in der Eile nur, wenn wir uns auf Stärke des Wärmestroms zwischen Schleimmehr oder weniger lautstarkes Schlürfen ver- häuten und eingeschlürftem Fluid auf ein verlegen – und damit physikalisch höchst trick- trägliches Maß. Das typische Schlürfgeräusch ist demnach reich vorgehen. Rein praktisch gesehen kann nämlich, wer schlürft, den thermischen keine gewollte, womöglich provozierende AkEnergiestrom zwischen heißem Getränk und tion – auch wenn es Georg Christoph Lichempfindlichen Schleimhäuten recht präzise tenberg zufolge (»der Ochse schlurft«) eine gewisse Verwandtschaft mit den akustischen steuern. Die Rückkopplungswege sind so kurz, Emissionen Wasser trinkenden Rindviehs aufdass sich die entscheidenden Schlürfpara- weist. Es ist vielmehr Begleiterscheinung eines meter fast instantan an die jeweiligen Trink- turbulent schwingenden Fluidstroms und dabedingungen anpassen lassen. Zum einen mit unabdingbar für die unschädliche Aufkann der geschickte Schlürfer den Unterdruck nahme von heißer Flüssigkeit. im Mund-Rachen-Raum und damit den Natürlich geht es auch anders, zum BeiStoffstrom sehr fein dosieren. Wichtig ist da- spiel mit Suppe. Wer den heißen Dampf über bei, den Einlassquerschnitt durch mehr oder dem Suppenlöffel wegbläst, senkt die dort weniger starkes Zuspitzen der Lippen zu vari- herrschende extrem hohe Luftfeuchte radikal. ieren. Jetzt können weitere Wassermoleküle verdunsZum anderen aber muss er den Abstand ten und der heißen Suppe Energie entziehen. zwischen Lippen und heißer Flüssigkeit fein Physikalisch und feinmotorisch anspruchsvol einjustieren – so, dass infolge des durch Ein- ler ist aber auch hier die Schlürfvariante: Ohne saugen erzeugten Unterdrucks eine wohl do- den Löffel mit den Lippen zu berühren – er sierte Flüssigkeitsmenge in den Mund gelangt. wird genauso heiß wie die Suppe, obendrein Entscheidend ist schließlich, dass der Fluid- leitet er die Wärme besonders gut –, levitiert strom in Turbulenzen gerät, weil sich in der man sie genießerisch vom Essbesteck.
Auch Blasen wäre eine Lösung. Wer aber, um die Schleimhäute zu schonen, seinen heißen Tee schlürft, bedient sich einer physikalisch und feinmotorisch deutlich anspruchsvolleren Kühlungsmethode.
H. Joachim Schlichting ist Professor und Direktor des Instituts für Didaktik der Physik an der Universität Münster.
32
M
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
PHYSIKALISCHE UNTERHALTUNGEN sonnensystem (II)
Romantische Venusnächte im Erdenschein Venus hat mit ihrem Umlauf und ihrer Rotation besondere Resonanzverhältnisse zum Erdumlauf. Da könnte ein erdsüchtiger Venusbewohner immer wieder ein eindrucksvolles Himmelsschauspiel genießen. Von Norbert Treitz
W
ir Erdlinge haben es mit unserem Planeten schon ganz gut getrof fen. Es ist nicht nur sein Abstand von der Sonne sehr stabil und innerhalb des für unser Leben zuträglichen Bereichs, auch der Anblick des Nachthimmels ist im Sonnensystem unübertroffen. Kein anderer Planet kann seinen Bewohnern derart romantische Mondscheinspazier gänge bieten, denn unser Mond ist von allen Trabanten, im Verhältnis zum je weiligen Mutterplaneten, der mit Ab stand größte. Was allerdings den Anblick der an deren Planeten angeht, so ist zwar die Venus von der Erde aus ganz nett anzu schauen; aber die Erde in Opposition
alle Abbildungen des Artikels: Christoph Pöppe, nach Norbert Treitz
Links ein (bezüglich der Erde) synodischer Umlauf heliogeostatisch mit Venus als »Morgen- und Abendstern«; rechts ein (bezüglich Venus) synodischer Erdumlauf helioveneristatisch mit Erdphasen, von der Venus aus gesehen. Die Marsphasen für Erdbewohner sehen ähnlich unauffällig aus.
zur Sonne, von der Venus aus gesehen, bietet einen weitaus prachtvolleren An blick. Dann nämlich stehen Sonne, Ve nus und Erde in gerader Linie; die Ve nus ist der Erde so nahe wie überhaupt möglich, und die Sonne in ihrem Rü cken bestrahlt die volle der Venus zuge wandte Erdhälfte. Nur der Anblick der Venus vom Merkur aus in entsprechender Position kann dieses Erlebnis noch übertreffen, und zwar etwa um den Faktor 4. Denn die Entfernung zwischen beiden Pla neten ist annähernd die gleiche; aber die Sonne strahlt wegen der größeren Nähe doppelt so hell, und die Venus reflektiert wegen ihrer dichten Wolkendecke das Sonnenlicht mehr als doppelt so stark wie die Erde. Beim Blick von einem äußeren zu einem inneren Planeten, zum Beispiel von Erde zu Venus oder Mars zu Erde, ist die Prachtentfaltung dagegen ge dämpft. Stehen beide Planeten von der Sonne gesehen in der gleichen Richtung (abgesehen von der geringen Neigung ihrer Bahnebenen gegeneinander), so steht der innere (hier also Venus) für
den äußeren (Erde) in »unterer Kon junktion« zur Sonne, der äußere »in Op position« zu ihr, das heißt in Gegenrich tung. Nach der Hälfte ihrer gemein samen Umlaufzeit von 1,6 Jahren stehen sich beide Planeten gegenüber und ha ben die Sonne genau zwischen sich. Ve nus ist dann für die Erde in »oberer Konjunktion«, diese für Venus ebenfalls, wobei aber das Adjektiv »obere« jetzt überflüssig ist. Nur bei oberer Konjunktion sehen wir die volle Tagseite, aber in größter Entfernung und im Allgemeinen über strahlt durch die in der gleichen Rich tung stehende Sonne, bei unterer dage gen die volle Nachtseite, groß, aber trotz dem dunkel. Zwischendurch gibt es den »größten Glanz«, das heißt die relativ hellste Sichel (Bild unten, links). Vom inneren zum äußeren Planeten (Bild unten, rechts) gibt es bei Opposi tion die Tagseite aus der Nähe zu sehen und bei Konjunktion noch einmal von Weitem. Auch zwischendurch sind die Phasen nur unauffällig, dem Vollkreis fehlt stets nur eine schmale Sichel. Auch wenn der äußere Planet vom inneren aus
(obere) Konjunktion
obere Konjunktion
östliche Elongation
westliche Elongation
untere Konjunktion
Abend
Quadratur Morgen
SPEKTRUM DER WISSENSCHAFT · März 2009
Quadratur Opposition
33
PHYSIKALISCHE UNTERHALTUNGEN
Der verschlungene Weg der Erde – von Venus aus Vom kopernikanischen Standpunkt aus (kleines Bild) ist die Sache ganz einfach: Um die Sonne (gelb) kreisen die Venus (weiß/ grau) und in etwas größerem Abstand die Erde (hellblau/dunkelblau). Jedes Paar aus einem hellen und einem dunklen Streifen »dauert« in allen Bildern 1/13 Jahr. Da die Umlaufzeiten in Resonanz stehen, passen in die Erdbahn genau 13 und in die Venusbahn genau 8 Streifenpaare. Ein Beobachter auf der Venus kann die Bewegungen von Sonne und Planeten eben so beschreiben, wie Tycho Brahe das auf der Erde tat (Bild S. 35, links): Venus ruht in der Mitte, die Sonne kreist um sie, und die Erde läuft auf einer Epitrochoide (nicht Epi zykloide), deren fünf innerste Scheitel die Oppositionen der Erde bezüglich Venus zeigen. Nach diesen fünf Oppositionen (zugleich untere Konjunktionen der Venus für die Erde) entsprechend acht Erdjahren schließt sich diese Kurve recht genau. Die Scheitel sind die Ecken eines regulären Fünfecks um Venus herum. Sie werden in der Reihenfolge des roten Fünfsterns aufgesucht, den ein auf
gesehen rechtwinklig zur Sonne steht (»Quadratur«), zeigt er uns mehr als ei nen hellen Halbkreis. Für die Phasen kommt es allein auf das Dreieck aus Sonne, beobachtendem Planeten und angeblicktem Planeten an, genauer, auf den Winkel bei Letzterem. Wie dieses Dreieck in unserem Koordi natensystem orientiert ist, spielt keine Rolle. Darum kann man anhand der Phasen – zum Beispiel – der Venus auch nicht zwischen den Planetenbahnmodel len von Kopernikus und Tycho Brahe unterscheiden (Spektrum der Wissen schaft 2/2009, S. 42). Wenn in dem Dreieck Erde –Venus– Sonne der Winkel bei der Venus ein rech ter ist, läuft für uns die Venus in maxi malem Winkelabstand (»maximale Elon gation«) vor der Sonne als Morgenstern (»Phosphoros«) oder hinter ihr als Abend stern (»Hesperos«). Dieser Winkel, des sen Sinus das Verhältnis der Bahnradien ist, beträgt rund 47 Grad. Seit Pythago ras weiß man, dass Morgen- und Abend stern ein und dasselbe Objekt sind. Venus läuft in 224,701 Tagen = 0,615 (siderischen) Jahren um die Sonne, das sind 1,625 Umdrehungen pro Jahr. Es dauert daher 1/0,625 Jahre, bis sie eine Runde Vorsprung erreicht, das sind auf 1/120 Prozent genau 1,6 Jahre. Das Ver hältnis der Umlauf-Winkelgeschwindig keiten beider Planeten ist 1,625 : 1; das ist 34
Venus ansässiger Astronom Pentagramma Terrae nennen würde. Dieses Bild berücksichtigt nur die um laufende Wanderung, aber nicht die Dre hung der Venus. Das Bild auf S. 35 rechts führt diese Rotation nach, so dass die Hori zontebene durch einen Punkt auf dem Ve nusäquator als waagerechte Gerade im Bild erscheint und der Zenit stets oben über dem Bild steht – in der Bildebene, aber unend lich weit oben. Um den endlich hohen Punkt, durch den die Sonne am Mittag läuft, ist ein rotes reguläres Fünfeck gezeichnet. Seine Ecken werden immer dann durchlaufen, wenn der betrachtete Ort Mitternacht hat. Das sind also fünf feste Richtungen, die abwech selnd von der Erde besetzt werden (hier durch hellblaue Marken angezeigt). Der Lauf der Erde um den festen Ort auf der rotie renden Venus schließt sich (mitsamt den Entfernungen!) nach einem Konjunktionszyklus, also nach 1,6 Jahren. Die Opposition der Erde findet also immer zur gleichen Sonnenzeit statt, auf dem hier gewählten Meridian stets bei Sonnenuntergang.
recht genau gleich 13 : 8, ein Quotient aus kleinen ganzen Zahlen, sozusagen eine »sehr rationale« Zahl. Das lässt ver muten, dass beide Planeten im Begriff sind, durch gegenseitige Bahnstörungen in eine Art Gleichgewicht, eine stabile Resonanz, zu kommen. Unter anderen Umständen, nämlich wenn kleine Ob jekte von einem großen gestört werden, können dagegen rationale Umlaufzeitver hältnisse auch benachteiligt sein, wie wir bei den Kirkwood-Lücken um Kleinpla netengürtel und bei den »Teilungen« der Saturnringe gesehen haben (Spektrum der Wissenschaft 11/2006, S. 104).
Das Pentagramma Veneris
Nach den ganzen 1,6 Jahren, also einem vollen Konjunktionszyklus, stehen Son ne, Venus und Erde wieder in dieser Fol ge in einer Reihe, sehen aber einander vor anderen Stellen des Fixsternhimmels, nämlich um 1,6 beziehungsweise 2,6 Umdrehungen weiter. Beides ist (»der Himmel ist rund«) nicht von 0,6 Um drehungen vorwärts oder 0,4 Umdre hungen rückwärts zu unterscheiden. Nach fünf Konjunktionszyklen, also 5 . 1,6 = 8 Jahren ist Venus 13-mal um gelaufen, und diesmal stehen die drei Himmelskörper auch auf den Fixstern himmel bezogen fast genau in derselben Richtung. Markiert man die fünf Rich tungen als Punkte auf einem Kreis »rund
um den Himmel« und verbindet sie in der durchlaufenen Reihenfolge durch Geraden, so gibt es ein Sternfünfeck, das Pentagramma Veneris (Kasten oben). So hübsch das alles ist, so ist es doch nur eine arithmetische Konsequenz aus der 8 : 13-Resonanz zwischen Venus- und Erdumlauf. Eine viel erstaunlichere Resonanz be steht zwischen dem Umlauf der Erde und der Eigenrotation der Venus. Diese ist an sich schon seltsam genug und bie tet Anlass zu verschiedenen Spekulatio nen, denn sie ist sehr langsam und vor allem retrograd. Die meisten größeren Objekte im Sonnensystem einschließlich der Erde rotieren, vom Himmelsnordpol aus gese hen, gegen den Uhrzeigersinn. Im selben Drehsinn durchlaufen sie auch ihre Um laufbahnen. Dieser bevorzugte Drehsinn wird »rechtläufig« oder »prograd« ge nannt – etwas irreführend für den Erd bewohner, der es gewohnt ist, seine Schrauben im Uhrzeigersinn einzudre hen und diese Bewegung »rechtsherum« zu nennen. Winkelgeschwindigkeiten im rechtläufigen Sinn werden positiv ge zählt und die zugehörigen Perioden sinnvollerweise auch. Der andere Dreh sinn heißt »rückläufig« oder »retrograd«. Früher vermutete man, dass die Ro tation der Venus mit + 224 Tagen an ih ren Umlauf gekoppelt sei. Demnach SPEKTRUM DER WISSENSCHAFT · März 2009
Astronomie und Physik
würde die Venus der Sonne stets dieselbe Seite zuwenden, so wie der Mond der Erde, und für einen ortsfesten Venusbe wohner würde die Sonne immer an der selben Stelle des Himmels stehen: ewiger Tag für die Bewohner der Sonnenseite, ewige Nacht für die anderen. Aber das ist überholt. In allen hinreichend neuen Tabellen lesen wir, dass die Periode der (rückläufigen) Rotation unserer Schwes ter – 243,0185 Tage dauert. Das sind recht genau – 2/3 Erdjahre (tatsächlich – 0,6653 Jahre), mit bemerkenswerten Konsequenzen. Wie lange dauert ein Sonnentag auf der Venus, das heißt, wann steht für ei nen Venusbewohner die Sonne wieder gleich hoch über dem Horizont? Dazu subtrahiert man die Winkelgeschwindig keiten von Drehung (mit negativem Vor zeichen, wegen der Rückläufigkeit) und Umlauf, das sind – (3/2) – (13/8) = – 25/8 Umläufe pro Erdjahr; die Zahlenwerte sind so gerundet, als wäre die Resonanz perfekt. Ein Venus-Sonnentag dauert also – 8/25 Jahre oder –116,75 Tage, et was weniger als ein halbes Venusjahr. Die Minuszeichen zeigen dabei an, dass auch die Tageszeiten gewissermaßen rückwärts laufen, die Sonne also im Westen aufund im Osten untergeht. Dabei über nehmen wir die Bezeichnungen Osten und Westen vom Standpunkt eines Be obachters, der »von Norden« auf das SPEKTRUM DER WISSENSCHAFT · März 2009
Sonnensystem schaut und sich zunächst nicht um Rückläufigkeiten kümmert. Nehmen wir an, ein Astronaut von der Erde sitzt auf dem Äquator der Ve nus und schafft es irgendwie, durch ihre dicke Atmosphäre seinen Heimatpla neten zu sehen und zu verfolgen. Er sieht die Sonne alle 8/25 Jahre im Westen auf gehen, gleichmäßig über sich durch den Zenit laufen und dann im Osten unter gehen.
Romantischer Abend im Erdenschein
Nun läuft um diese Sonne die Erde, und alle 1,6 Jahre bleibt sie um einen vollen Umlauf zurück, läuft zwischendurch aber ungleichmäßig für den exzen trischen Betrachter von der Venus. Die hat sich in dieser Zeit um – 3/2 Umdre hungen pro Jahr mal 1,6 Jahre, also – 2,4-mal um sich selbst gedreht, und die Konjunktionsrichtung ist (im Penta gramma Veneris) um 0,4 Umläufe rück wärtsgelaufen. Wegen der gemeinsamen 0,4 hinter dem Komma finden alle Op positionen der Erde über dem gleichen Venusmeridian statt. Wenn der Astro naut sich dorthin stellt, sieht er alle 1,6 Jahre um Mitternacht die Erde beson ders nah und daher groß genau im Ze nit. Wandert er jedoch 90 Grad den Ve nusäquator lang nach Osten oder Westen, so hat er alle 1,6 Jahre die Sonne
und die maximal groß erscheinende Vollerde in Opposition genau gegenüber am Horizont – fast so romantisch wie auf der Erde der Vollmond gegenüber der untergehenden Sonne. In vollen acht Jahren haben wir fünf solche Oppositionen, die Sterne gehen 12-mal auf (und unter), die Sonne aber 25-mal und die Erde 20-mal. Das folgt alles aus den drei Zahlen 1, 8/13 und – 2/3, also den siderischen Perioden vom Umlauf der Erde und von Umlauf und Rotation der Venus. Bei Erde und Venus haben wir es mit Planeten zu tun, deren Ellipsenbahnen sehr wenig von der Kreisform abwei chen. Immerhin zeigen unsere Sonnen uhren, dass diese Abweichung selbst für die Erde durchaus merklich ist. Und beim Merkur ist sie noch weit größer. Die nächste Folge handelt von den Folgen dieser Exzentrizität; dabei gibt es auch eine Erklärung dafür, warum wir von der Erde aus einen Teil der Mond rückseite sehen können. Norbert Treitz ist apl. Professor für Didaktik der Physik an der Universität Duisburg-Essen. Sei ne Vorliebe für erstaunliche Versuche und Basteleien sowie für anschauliche Erklärungen dazu nutzt er auch zur Förde rung hoch begabter Kinder und Jugendlicher.
35
Krebsmedizin
Fortschritte in der
Brustkrebstherapie Eine effektivere Behandlung, die auf den individuellen Tumor zugeschnitten ist – diesen Wunschtraum helfen die neuesten zielgerichteten Medikamente zu erfüllen.
Von Francisco J. Esteva und Gabriel N. Hortobagyi
D In Kürze Dank verbesserter Früherkennung und neuartiger Behandlungsmöglichkeiten steigt die Überlebensrate bei Brustkrebs in Nordamerika und Europa stetig. r Viele neue Therapien zielen auf bestimmte Moleküle von Tumorzellen. Dadurch kann der Arzt die Medikation individuell auf das Tumorprofil der Patientin abstimmen. r Brustkrebs war der erste bösartige Geschwulsttyp, für den molekular ziel gerichtete Therapien zur Verfügung standen. Der Erfolg dieses Ansatzes lässt auf weitere dramatische Fortschritte hoffen. r
38
ie schlechte Nachricht zuerst: Brustkrebs ist in Nordamerika wie in Deutschland die häufigste bösartige Erkrankung bei Frauen und führt in Nordamerika hinter Lungenkrebs, in Deutschland vor Darmkrebs die weibliche Krebstodesstatistik an. Die gute Nachricht: Die Überlebensrate steigt beim Mammakarzinom seit den frühen 1990er Jahren stark an, so dass es seinen hohen Rang in der Todesstatistik einbüßen könnte. Nichts würde uns Kliniker mehr freuen. Die viel günstigeren Gesamtaussichten bei Brustkrebs rühren zum Teil daher, dass er früher entdeckt wird, unter anderem weil Frauen das verstärkte Angebot zur Früherkennung wahrnehmen. Brustkrebspatientinnen profitieren zudem von der intensivierten Forschung: Diese führt zu einem wesentlich besseren Verständnis der Erkrankung und zu einem breiteren Spektrum therapeutischer Möglichkeiten, die der behandelnde Arzt der individuellen Situation angepasst auswählen und kombinieren kann. Ein Erfolg der letzten zehn Jahre sind Wirkstoffe, die sich zielgenau gegen bestimmte kritische Moleküle von Tumoren richten. Brustkrebs war hierbei die erste bösartige Geschwulstform, für die mit Trastuzumab (Handelsname Herceptin) eine solche Therapie auf den Markt kam. Dieser Antikörper wurde 1998 in den USA und zwei Jahre später in der EU zugelassen. Sein Zielprotein, HER2 genannt, fördert ein aggressives Tumorwachstum. Vor der Einführung von Trastuzumab bedeutete ein Brusttumortyp, der HER2 – und somit die davon ausgehenden Signale – im Übermaß produziert, eine schlechte Pro-
gnose. Heute kann gerade dieser Typ mit vergleichsweise guten Überlebensaussichten einhergehen, da die Zahl wirksamer Waffen gegen Glieder der HER2-Signalkette weiter wächst. Auch im kommenden Jahrzehnt sind große Fortschritte auf dem Gebiet der molekular gezielten Krebstherapien zu erwarten: Zahlreiche Substanzen werden derzeit bei Patienten oder im Tierversuch geprüft. Sie richten sich gegen etliche weitere Moleküle, die für Entstehen, Erhalt und Fortschreiten einer Entartung zu immer bedrohlicheren Stadien bedeutsam sind. Zusammen mit Verbesserungen bei konventionellen Therapieformen und Supportivmaßnahmen bietet diese neuere Generation von Medikamenten mehr Optionen, um die Behandlung auf das individuelle molekulare Profil des jeweiligen Tumors abzustimmen. Denn Brustkrebs ist, wie wir mehr und mehr erkennen, alles andere als eine einheitliche Erkrankung. Zum Rückgang der Sterblichkeit bei den Betroffenen tragen andere, frühere Fortschritte bei. Beispielsweise haben sich die Methoden zur Früherkennung verbessert, was definitiv hilft, mehr Fälle bereits in einem Stadium zu erfassen, bei dem Brustkrebs noch zu einem hohen Prozentsatz heilbar ist. Ein moderneres bildgebendes Verfahren, die digitale Mammografie, liefert klarere Darstellungen als herkömmliche Aufnahmen auf Röntgenfilm. Frauen, bei denen auf Grund einer familiären Vorbelastung oder wegen Mutationen in einem BRCA-Gen ein hohes Brustkrebs risiko besteht, können mit jährlichen kern spintomografischen Untersuchungen überwacht werden. Ultraschalluntersuchungen dienen vorwiegend der Abklärung bei auffälligen Mammografie- oder Tastbefunden. Ferner haben sich die operativen Verfahren in den letzen 20 Jahren grundlegend gewanSPEKTRUM DER WISSENSCHAFT · März 2009
medizin & biologie
es
Po
r to
AP Photo, Angela Rowlings
Jam
delt. Wurde früher selbst bei kleinen Tumoren das gesamte Gewebe der betroffenen Brust radikal entfernt, so kann heute oft brusterhaltend operiert werden. Auch die Bestrahlung erfolgt fokussierter, was gesundes Gewebe der Region, insbesondere von Herz und Lunge, weniger schädigt. All dies macht die Behandlung schonender, bei gleicher Erfolgsrate.
Varianten der Chemotherapie
Ausgefeilter wurde überdies der Einsatz einer zusätzlich verabreichten »adjuvanten« Therapie – dank neuer Medikamente, einfacherer Verabreichung und besserer Beherrschung der Nebenwirkungen. Das Ziel: im Körper noch verborgene Krebszellen abzutöten, die durch Operation oder Bestrahlung nicht eliminiert wurden. Das ist oft angebracht, da selbst kleine und anscheinend gut abgegrenzte Primärtumoren bereits winzigste, nicht erkennbare Metastasen fern vom Ursprungsherd gebildet haben können. Indem die adjuvante Chemotherapie diese angreift, verlängert sie die krankheitsfreien Intervalle und erhöht die Gesamtüberlebensrate. Eine adjuvante Chemotherapie verbessert zudem die Chancen für Patientinnen mit fortgeschrittenen Tumoren. In den 1970er Jahren begannen unsere wie auch andere klinische Forschungsgruppen, ein interdisziplinäres Behandlungsprogramm für Patientinnen mit lokal fortgeschrittenem Brustkrebs zu entwickeln. Häufig ist ein solcher Tumor schon so weit in benachbartes Gewebe eingedrungen, dass ein chirurgischer Eingriff allein keine Heilung mehr verspricht. Die Patientinnen erhalten dann zunächst eine so genannte neoadjuvante Chemotherapie, um die Tumormasse vor der Operation zu verkleinern. Nach dem Eingriff folgen weitere Chemotherapien und Bestrahlungen. Mit diesem multimodaSPEKTRUM DER WISSENSCHAFT · März 2009
len Vorgehen konnten koordiniert arbeitende Teams aus Ärzten, Pflegekräften und anderen Spezialisten im Lauf der letzten drei Jahrzehnte die Heilungsrate bei lokal fortgeschrittenen Tumoren deutlich steigern. Und selbst wenn Brustkrebs bereits Metastasen gebildet hat, kann inzwischen mit neuen Therapiefor men das Leben verlängert und mit verschiede nen unterstützenden Maßnahmen auch die Lebensqualität verbessert werden. Ein weiteres Standbein der Brustkrebstherapie sind Antihormone – zumindest bei hormon abhängigen Tumoren, deren Wachstum von Östrogen oder Progesteron beschleunigt wird. Hormonelle Einflüsse zu reduzieren wurde schon seit den 1890er Jahren versucht. Ärzte hatten beobachtet, dass fortgeschrittene Tumoren bei jüngeren Patientinnen, noch vor den Wechseljahren, nach operativer Entfernung der Eierstöcke oft schrumpften. Im Jahr 1966 wurden dann molekulare Rezeptoren entdeckt, die in der Brust und anderen Geweben Hormone binden und ihre Wirkung vermitteln. Folgestudien ergaben, dass bis zu 75 Prozent der invasiv wachsenden Brusttumoren Östrogenund / oder Progesteronrezeptoren tragen. Hier bot sich ein therapeutischer Ansatzpunkt. Im Jahr 1973 wurde das Antiöstrogen Tamoxifen in Großbritannien erstmals zur Behandlung des fortgeschrittenen Mammakarzinoms zugelassen, weitere Staaten folgten. Der Arzneistoff besetzt Östrogenrezeptoren, so dass das körpereigene Hormon nicht mehr dort andocken kann. Er entpuppte sich zudem als wirksame adjuvante Therapie bei lokal begrenzten Tumoren mit Östrogen- oder Progesteronrezeptoren. Als nützlich erwies sich das Medikament auch zur Prävention bei gesunden Frauen mit hohem Erkrankungsrisiko. Mittlerweile steht zur antihormonellen Therapie eine weitere Klasse von Substanzen zur Ver-
Das wachsende Bewusstsein für die Bedeutung der Früh erkennung und die intensivere Forschungsförderung führten zu einem deutlichen Rückgang der Brustkrebssterblichkeit in den Industrieländern. Das Foto zeigt Teilnehmerinnen eines Wohltätigkeitslaufs, veranstaltet vom größten Netzwerk von Brustkrebsüberlebenden und Aktivisten.
39
Krebsmedizin
Meilensteine der Brustkrebstherapie 1850 – 1970
1880 – 1900
Mit der ersten Brustamputation im Jahr 1882 begann die Ära der aggressiven Brustkrebs therapie. Die Krankheitsme chanismen und die Triebkräfte hinter dem Tumorwachstum waren jedoch völlig unbekannt. Erst das seit den 1950er Jahren stetig wachsende Verständnis ermöglichte schließlich die Entwicklung immer gezielterer Therapien.
Ein Zusammenhang zwischen Hormonen und Tumorwachstum wurde erkennbar, als Ärzte bei Brustkrebspatientinnen nach operativer Ent fernung der Eierstöcke oder bei Beginn der Menopause eine deutliche Tumorrückbildung beobachteten. 1896 Erste operative Entfernung der Eierstöcke im Rahmen einer Brustkrebstherapie durch George T. Beatson
1951 Erkenntnis, dass Östrogen das Wachstum von Brustkrebs fördert beziehungsweise Testosteron das von Prostatatumoren 1958 Krebsforscher entdecken weitere »Wachstumsfaktoren« – Proteine, die zum Gedeihen von Tumoren beitragen. 1966 Entdeckung des Östrogenrezeptors
Proteinstruktur des Östrogenrezeptors alle Tabletten: Lisa Apfelbacher; Beatson: Wellcome Library London; ÖstrogenreZeptor: Photo Researchers Mark j winter
Kleine Ursache, groSSe Wirkung Eine ererbte Mutation im BRCA1-Gen kann das Lebenszeitrisiko für Brustkrebs verzehn fachen. Erst 2007 haben Forscher herausgefunden, weshalb dies so ist: Das Produkt dieses Gens ist an der Reparatur defekter DNA beteiligt. Funktioniert es nicht richtig, steigt die Wahrscheinlichkeit von Mutationen in anderen krebsfördernden Genen.
40
fügung: Sie hemmen das Enzym Aromatase und unterdrücken dadurch die körpereigene Produktion von Östrogen. Aromatasehemmer haben sich bei Patientinnen nach den Wechseljahren dem Tamoxifen überlegen erwiesen. In einem gewissen Sinne stellen Östrogenund Progesteronrezeptoren die ersten molekularen Tumormerkmale dar, an denen man gezielt mit Medikamenten ansetzen konnte. Allerdings besteht ein wesentlicher Unterschied zu den neueren, erst in den letzten zehn Jahren entdeckten Zielmolekülen. Beide Geschlechtshormonrezeptoren fördern die Zellteilung im gesunden ebenso wie im Tumorgewebe. Veränderungen in ihrer Form und Funktion mögen zwar manchmal zur allgemeinen Bösartigkeit der Tumorzellen beitragen – das Gen für den Östrogenrezeptor ist jedoch bei Brustkrebs nur selten mutiert, kann also kein echter Krebsverursacher sein. Dass bestimmte Gene, wenn sie mutiert sind, gesunde Zellen in Tumorzellen umwandeln können, war die vielleicht wichtigste Erkenntnis der Krebsforschung seit Entdeckung der Geschlechtshormonrezeptoren. Die so genannten Onkogene werden sowohl für die Umwandlung normaler Zellen, als auch für die Förderung des Tumorwachstums verantwortlich gemacht. Daher betrachtet man Brustkrebs (wie auch andere Krebserkrankungen) heute im Grunde als »Erkrankung der Gene«. Eine Mutation kann ein schützendes, tumorunterdrückendes Gen lahmlegen oder die Aktivität eines tumorfördernden Gens hochtreiben. Dazu genügt unter Umständen der Austausch einzelner Buchstaben in der DNA-Sequenz, manchmal gehen ganze Gene verloren, in anderen Fällen werden sie vervielfacht (siehe Fotos S. 43). Tumoren lassen sich heute entweder nach den Genen klassifizieren, die in ihren Zellen
überaktiv oder unterdrückt sind, oder anhand der veränderten Menge und Funktion der entsprechenden Proteine. Welche Gene betroffen sind, kann von Tumor zu Tumor variieren. Diese Heterogenität erklärt, weshalb Brustkrebs sich individuell so unterschiedlich verhält. So neigen manche Tumoren wenig dazu, in anderes Gewebe einzudringen und Tochtergeschwulste zu bilden, andere streuen schon frühzeitig in verschiedene Organe. Die Kenntnis des jeweiligen molekularen Profils sollte es ermöglichen, vor allem die Signalmechanismen zu blockieren, die den individuellen Krebs gefährlich machen. Eines Tages wird der Arzt aus einem Arsenal von Medikamenten ein passgenaues Sortiment gegen die kritischen Moleküle des Tumors auswählen können – solche, die an dessen Entstehung, Wachstum und Metastasierung beteiligt sind. Der Erfolg von Trastuzumab und anderen gegen das HER2-Protein gerichteten Strategien zeigt schon heute das Potenzial dieses Ansatzes bei der Brustkrebstherapie.
Erfolge mit Antikörpern
Das Gen für HER2 hat eine verwickelte Geschichte, und das ist der Grund, warum man bei Recherchen dafür verschiedene Namen findet. Forscher am Massachusetts Institute of Technology in Cambridge entdeckten in den frühen 1980er Jahren bei Ratten ein mutiertes Gen in neuralen Tumoren – und nannten dieses Ratten-Onkogen entsprechend Neu (die kursive Schreibweise kennzeichnet ein Gen im Gegensatz zum Protein). Bald darauf entpuppte es sich als eine Säugetierversion des schon von Viren bekannten Gens ERBB und wurde danach auch als ERBB2 bezeichnet. Damit nicht genug: Als Wissenschaftler das von ERBB2 kodierte Protein identifizierten, erkannten sie, dass es eng verwandt war mit SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
1970 – 1990 1973 Das Antiöstrogen Tamoxifen wird in Großbritannien erstmals zur Therapie bei hormonabhängigem Brustkrebs zugelassen.
1990 – 2008
Tamoxifen, ein selektiver Östrogenrezeptormodulator
1976 Entdeckung tumorfördernder »Onkogene« bei Säugetieren
sein kann wie eine Brustamputation.
1976 In klinischen Vergleichsstudien zeichnet sich ab, dass die brusterhaltende Tumorentfernung mit nachfolgender Bestrahlung ähnlich wirksam
1988 Klinische Studien zeigen, dass eine Chemotherapie vor der Operation die Tumormasse verkleinern kann und schonendere Eingriffe ermöglicht.
1994 Das BRCA1-Gen wird isoliert; Mutationen darin steigern das Brustkrebsrisiko. 1997 Letrozol, ein Östrogensynthesehemmer, erhält in den USA die Zulassung für die Behandlung von Brustkrebs, der auf Tamoxifen nicht anspricht. 1998 Trastuzumab wird in den USA für die Brustkrebstherapie zugelassen. Es ist das erste molekular zielgerichtete Krebsmittel.
2007 Lapatinib, ein Hemmstoff der Wachstumssignalübertragung, wird in den USA für die Brustkrebstherapie zugelassen. 2007 Bevacizumab, ein Antikörper, der die Gefäßneubildung in Tumoren hemmt, wird in der EU für die Brustkrebs therapie zugelassen.
Trastuzumab trägt den Handelsnamen Herceptin.
Tamoxifen: Science Museum; Herceptin: Photo Researchers P Marazzi
einem bestimmten Membranprotein: dem epidermalen Wachstumsfaktorrezeptor (abgekürzt EGFR, nach dem englischen Begriff). Als sie schließlich die menschliche Version des ERBB2-Gens zu isolieren vermochten, gaben sie ihr den Namen für den humanen epi dermalen Wachstumsfaktorrezeptor 2, kurz HER2. Wie sich herausstellte, spielt die gesamte EGFR-Proteinfamilie eine wichtige Rolle beim ungezügelten Wachstum verschiedener Arten von Krebs. Solche Rezeptoren lösen, wenn ihr Bindungspartner andockt, im Zellinneren ein Vermehrungssignal aus, indem sie eine molekulare Kaskade in Gang setzen. In deren Verlauf werden Gene aktiviert, deren Produkte wiederum die Aktivität untergeordneter Gene regulieren (siehe Kasten S. 42/43). Kurz nach der Entdeckung des HER2-Gens wiesen Wissenschaftler nach, dass Brustkrebszellen es oft in Überzahl enthalten und dass das Vorhandensein mehrfacher Kopien damals mit einer ungünstigen Prognose einherging. Im Laborversuch ließen sich normale Zellen durch das Einführen zusätzlicher HER2Genkopien in Tumorzellen verwandeln – eine kennzeichnende Eigenschaft von Onkogenen. Da rund 20 Prozent aller bösartigen Brusttumoren das zugehörige Protein im Übermaß auf der Zelloberfläche tragen, begannen Pharmaforscher nach Hemmstoffen zu suchen. Wissenschaftler der Firma Genentech entwickelten in den späten 1980er Jahren Trastuzumab, einen so genannten monoklonalen Antikörper, der Rezeptoren der Sorte HER2 besetzt und so ihre Aktivierung verhindert. Klinische Studien ergaben eine Lebensverlängerung bei Brustkrebs sowohl im Früh- als auch im Metastasierungsstadium. Der Erfolg von Trastuzumab zog die Entwicklung ähnlicher Medikamente nach sich. SPEKTRUM DER WISSENSCHAFT · März 2009
Ein Beispiel ist Pertuzumab. Dieser Antikörper dockt an einer anderen Stelle des HER2Proteins an und hat dadurch einen Zusatz effekt: Er unterbindet die Interaktion des Rezeptors mit anderen Mitgliedern der Familie auf der Zellmembran, darunter mit EGFR oder HER3 (siehe Kasten S. 42/43). Das reduziert die weitere Signalgebung im Zellinneren. Pertuzumab kann gewisse Formen der HER2-Aktivierung selbst bei Tumorzellen stören, die gegen Trastuzumab bereits unempfindlich geworden sind. Zudem beobachteten wir, dass mit einer Kombination von Trastuzumab und Pertuzumab mehr HER2-positive Brustkrebszellen Selbstmord begehen.
Überwundene Resistenzen
Eine weitere Möglichkeit der Krebsbekämpfung besteht darin, HER2-Antikörpern ein Toxin anzuklinken. Nach der gemeinsamen Aufnahme in eine Tumorzelle koppelt es sich ab und verrichtet sein tödliches Werk. Erfolgreich waren solche Strategien schon bei anderen Arten von Krebs wie der akuten myeloischen Leukämie. In klinischen Studien wird momentan die Wirksamkeit und Sicherheit einer von Transzumab vermittelten Toxineinschleusung bei Brustkrebspatientinnen mit Metastasen untersucht. Statt außen am Rezeptor ließe sich auch innen ansetzen. Proteine der EGFR-Familie reagieren zwar auf das Andocken eines Wachstumsfaktors, doch wird das Signal weitervermittelt, indem eines ihrer Innenabschnitte Phosphatgruppen angehängt bekommt. Dies übernehmen Enzyme namens Tyrosinkinasen. Hier einen Riegel vorzuschieben ist daher eine weitere Möglichkeit, die EGFR-vermittelten Zellteilungsstimuli zu unterdrücken. Pharmafirmen arbeiten derzeit mit Hochdruck an der Entwicklung entsprechender Medikamente.
Östrogen nach den Wechseljahren Nachdem 2002 ein Report erschien, wonach die Hormon ersatztherapie nach den Wechseljahren das Brustkrebsrisiko steigert, ging die Verordnung entsprechender Medikamente deutlich zurück. Schon im Folgejahr sank die Zahl der neu diagnostizierten Erkrankungen in den USA deutlich: bei invasiv gewachsenen Tumoren um 7,3 Prozent, bei noch begrenzten, nichtinvasiven Tumoren um 5,5 Prozent.
41
Krebsmedizin Lapatinib (Handelsname Tykerb) ist ein dualer EGFR/HER2-Tyrosinkinaseinhibitor. Die Substanz wirkte in Laborversuchen bemerkenswert: Sie stoppte das Wachstum von Brustkrebs-Zelllinien, die HER2 überproduzieren, und veranlasste sie zum Selbstmord. Für einen noch besseren therapeutischen Effekt liegt es daher nahe, einen Antikörper wie Trastuzumab mit einem Tyrosinkinase inhibitor wie Lapatinib zu kombinieren. Beide Substanzen zusammen hemmen im Labortest tatsächlich das Wachstum von Brustkrebszelllinien besonders stark und erzielen eine höhere Zellselbstmordrate. Lapatinib erwies sich sogar bei Zelllinien, die nach Langzeittherapie resistent gegen Trastuzumab geworden sind, als unverändert effektiv, was die Induktion des Zellselbstmords anbelangt. Erfreulich verlief eine große klinische Studie an Patientinnen mit metastasiertem HER2-positivem Brustkrebs, der nicht mehr auf Trastuzumab ansprach. Die zusätzliche Therapie mit Lapatinib, zu einer Chemotherapie mit Capecitabin, verdoppelte die progressionsfreie Medianzeit, verglichen mit dieser Chemotherapie allein (das ist die Spanne, bis in der beobachte-
ten Gruppe schließlich bei insgesamt der Hälfte der Betroffenen die Erkrankung wieder fortgeschritten ist). Auf Grund dieser Ergebnisse erteilte die US-amerikanische Arzneimittelbehörde 2007 die Zulassung für Lapatinib in Kombination mit Capecitabin bei metastasiertem Brustkrebs, die europäische tat dies 2008. Laufende klinische Studien prüfen den Nutzen von Lapatinib in der adjuvanten Therapie unter einem breiteren Spektrum von Bedingungen. Gleiches gilt für verschiedene andere Tyrosinkinasehemmer, die eine HER2- und EGFR-Signalgebung unterbinden.
Selbstmord von Tumorzellen
Alternative Möglichkeiten zur Hemmung des gleichen Signalwegs zu finden ist wichtig, da Krebszellen schließlich oft gegen ein einzelnes Mittel resistent werden. Im Fall von Trastuzumab wird derzeit untersucht, wie und warum sich Resistenzen dagegen entwickeln. Diese Erkenntnisse sollen helfen, effektivere Wirkstoffkombinationen oder neue Arzneistoffe gegen HER2-positive Tumoren zu konzipieren. In Zellkulturen und an Tieren konnten wir beispielsweise zeigen, dass Krebszellen viele ver-
Signalwege als Angriffspunkte Die übermäßige Aktivität gewisser Proteine und Gene in Brustkrebszellen vermag eine Serie molekularer Interaktionen in Gang zu setzen, die eine ungezügelte WachstumsVermehrung (Wachstum) und das Überleben der Zellen begünstigen. e faktor e ll Beispielsweise kann das zelleigene Selbstmordprogramm außer Kraft sz b re gesetzt werden. Zu den »treibenden« Proteinen zählen viele Ober tk us r flächenrezeptoren, etwa HER2 (es gehört in dieselbe Familie B wie der Rezeptor für den epidermalen Wachstumsfaktor, IGF-1R nach dem englischen abgekürzt EGFR) oder IGF-1R (Re zeptor 1 des insulinähnlichen Wachstumsfaktors). Das Anschalten Dockt außen ein Wachstumsfaktor an, ver bindet sich das besetzte Rezeptormole Wachskül mit einem Nachbarn. Die Paarung tumszweier Rezeptormoleküle, eine Di faktor merisierung, aktiviert ihre Tyrosin dimerisiertes kinase; dieses Enzym hängt bei Rezeptorpaar den an der Zellinnnenseite je eine Phosphatgruppe an. Das setzt eine Signalkaskade Richtung Zellkern in Gang. Wachstumsfaktorrezep toren sind daher wich tige Angriffspunkte für Wirkstoffe gegen Zellmembran Krebs (Grafik ganz rechts).
42
Zellkern
Signalweg
HER2 EGFR
Gen aktivierung
RAS
raf
pI3k
akt
Phosphorylierung
Tyrosinkinase Östrogen
Östrogenrezeptor
Wie andere Wachstumsfaktorrezeptoren lagern sich auch Östrogenrezeptoren nach Aktivierung durch ihr Hormon aneinander. Das Rezeptorpaar wandert aber selbst in den Zellkern, interagiert dort direkt mit der DNA (rechts) und schaltet Gene an, die Zellteilung und Zellüberleben fördern.
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
mek
mTOR
DNA
mapk
HER2VerVielfachung Mutationen können ein Gen in Zellen vervielfachen, so dass sein Protein in zu hoher Menge entsteht. In Brustkrebszellen wurde hier das HER2-Gen rot und ein anderes grünlich fluoreszenzmarkiert. In so genannten HER2-positiven Brustkrebszellen (unten) ist das Gen in vielfacher Kopie vorhanden. Die resultierende Überproduktion von HER2-Proteinen bedeutet, dass die Zellen viel zu viele Antennen besitzen, die Wachstumsbefehle auffangen.
Angriff auf Tumorproteine Es gibt verschiedene Möglichkeiten, die Wachstumsfaktor rezeptoren auf Tumorzellen am Signalisieren zu hindern. Die Rezeptoren lassen sich auch zum Einschleusen von zielgenauen giftbestückten Trägermolekülen nutzen, da sie in der Zelle recycelt werden.
Alternative Mög lichkeiten zur Hemmungdes gleichenSignal wegs zu finden ist wichtig, da Krebs zellen oft gegen ein einzelnes Mittel resistent werden
Wachstums- Arzneistoff faktor Abfangen des Wachstumsfaktors Blockade der Bindungsstelle für den Wachstums faktor am Rezeptor
Zell wachstum
Hemmung der Rezeptorpaarung
Überleben der Zelle an zielgenaues Träger molekül gekoppelter Giftstoff (Toxin)
SPEKTRUM DER WISSENSCHAFT · März 2009
Hemmung der Tyrosinkinaseaktivität Einschleusen des Giftstoffs in die Zelle
Jen Christiansen
Effekte in der Zelle Die Signale aktivieren bestimmte Gene wie RAS, deren erzeugte Proteine ihrerseits weitere Gene beeinflussen. Die hier in ver einfachter Form dargestellte Abfolge von Gen-Protein-Wechselwirkungen führt einerseits zum Zellwachstum und unterdrückt anderseits Mechanismen, die abnorme Zel len zum Selbstmord veranlassen. Mutationen in irgendeinem der Glieder solcher Si gnalübertragungswege können ähnliche Ef fekte auslösen, daher sind sie ebenfalls po tenzielle therapeutische Angriffspunkte.
und IGF-2. Hohe IGF-1-Blutspiegel werden mit einem erhöhten Brustkrebsrisiko in Verbindung gebracht. Zudem weisen viele Studien in Labor und Klinik darauf hin, dass der IGF1-Rezeptor an Entstehung, Unterhalt und Fortschreiten verschiedener Typen von Krebs beteiligt ist. Die über ihn gestartete Signalkaskade reguliert ganz verschiedenartige Prozesse in Zellen, darunter deren Wachstum, Bewegungsfähigkeit und Schutz vor Selbstmord. Solche Signale können Tumorzellen sogar vor den Auswirkungen einer Chemo- oder Strahlentherapie schützen. Wird im Tierversuch umgekehrt die Aktivität des IGF-1-Rezeptors während dieser Therapien unterbunden, steigt die Selbstmordrate der Tumorzellen. Forscher arbeiten aber nicht nur daran, seine Hemmung direkt therapeutisch gegen Brustkrebs zu nutzen. Sie untersuchen auch, ob damit Resistenzen gegen andere Medikamente aufgehoben oder ihnen vorgebeugt werden könnte – etwa beim Einsatz von Antihormonen, Trastuzumab und Lapatinib. Zwischen dem Rezeptor für IGF-1 und denen für andere Wachstumsfaktoren, darunter Östrogen, HER2 und weitere EGRFs, bestehen
mit frdl. Gen. von Francisco J. Esteva
schiedene Mechanismen nutzen, um in Gegenwart von Trastuzumab zu überleben. Ein Trick: Sie produzieren vermehrt andere Wachstumsfaktorrezeptoren, entweder aus der EGFR/ HER-Familie oder aus weiteren Gruppen. Zu Letzteren gehört der insulinähnliche Wachstumsfaktorrezeptor-1 (IGFR-1). In überlebenden Zellen kann auch das Tumorsuppressorgen PTEN verloren gegangen oder inaktiviert sein. Dessen Produkt blockiert normalerweise einen »Survivalweg«, der das Enzym Phosphatidylinositol-3-Kinase (PI3K) beinhaltet und der geschädigten Zellen ermöglicht, den Befehl zum Selbstmord zu ignorieren (siehe Kasten unten). Wir stießen sogar auf Zellen, die überlebt hatten, weil die Stelle des Rezeptors, an der Trastuzumab sonst andockte, sich entweder durch Mutation verändert hatte oder ganz fehlte. Die Identifikation weiterer molekularer Angriffspunkte, sowohl bei HER2-positiven Tumoren als auch bei den 80 Prozent anderen, hat daher hohe Priorität in der weiteren Forschung. Zu den besonders viel versprechenden neuen Angriffspunkten in der Brustkrebstherapie gehören der IGF-1-Rezeptor und die ihn aktivierenden Wachstumsfaktoren, nämlich IGF-1
43
Krebsmedizin kommunikative Vernetzungen. Und die sind ein Schlüsselmechanismus für das Wachstum und Überleben von Brustkrebszellen. Vermutlich ist die wechselseitige Abhängigkeit und Kommunikation der verschiedenen intrazellulären Signalwege eine wesentliche Grundlage für die Entwicklung von Resistenzen gegen Krebsmedikamente. Unsere Arbeitsgruppe beispielsweise konnte zeigen, dass die Blockade des IGF-1-Rezeptors durch einen monoklonalen Antikörper die Empfindlichkeit von Tumorzellen gegen Trastuzumab wiederherstellt und die Interaktion zwischen IGF-1- und HER2-Rezeptor stört. Eine unterdrückte Signalübertragung des IGF-1-Rezeptors schickt zudem die resis-
Zielgerichtete molekulare Therapien Mehr und mehr Arzneistoffe, die spezifische Tumorproteine angreifen, werden zur Brustkrebstherapie zugelassen (fett gedruckt) oder in klinischen Studien geprüft. Die Liste zeigt eine Auswahl.
Wirkstofftyp
Angriffspunkt
● Aromatase inhibitor (blockiert ein Enzym, das an der Synthese von Östrogen und Progesteron beteiligt ist)
Östrogen-/ Progesteronrezeptoren
● monoklonaler Antikörper (stört die Akti vierung von Zellrezeptoren) ● Kinaseinhibitor (hemmt die Signalübertragung durch Zellrezeptoren) ● Impfstoff (regt die Bildung spezifischer, gegen Tumorproteine gerichteter Antikörper an, kann aus Zellen oder Peptiden – Miniproteinen gewissermaßen – bestehen) ● anderer Typ (umfasst Arzneistoffe, die andere Moleküle direkt hemmen, oder Gentherapien, die letztlich die zelluläre Proteinpro duktion verändern)
44
Wirkstoff ● ● ● ● ●
A nastrozol L etrozol E xemestan T amoxifen F ulvestrant
HER2
● ● ● ● ● ● ● ●
T rastuzumab Pertuzumab L apatinib Ertuxomab N euvax d HER2 M VF-HER2 E 1A (Gentherapie)
IGF-1-Rezeptor
● ● ● ● ●
I MC-A12 C P-751, 871 A MG 479 h 7C10 O SI-906
PI3K-AKT-mTORWeg (Regulation des Zellüberlebens)
● ● ● ●
B GT226 B EZ235A R AD001 (Everolimus) R apamycin (Sirolimus)
VEGF-Rezeptor (seine Aktivie rung fördert die Neubildung von Blutgefäßen)
● ● ● ● ● ● ● ● ●
B evacizumab S unitinib S orafenib V atalanib P azopanib A ZD2171 A MG706 A MG386 P TC299
andere Angriffspunkte
● ● ● ● ● ● ● ●
Dasatinib (SCR-Hemmer) T HERATOPE d endritische Zellvakzine P 53-Peptidimpfstoff A LT801 (p53-Inhibitor) A d5CMV-p53 (Gentherapie) A nti-p53-T-Zellen Reinfusion A ZD2281 (Inhibitor des PARP-Proteins) ●B SI-201 (PARP-Inhibitor)
tenten Zellen in den Tod. Auch der Tyrosin kinaseinhibitor Lapatinib scheint bei derartigen Zellen die IGF-1-Signalübertragung zu beeinträchtigen. Vielleicht beruht seine wachstumshemmende Wirkung nicht nur darauf, dass er Aktivitäten von EGFR/HER2 unterbindet – möglicherweise hemmt er auch direkt den IGF-1-Rezeptor.
Barrikaden auf Signalwegen
Von den beschriebenen Rezeptoren bis zu den eigentlichen Prozessen, die eine Zellteilung auslösen oder den Start des zellulären Selbstmordprogramms trotz DNA-Schäden verhindern, führt ein insgesamt hochkomplexes Netzwerk von Signalwegen. Wie Forscher in Tumorzellen festgestellt haben, sind dort Schlüsselgene entlang den Wegetappen ebenfalls oft mutiert oder fehlreguliert. Eines der bestuntersuchten Beispiele ist das Gen für PI3K: Das Enzym modifiziert ein weiteres Protein namens AKT, das seinerseits einen Proteinkomplex modifiziert, der als mTOR bezeichnet wird (von englisch mammalian target of rapamycin, Rapamycin-Zielstruktur im Säugetier). In gesunden Zellen wirkt dieser PI3K-AKT-mTOR-Signalweg entscheidend beim Energiestoffwechsel und anderen lebenswichtigen Prozesse mit. In Krebszellen ist er überaktiv und lässt sie länger überleben (siehe Kasten S. 42/43). Da die Effekte des Signalwegs überall im Körper zum Tragen kommen, könnte seine Hemmung gesunde Zellen genauso schädigen wie Krebszellen, was dem Einsatz entsprechender Substanzen bisher enge Grenzen setzt. Dennoch werden verschiedene mTOR-Inhibitoren in klinischen Studien geprüft, sowohl als Einzelsubstanzen wie auch in Kombinationen mit anderen Medikamenten. Der mTor-Inhibitor Temsirolimus beispielsweise, Handelsname Torisel, ist seit 2007 zur Therapie des metastasierten Nierenzellkarzinoms zugelassen; Rapamycin, auch als Sirolimus bekannt, Handelsname Rapamun, gehört zu den Vertretern, die schon seit einigen Jahren als Immunsuppressiva in der Transplantationsmedizin eingesetzt werden. Bisherige Studien mit Rapamycin zusammen mit einem IGF-1-Rezeptorhemmer deuten darauf hin, dass solche Kombinationen der Monotherapie überlegen sind und dass die kombinierte Hemmung dieser beiden Signalwege wohl keine so schlechte Idee darstellt. Ein anderer viel versprechender Ansatz ist die Kombination von direkt wirksamen Antitumormedikamenten mit Substanzen, die auf Komponenten in der Umgebung des Tumors zielen. Krebszellen setzen selbst eine Reihe von Wachstumsfaktoren frei, die Zellen der SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie inneren Blutgefäßwand anlocken; diese so genannten Endothelzellen formieren sich zu neu aussprossenden Blutgefäßen, die den Tumor versorgen. Der Prozess wird fachlich als Angiogenese bezeichnet. Der wichtigste dieser Proteinfaktoren ist der vaskuläre endotheliale Wachstumsfaktor (VEGF). Seine Überproduktion dürfte die Aggressivität von Tumoren steigern; hohe VEGF-Blutspiegel korrelieren mit schlechteren Überlebensraten bei Patientinnen mit Brustkrebs, der in umliegendes Gewebe vorgedrungen ist. Ein monoklonaler Antikörper gegen VEGF ist Bevacizumab (Handelsname Avastin), der 2004 in den USA, 2005 in der EU zur Behandlung des kolorektalen Karzinoms in Verbindung mit einem Chemotherapeutikum zugelassen wurde. Wie neuere klinische Studien bei bereits ausgedehnt therapierten Patientinnen mit metastasiertem Brustkrebs zeigten, hemmte dort Bevacizumab allein das Tumorwachstum nur begrenzt. Eine Kombination mit dem Chemotherapeutikum Capecitabin jedoch erzielte in bestimmten Fällen bessere Ergebnisse (siehe SdW 8/2008 S. 36). In einer anderen Studie an Patientinnen mit HER2-negativem metastasiertem Brustkrebs schritt die Erkrankung in der Gruppe schneller fort, die zu dem Chemotherapeutikum Paclitaxel kein Bevacizumab erhielt. Auf Grund solcher Ergebnisse wurde der Antikörper 2007 in der EU auch für die Brustkrebsbehandlung zugelassen.
Ein Regulator für über 1000 Gene
Verschiedene weitere Substanzen, die den VEGF-Signalweg hemmen, wurden in den letzten Jahren eingeführt oder befinden sich in der Entwicklung. Hierzu zählt zum Beispiel der Multi-Tyrosinkinasehemmer Sunitinib (Handelsname Sutent) der Firma Pfizer, der neben dem VEGF-Rezeptor auch mehrere andere Wachtumsfaktorrezeptoren am Signalisieren hindert. Sunitinib ist in der EU als Krebstherapeutikum für bestimmte Zwecke zugelassen und wird bei verschiedenen anderen Tumorarten in klinischen Studien geprüft. Gleichzeitig schreitet die Grundlagenforschung fort und fördert neue molekulare Angriffspunkte zu Tage, die sowohl etwas über die Mechanismen der Krebsentstehung aussagen, als auch Hinweise für die künftige Medikamentenentwicklung liefern. Eine solche Entdeckung verkündeten Anfang 2008 Terumi Kohwi-Shigematsu vom kalifornischen Lawrence Berkeley National Laboratory und ihre Kollegen. Ihren Erkenntnissen zufolge fungiert ein Gen namens SATB1 als Hauptregulator für die Aktivität von mehr als 1000 Genen, die am Metastasierungsprozess bei SPEKTRUM DER WISSENSCHAFT · März 2009
Brustkrebs beteiligt sind. Der Einfluss des zugehörigen Proteins ist, wie die Gruppe feststellte, dort eine notwendige und auch hin reichende Bedingung für die Entstehung von Metastasen. Diese Eigenschaft macht es zu einem besonders interessanten Angriffspunkt für die Therapie. Die Gruppe entwickelt bereits einen Hemmstoff des Proteins, der innerhalb weniger Jahre in klinischen Studien geprüft werden könnte. Fortschritte in der gezielten und individualisierten Behandlung bei Brustkrebs hängen allgemein von der weiteren Entwicklung von Diagnostika ab, mit denen sich ein Tumor auf Überproduktion von kritischen, direkt attackierbaren Zielproteinen testen lässt. Zusätzlich zu einem derartigen Proteinprofil ließe sich das gesamte Genaktivitätsmuster eines Tumors charakterisieren – und potenziell als eine Art Signatur nutzen, die Aussagen über die Krankheitsprognose erlaubt. Bereits verfügbare oder kurz vor der Zulassung stehende Tests prüfen eine Patientin auf genetische Varianten, die mit einer langsameren Verstoffwechslung eines Medikaments einhergehen. Dies ist wichtig zum Beispiel für die Therapie mit Tamoxifen, das von Stoffwechselenzymen in die aktive Form umgewandelt werden muss. Ferner gilt es, in weiteren klinischen Stu dien unterschiedliche Medikamentenkombi nationen zu erproben, um den Nutzen eines gleichzeitigen Angriffs auf mehrere Ziele nachzuweisen. So soll eine multinationale Großstudie names ALTTO Lapatinib und Trastuzumab einzeln und in Kombination entweder miteinander oder mit herkömmlichen Chemotherapeutika für frühe Stadien von HER2-positivem Brustkrebs prüfen. Die Größe dieser Studie, an der rund 1500 Kliniken in insgesamt 50 Ländern teilnehmen und für die Forschungskonsortien in Europa und den USA ihre Kräfte bündeln, steht beispielhaft für die beträchtlichen Ressourcen, die heute in die Erforschung von Brustkrebs fließen. Sie zeigt auch, dass er als bedeutende globale Gesundheitsbedrohung anerkannt ist. Die intensive Forschungstätigkeit und die vermehrte Beachtung, die der Erkrankung heute zuteilwird, tragen bereits Früchte. Im Vergleich zu anderen Arten von Tumoren, etwa der Lungen oder des Gehirns, sind die im vergangenen Jahrzehnt beim Mammakarzinom erzielten Fortschritte beeindruckend. Ärzte können spezifische Tumoreigenschaften nachweisen und für die maßgeschneiderte Therapie auf ein wachsendes Arsenal von Medikamenten zurückgreifen, was sich schon jetzt in Überlebensraten bemerkbar macht. Und: Das kommende Jahrzehnt verspricht noch dramatischere Fortschritte.
Francisco J. Esteva (links) ist Direktor des Forschungslabors für Translationale Brustkrebsforschung am M. D. Anderson Cancer Center der University of Texas, Houston, Gabriel N. Hortobagyi Direktor des dortigen Multidisziplinären Brust krebsforschungsprogramms. Esteva konzentriert sich darauf, Grundla genforschung schnell in Therapien umzusetzen. Hortobagyi, früherer Präsident der Amerikanischen Gesellschaft für Klinische Onkolo gie, wurde vielfach für seine Forschungen ausgezeichnet, die alle Aspekte der Brustkrebsbiologie, des Krankheitsmanagements und der Therapeutika umfassen.
Hunt, K. K. et al. (Hg): Breast Cancer. Second Edition. Springer, Berlin 2008. Moulder, S., Hortobagyi, G. N.: Advances in the Treatment of Breast Cancer. In: Clinical Pharmacology & Therapeutics 83(1), S. 26 – 36, Januar 2008. Nahta, R., Esteva, F. J.: Trastu zumab: Triumphs and Tribulations. In: Oncogene 26(25) S. 3637 – 3643, 28. Mai 2007. Ross, J. S., Hortobagyi, G. N. (Hg.): Molecular Oncology of Breast Cancer. Jones and Bartlett Publi shers, Boston 2005.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979752.
45
Evolution (Serie, Teil III)
Der Ameisenfreund »Man urteilt nie, bevor man etwas nicht genau untersucht hat« – Bert Hölldobler erforscht seit über 50 Jahren die Welt der Ameisen. Ein Gespräch mit dem weltbekannten Myrmekologen
SERIE: Evolution Teil I: Evolution – Gruppe oder Individuum? Teil II: Missverständnisse um Darwin Teil III: Der Ameisenforscher. Bert Hölldobler im Porträt Teil IV: Evolution und Religion
Von Hubertus Breuer
D
raußen, hinter den Lamellen der Jalousien, hat die Aprilsonne die Luft auf flirrende 34 Grad Celsius aufgeheizt. Drinnen, an seinem Schreibtisch, im klimatisierten LifeSciences-Gebäude der Arizona State University in Phoenix, hustet Bert Hölldobler, 72, jedoch und wickelt ein Erkältungsbonbon aus. »Die Erkältung ist vorbei, aber im Hals kratzt es noch«, erklärt die Koryphäe für Soziobiologie und Verhaltensphysiologie. Und dann beginnt er von seinem Leben zu erzählen – von seinen Vorfahren aus dem Bayerischen Wald, der ersten Professur in Frank-
46
SdW 1/2009 SdW 2/2009 SdW 3/2009 SdW 4/2009
furt, vom Kulturkampf an der Harvard University und dem von ihm mitgegründeten Theodor-Boveri-Institut an der Würzburger Uni versität, an dem er eine große Arbeitsgruppe zur experimentellen Soziobiologie und Verhaltensphysiologie aufbaute. Hölldobler holt aus, schweift ab, debattiert Wissenschaftspolitik – und das, kaum von Fragen und Einwürfen unterbrochen, unermüdlich, bis sich die Sonne längst über den Wüstenhorizont gesenkt und das Büro in Schatten gehüllt hat. Auf dem Schreibtisch liegen etliche Bonbonpapiere. Drahtig, mit einer silbernen, sternförmigen Gürtelschnalle der Navajo-Indianer, kurzärmligen Hemd, einem Vollbart und wachen blaugrauen Augen wirkt Hölldobler (im Bild links mit dem Autor) wie ein Naturbursche, der gerade von einer Exkursion im Bayerischen Wald oder in der Wüste zurückgekommen ist. In der Tat forscht Hölldobler nach wie vor eifrig. An der »School of Life Sciences« der Arizona State University ist er Forschungsprofessor. Dort hat er in den letzten Jahren zusammen mit dem Bienengenetiker Robert Page eine internationale Forschergruppe aufgebaut, die sich mit dem komplexen Sozialverhalten der Bienen, Ameisen und Termiten beschäftigt. Die Erforschung der Evolution dieser Insekten gesellschaften steht dabei im Mittelpunkt. Zudem hat der Verhaltensphysiologe im letzten November ein umfangreiches Buch über den »Superorganismus« veröffentlicht, zusammen mit seinem alten Harvard-Kollegen Edward Wilson, einem Popstar der Naturwissenschaften in den USA. Staaten bildende Insekten spielen darin die Hauptrolle. Bereits 1991 erschien ihr Standardwerk »The Ants«, für das beide den amerikanischen Pulitzer-Preis erhielten. SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
alle Fotos des Artikels: Spektrum der Wissenschaft / Mark Skalny
ZUR PERSON
Spektrum der Wissenschaft: Können Sie sich eine Welt ohne Ameisen vorstellen? Prof. Bert Hölldobler: Ohne Menschen, ja! Es gäbe dann zwar keine Kultur, keinen Beet hoven oder Picasso, die Städte würden den Wäldern und dem Dschungel anheimfallen. Außer für unsere Spezies wäre das keine große Katastrophe – die Natur käme also gut ohne uns zurecht. Aber ohne Ameisen? Hier in Ari zona würden viele Pflanzen aussterben, weil Ameisen ihre Samen verbreiten. Der Boden der Wüste würde hart und karstig werden. Auch der Regenwald würde zu Grunde gehen. Blattschneiderameisen eines Nestes graben in ihrer Lebenszeit 40 Tonnen Erde um. Außer dem sind viele Ameisenarten Feinde Pflanzen fressender Insekten, deren Populationen ohne Ameisen explodieren würden. Als Folge wür den die Pflanzen aussterben – und danach die Pflanzenfresser. Ameisen gehören also zweifel los zu den wichtigsten Tieren in allen terres trischen Ökosystemen. Spektrum: Die Vorliebe für Ameisen scheint Ihnen in die Wiege gelegt. Bereits Ihr Vater, eigentlich Arzt, war ebenfalls ein angesehener Zoologe, der veröffentlichte und sich in seiner Freizeit dem Studien der Ameisen widmete. SPEKTRUM DER WISSENSCHAFT · März 2009
Bert Hölldobler arbeitet über experimentelle Verhaltensphysiologie, Soziobiologie sowie die Biologie sozialer Insekten. Er wurde 1936 im oberbayerischen Erding-Andechs als Sohn eines Mediziners und Zoologen geboren. In Würzburg studierte er Biologie und Chemie, wo er 1966 über Holzameisen und die Organisation von Ameisenstaaten promovierte. 1969 habilitierte er sich an der Johann Wolfgang GoetheUniversität. Von 1971 hielt er vor allem Professuren an der Universität Frankfurt und an der Harvard Uni versity in Cambridge, Massachusetts. 1989 kehrte er an die Universität Würzburg zurück. Seit seiner Emeritierung im Jahr 2004 forscht Hölldobler an der Arizona State University in Tempe bei Phoenix, Arizona.
Hölldobler: Er wird hin und wieder noch zi tiert; vor allem seine Arbeit über die Ameisen grille ist sehr schön. Und er hat mich stark be einflusst. Mir ist noch lebhaft in Erinnerung, 1944, als mein Vater auf Heimaturlaub von der Ostfront war, ich war gerade sieben oder acht Jahre alt. Wir sind gemeinsam durch den fränkischen Wald bei Ochsenfurt gegangen. Mein Vater hat, wie so oft, Steine umgedreht, um nach der Ameisengrille Ausschau zu hal ten – und da sah ich plötzlich eine Rossamei sen-Kolonie, die Ameisen liefen wild durchei nander und brachten ihre Larven und Puppen in Sicherheit – und versickerten förmlich wie Wasser unter der Erde. Diese Erfahrung war ein echtes Schlüsselerlebnis. Spektrum: Sie waren also prädestiniert, Amei senexperte – Myrmekologe – zu werden. Hölldobler: In meiner späteren Jugendzeit habe ich mich nicht nur für Ameisen interes siert. Ich hatte Terrarien und Aquarien in meinem Zimmer, in denen ich Molche, Laub frösche und Fische hielt. In meinem Zimmer hatte ich sogar ein frei laufendes Ameisenvolk mit einer Königin. Ich verbot meiner Mutter – die eine Engelsgeduld mit mir hatte –, vor dem Nachmittag in meinem Zimmer zu sau 47
Evolution (Serie, Teil III)
»Ich wollte eine Füchsin mit unserem Dackel kreuzen. Aber zu Fuchshunden ist es nicht gekommen«
48
gen, denn erst dann hatten sich die Tiere in ihr Nest zurückgezogen. Es mussten also nicht Ameisen sein – es sollte sich aber bewegen und Verhalten zeigen. Ich erinnere mich noch gut, wie mein Vater versuchte, mir Namen von heimischen Pflanzen beizubringen, aber das war hoffnungslos. Dagegen hatte ich die Namen für die Ameisen im Frankengebiet rasch gelernt, überhaupt interessierte mich al les, was kreucht und fleucht. Spektrum: Dass es Ameisen waren, auf die Sie sich letztlich konzentrierten, kam Ihnen später zugute – schließlich wurden die Insek ten zu einem Modellorganismus für viele Fra gen, was die Entwicklung sozialer Gemein schaften, Evolution und andere Dinge angeht. Hölldobler: Sicher, aber das ist Zufall. Es hät ten wie gesagt auch andere Tiere sein können, denn in unserer Familie haben über kürzere oder längere Zeiträume alle möglichen tie rischen Hausgenossen gelebt. Meinem Vater wurden oft Vögel mit gebrochenen Flügeln gebracht, an denen ich kleine Studien durch geführt habe. Eines Tages brachte er eine klei ne Füchsin nach Hause, die wir Dolly tauften, und ich hatte geplant, sie mit unserem Dackel Perkele – das heißt auf Finnisch Maßkrug – zu kreuzen. Sie haben zwar wunderbar mitei nander gespielt, aber zu Fuchshunden ist es nicht gekommen (lacht). Spektrum: Was haben Sie von Ihrem Vater gelernt? Hölldobler: Als 1990 das mit Edward O. Wilson geschriebene Buch »The Ants« heraus kam, erschien auch eine Besprechung in der »Chicago Tribune«. Wenig später erreichte mich ein Brief aus Chicago, auf Deutsch ge schrieben von einem Dr. Eduard Huesing, der mich wegen meines seltenen Nachnamens an schrieb. Und es stellte sich heraus, dass er als junger Medizinstudent im Zweiten Weltkrieg als Sanitäter unter meinem Vater im rus sischen Karelien gedient hatte – er war dort Chefchirurg. Unter anderem hat er in dem Briefwechsel eine Szene geschildert, in der ein Landser mit zerfetztem Unterleib hereingetra gen wurde, und ein anderer Sanitäter meinte, der sei erledigt. Dann habe mein Vater gesagt:
»Man urteilt nie, bevor man etwas nicht ge nau untersucht hat.« Der Mann hat überlebt. Diese Haltung meines Vaters war mir sehr vertraut, und den Satz habe ich oft gehört. Das hat mich zweifellos geprägt. Spektrum: Wer hat Sie während Ihres Studi ums in Würzburg besonders beeinflusst? Hölldobler: Der Würzburger Neurophysio loge Hansjochen Autrum – später Ordinarius in München – hat mir gezeigt, was wissen schaftliche Zoologie ist. Später, als Dokto rand, habe ich auf einer Konferenz in Bern den jungen Martin Lindauer kennen gelernt, einen Schüler Karl von Frischs. Der kam aus Brasilien mit tollen Ergebnissen über die Kommunikation bei stachellosen Bienen, Meleponinen, zurück. An seinen Lehrstuhl bin ich dann nach der Promotion als Assistent gewechselt. Dort traf ich den späteren Präsidenten der Max-PlanckGesellschaft, Hubert Markl, den Neurophysi ologen Werner Rathmayer, die Verhaltensund Sinnesphysiologen Rüdiger Wehner, Ran dolf Menzel – damals noch Doktoranden. Später kamen der Verhaltensökologe Ulrich Maschwitz und der Verhaltens- und Tropen ökologe Eduard Linsenmair, damals ebenfalls noch Doktorand. Das war eine hervorragende Forschungs gruppe. Ich betrachte mich heute eigentlich als Schüler von Martin Lindauer. Seine He rangehensweise zeichnet sich durch genaue Beobachtung und sauberes Experimentieren aus. Und natürlich die Fähigkeit, herauszufin den, wie das Tier auf unsere Fragen antwortet. Diese Denkweise habe ich bereits während der Doktorarbeit in Würzburg entwickelt und in Frankfurt weiter ausgebaut. Spektrum: Worum ging es dabei? Hölldobler: Ich wollte herausfinden, inwie weit die Männchen, die bei den Ameisen ha ploid sind (also nur einen Chromosomensatz haben), in den Ameisenkolonien am sozialen Leben teilnehmen. Ansonsten müsste man ja annehmen, dass die Sozialgene nur bei di ploiden Weibchen exprimiert werden. Ei gentlich ist ihre einzige Funktion, beim Hochzeitsflug die künftigen Königinnen zu begatten. Sie haben also nur einmal Spaß im Leben – und dann sterben sie. Dafür können sie über 20 Jahre nach ihrem Tod noch Nach kommen zeugen, denn die Königinnen spei chern die Spermien in einer Samentasche im Hinterleib. Die meisten Männchen leben nun in der Tat nicht lange, aber in einer Arbeit des Forst zoologen Herrmann Eidmann hatte ich einen Hinweis gefunden, dass bei Rossameisen in unseren nördlichen Zonen die Männchen an scheinend im Nest überwintern. Das heißt SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie also, dass sie von Herbst bis zum Hochzeits flug im Sommer leben. Also habe ich den ganzen Lebenszyklus der Rossameisenkolo nien untersucht. Das war eine der ersten Stu dien seiner Art, und ich habe dabei herausge funden, dass die Männchen am Beginn ihres Lebens nach dem Schlüpfen aus der Puppe eine soziale Phase durchlaufen. Spektrum: Sie haben die Ameisen die ganze Zeit im Feld studiert … Hölldobler: Ja – ständig beobachten, proto kollieren, das ist das tägliche Brot eines Ver haltensforschers. Aber natürlich mussten die Kolonien auch im Labor etabliert werden, denn nur dort kann man quantitative experi mentelle Analysen durchführen. Den ersten Zeitabschnitt nach dem Schlüpfen – von Sep tember bis zum Einwintern – nannte ich, wie gesagt, die soziale Phase. Da sind die Männ chen noch stark am Futteraustausch beteiligt, bei dem Ameisen Nahrung aus ihrem »sozi alen Magen« – auch Kropf genannt – wieder hervorwürgen und mit anderen teilen. Ich habe das Futter mit radioaktiven Substanzen markiert und konnte so den Futterfluss in der Kolonie quantitativ messen. Nach dieser sozialen Phase gehen die Männchen in die Winterpause. Danach kommt die sexuelle Vorbereitungsphase. Der Fettkörper, den sie in der dieser Phase auf gebaut haben, wird jetzt aufgebraucht, die Spermatogenese wird abgeschlossen. Jetzt sind sie nicht mehr am sozialen Nahrungsaus tausch beteiligt. Sobald nun die Temperaturen die entsprechende Höhe erreichen, findet der Paarungsflug statt. Damit die Königinnen gleich nachkommen, geben die Männchen, wenn sie schwärmen, einen Synchronisations duftstoff ab; das habe ich mit meinem Freund Ulrich Maschwitz entdeckt und analysiert. Spektrum: Was kam nach der Doktorarbeit? Hölldobler: An der Universität Frankfurt wurde ich wissenschaftlicher Assistent in der Arbeitsgruppe von Martin Lindauer, außer dem habe ich mich mit einem anderen The menbereich beschäftigt. Spektrum: Worum ging es? Hölldobler: Es war schon lange bekannt, dass in den Ameisenkolonien andere Insekten als soziale Parasiten leben, zum Beispiel Kurz flügelkäfer. Das heißt, die Käferlarven werden von den Ameisen aufgezogen und die adulten (erwachsenen) Käfer von den Ameisen er nährt und beschützt. Ich wollte wissen, wie das möglich ist. Denn die Ameisen sind be kannt dafür, andere Insekten zu jagen und zu fressen. Spektrum: Was haben Sie herausgefunden? Hölldobler: Ich konnte nachweisen, dass im Lauf der Evolution die parasitischen Käfer SPEKTRUM DER WISSENSCHAFT · März 2009
den Kommunikationskode der Ameisen ent schlüsselt haben und ihn so effektiv nachma chen, dass die Ameisen sie besser füttern und pflegen als ihre eigenen Larven und Nestge nossinnen. In vergleichenden Untersuchungen konnte ich auch zeigen, wie sich dieser hoch angepasste soziale Parasitismus entwickelte. Spektrum: Das hat doch Aufsehen erregt ... Hölldobler: Ja, diese Arbeit war ein Treffer, aber ich hatte auch Glück. Die Ergebnisse wurden unter anderem im Wissenschaftsjour nal »Science« publiziert und im »Scientific American« einem größeren Publikum vorge stellt, das hat schon geholfen. So ist das Ge schäft. Danach wollte ich in die USA – und im Herbst 1969, nachdem ich mich habili tiert hatte, ließ Martin Lindauer mich ziehen. Er hat mich für ein Jahr freigestellt. Spektrum: Wie fanden Sie Harvard? Hölldobler: Eine Offenbarung. Nach diesen ewigen Sitzungen mit sinnlosen Geschäftsord nungsanträgen, die den Universitätsbetrieb in Frankfurt nahezu vollständig blockierten, kam ich nach Boston. Die Stadt war zwar damals noch reichlich verdreckt und mein Englisch verheerend, aber die Kollegen waren alle sehr freundlich, das intellektuelle Klima äußerst stimulierend. Meinen ersten Vortrag nach ei nigen Wochen habe ich noch mehr mit Hän den und Füßen als mit klaren Worten gehal ten, aber er ging ganz passabel über die Büh ne. Und ich habe sofort losgelegt. Spektrum: Mit wem haben Sie dann zusam mengearbeitet – mit Edward Wilson? Hölldobler: Ed Wilson war zwar mein Gast geber – und er hat mich auch sehr unterstützt. Aber er war damals sehr mit dem Schreiben an seiner Monografie über die Insektengesell schaften beschäftigt. Ich habe zunächst vor allem mit dem Insektenphysiologen Carroll M. Williams, er verstarb 1991, und seiner Gruppe zusammengearbeitet. Carroll war ungeheuer stimulierend, ein wahres Energiebündel. Ich habe mir außerdem die Vorlesungen des Evo lutionsbiologen Ernst Mayr angehört, der über die Jahre zu einem väterlichen Freund wurde. In Deutschland dagegen war die moderne Evo lutionsbiologie damals so gut wie nicht mehr existent. Bei den so genannten Lunch-Semi naren lernte ich die moderne Populationsgene tik kennen; und ich habe erfahren, wie man mit mathematischen Modellen zu neuen Fra gestellungen kommt. Das erste Jahr war da im Nu vorbei – und die meisten meiner Projekte noch nicht fertig. Da hat mich Martin Lindau er ein weiteres Jahr freigestellt – er war in der Tat ein großartiger Mentor. Spektrum: Plante er bereits anderes? Hölldobler: Vielleicht ja, denn eines Tages er hielt ich die Nachricht, dass man mich in
»Das intellektuelle Klima an der Havard University war äußerst stimulierend«
Lexikon I Eusozialität bezeichnet im Tierreich die Staatenbil dung. Diese liegt vor, wenn die Brut kooperativ gepflegt wird, sich der Verband in fruchtbare und unfruchtbare Tiere aufteilt und mehrere Generationen zusammen leben. Staaten bildend nennt man Insekten, die sich aus Eigennutz eusozial verhalten. Sie haben eine gemeinsame Verteidigung, eine Überwin terungs- und Schlafgemeinschaft sowie arbeitstei lige Fortpflanzung und Brutpflege.
49
Evolution (Serie, Teil III) Lexikon II Genexpression oder -exprimierung bezeichnet die Ausprägung des Genotyps – also der genetischen Infor mation – zum Phänotyp eines Organismus oder einer Zelle. Tribalismus bezeichnet eine Gesellschaft, die sich aus einer Menge kleinerer, ethnisch und kulturell homo gener Gemeinschaften zusammensetzt. Hölldobler sieht darin beim Menschen eine starke Triebkraft für die kulturelle Evolution.
»Damals wie heute gab es an amerikanischen Universitäten einige Sandkastenmarxisten«
50
Frankfurt zum Professor für Zoologie ernannt hatte. Dabei hatte ich mich gar nicht bewor ben! Die Ernennung, hieß es, sei aber nur gül tig, wenn ich eine beim deutschen Konsulat in Boston hinterlegte Urkunde unterschreiben würde. Also habe ich unter den Augen des Konsuls das Dokument unterschrieben. Spektrum: Nach Ihrer Rückkehr – wie war es dann in Frankfurt? Hölldobler: Für mich war es keine glückliche Zeit. Es ging drunter und drüber – das waren noch die Nachwehen der 68er Zeit. Ich bin zwar ein sehr liberaler Mensch, aber unseren armen Lindauer während Vorlesungen mit Pa pierfliegern und Kügelchen zu beschießen, ging doch zu weit. Und die wertvolle Zeit, die in den sinnlosen Sitzungen verplempert wur de, Sit-ins hier, Sit-ins dort … – manchmal haben wir 40 Stunden in der Woche bei ir gendwelchen Sitzungen verbracht! Und das für einen jungen Wissenschaftler, der besessen war von seiner Arbeit, der gerade aus Amerika zu rückkam, seine Arbeitsgruppe aufbauen und gute Vorlesungen halten wollte. Frustrierend! Spektrum: Lähmte das Ihre Forschung? Hölldobler: Nicht völlig, aber ich überlegte mir natürlich, gerade nach der tollen Zeit an der Harvard University, Frankfurt wieder zu verlassen. Ich stand an der Schwelle, weltweit bekannt zu werden. Da gab es beim Jahrestref fen der Internationalen Ethologischen Gesell schaft in Edinburgh, in der ansonsten meist nur Wirbeltierforscher vertreten sind, erstmals auch drei Hauptvorträge zum Insektenverhal ten. Ich war eingeladen, einen dieser Vorträge zu halten. Es waren alle damaligen Größen der Verhaltensforschung da: Leute wie Konrad Lorenz, Nikolaas Tinbergen aus Oxford, Ro bert Hind aus Cambridge, Daniel Lehrman vom New Yorker Museum of Natural History und vom Institut for Animal Behavior in Rut gers, New Jersey. Der Vortrag hätte schiefge hen können, lief aber sehr gut. Ich konnte über spannende Ergebnisse zur chemischen Kommunikation bei Ameisen berichten. Spektrum: Dann haben sich bald Cornell und Harvard um Sie bemüht ... Hölldobler: Ja – diese Entscheidung ist mir nicht leicht gefallen. Denn Cornell ist nach wie vor führend auf dem Gebiet der Verhal tens- und Neurobiologie. Ich habe mich aber 1972 für Harvard entschieden. Und da war ich dann bis 1990. Spektrum: Woran arbeiteten Sie? Hölldobler: Meine Arbeitsgruppe hat ver schiedene Fragen zur experimentellen Sozio biologie untersucht. Dabei spielten nicht nur die Ameisen eine zentrale Rolle, sondern auch Honigbienen, soziale Wespen und Termiten. Ich selbst habe mich sehr intensiv mit der Ana
lyse von territorialen Strategien bei Ameisen beschäftigt. Diese Strategien unterliegen einem Kosten-Nutzen-Prinzip. Es wird nur um Terri torien gekämpft, wenn die Chance, Ressour cen zu gewinnen, höher ist als die, Kämpfe rinnen zu verlieren. Ich habe dazu 1981 einen Leitartikel in »Science« veröffentlicht. Spektrum: Und die Kommunikation unter Ameisen? Hölldobler: Sicher, die stand ebenfalls auf dem Programm. Je tiefer und gründlicher wir uns mit den Kommunikationsmechanismen bei sozialen Insekten – und vor allem bei Ameisen – beschäftigten, desto deutlicher wurde die Komplexität ihres Kommunikati onsnetzwerks. Außerdem sind die meisten Si gnale, die vorwiegend chemischer Natur sind, Multikomponentensignale; das heißt, sie be stehen aus mehreren Substanzen. Und oft sind sie zusätzlich multimodal, das heißt, die Sti muli kombinieren unterschiedliche Sinnes modalitäten, zum Beispiel chemische und me chanische. Die Signale und die Verhaltensant worten, die diese Signale auslösen, werden natürlich im Labor untersucht. Wo immer möglich, werden aber diese sehr reduktionis tischen Analysen mit Freilanduntersuchungen an den nicht manipulierten Ameisenkolonien überprüft. Ohne Kommunikation gäbe es je denfalls kein soziales Verhalten. Übrigens auch keine Arbeitsteilung – egal, ob nun die von Organellen in der Zelle oder zwischen Zellen und Organen in einem Organismus oder zwischen Organismen in einer sozial or ganisierten Gruppe. Ohne Kommunikation ist Leben nicht möglich. Spektrum: Haben Sie ein konkretes Beispiel? Hölldobler: Die Weberameisen der Gattung Oecophylla sind ökologisch sehr dominante Tiere, die in den Tropen der Alten Welt riesige Territorien etablieren. Diese Territorien mar kieren sie mit einem koloniespezifischen Stoff gemisch, das sie über das gesamte Gebiet ver teilen. Doch gab es bei Oecophylla ein Pro blem: Die Ameisen folgten nicht oder nur sehr zögerlich den künstlichen Spuren, die wir mit diesem Pheromon legten, obgleich die Amei sen anderen, von Nestgenossinnen gelegten Spuren präzise folgten. Schließlich entdeckten wir, dass die rekru tierenden Ameisen ihre Nestgenossinnen mit einem sehr stereotypen Verhaltenssignal alar mierten. Bei der Rekrutierung zur Territorial verteidigung gleicht dieses Verhaltensmuster der Intentionsbewegung, die die Ameisen aus führen, bevor sie eine Gegnerin angreifen. Diese aggressive Intentionsbewegung wurde zum Signal ritualisiert. Zusammen mit dem chemischen Spursignal werden Nestgenossin nen zur Territorialverteilung rekrutiert. Das SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie ist ein Beispiel von multimodaler Kommuni kation bei Ameisen. Wir haben das auch in anderer Form bei mehreren anderen Ameisen arten gefunden. Spektrum: Sie haben einmal sogar vorsichtig von Syntax gesprochen. Hölldobler: Ich spreche von primitiver Syn tax, weil hier verschiedene Signale miteinan der kombiniert werden. Spektrum: An der Harvard University haben Sie ja auch Ihre Kooperation mit Edward O. Wilson begonnen. Wie fanden Sie ihn? Hölldobler: Ed ist ein wunderbarer Freund. Als Wissenschaftler sind wir allerdings recht verschieden. Wie Ed selbst in seiner Biografie schreibt, ist er alles andere als ein Experimen tator – er ordnet und synthetisiert vielmehr ein Gebiet. Das ist nicht verwunderlich: Er kommt aus der Systematik. Der Blick für das große Ganze erlaubt ihm außerdem, über die Grenzen eines Gebiets hinwegzublicken – und da kommt seine visionäre Qualität ins Spiel. Ich bin dagegen eher der Mann fürs Detail. Meine Stärke liegt in der experimentellen, quantitativen Analyse, wenngleich ich zuneh mend Freude an der die Fachgebiete übergrei fenden Synthese habe, allerdings nicht in dem Maß wie Ed Wilson. Auch hierbei ist mir das Detail wichtiger als Ed. Aber diese Unter schiede unserer Talente ergänzen sich sehr gut. Spektrum: Sie haben die Debatte um E. O. Wilsons Buch »Sociobiology« (1975) hautnah miterlebt. Das Buch handelt davon, wie Gene tierisches Verhalten beeinflussen – und das Schlusskapitel stellt die These zur Debatte, dass nicht nur die Kultur, sondern auch die Gene unser Verhalten steuern. Das löste da mals einen Skandal aus. Hölldobler: In den öffentlichen Disput war ich ziemlich involviert. Damals wie heute gab es an amerikanischen Universitäten einige Marxisten – oder anders gesagt, Sandkasten marxisten, wie ich sie gerne nenne. Denn sie spielen diese Rolle letztendlich nur, während sie andererseits ein wohlbestalltes Leben füh ren und von den Auswüchsen des realen Mar xismus wenig erfahren haben. An der Har vard University war das nicht anders – allem voran fallen die Biologen Stephen Jay Gould und Richard Lewontin in diese Kategorie, beide von der Harvard University. Nun ist es eine Sache, sachlich zu diskutie ren. Lewontin hatte sein Büro ein Stockwerk unter uns; er hätte nur ein paar Stufen nach oben gehen müssen, an Wilsons Tür klopfen und erklären können, dass sie einige seiner Aussagen für nicht gerechtfertigt hielten. Doch das machten sie nicht. Stattdessen ver öffentlichten Lewontin, Gould und andere (die Gruppe nannte sich »Science for the Peo SPEKTRUM DER WISSENSCHAFT · März 2009
ple«) einen Brief in der Zeitschrift »New York Review of Books«. Darin behaupteten sie nicht nur, dass es wahrscheinlich genetische Grundlagen nur für Essen, Stuhlgang und Schlaf gäbe. Sie brachten Eds Thesen auch in Zusammenhang mit den Gaskammern des Dritten Reichs. Das ging zu weit. Und ehe sich diese Leute dafür nicht entschuldigen, kann ich ihnen nicht vergeben. Spektrum: Aber Sie haben sich doch sicher lich gewehrt – ganz davon abgesehen, dass heute die Debatte weit gehend zu Gunsten Wilsons entschieden ist. Hölldobler: Ed hat sich meisterhaft mit der Feder gewehrt, das ist sein Florett. Ich dage gen bin zu Podiumsdiskussionen gegangen und habe ihn so gut ich konnte verteidigt. Spektrum: Was war der Anlass, mit E. O. Wilson in den 1980er Jahren das über drei Kilo schwere Buch »Ameisen« zu schreiben, für das Sie auch den Pulitzer-Preis bekamen? Hölldobler: Ich wollte zunächst nur ein kleineres Buch über Ameisenkommunikation verfassen. Ed und ich trafen uns oft zum Mit tagessen, und als ich auf das Thema Arbeits teilung kam und oft seine Arbeiten zu diesem Thema zitierte, meinte ich, warum schreiben wir das Buch nicht gemeinsam? Ed war sofort begeistert und schob nach, dass wir bei dieser Gelegenheit erstmals auch einen systemati schen Bestimmungsschlüssel mit Abbildungen aller Ameisengattungen der Welt in das Buch mit aufnehmen könnten. Ich ächzte innerlich und dachte bei mir: »O Gott, da gehen die nächsten zwei Jahre da hin …« Aber wir waren uns einig, das musste sein, denn wir wollten ja eine große Monogra fie über diese wichtige Tiergruppe schreiben, und da darf die Systematik nicht fehlen. Die Kapitel gingen dann ständig zwischen Ed und mir hin und her … das Buch hat ein Eigen leben entwickelt. Und man kann heute kaum noch sagen, welcher Teil von wem stammt. Spektrum: Warum sind Sie nach diesem gro ßen Erfolg nach Würzburg gegangen? Hölldobler: Es war eine Zäsur, ein guter Ab schluss für meine Zeit an Harvard. Außerdem wurde mir immer klarer, dass ich trotz meiner sehr guten Versorgung mit amerikanischen Forschungsgeldern keine interdisziplinäre Ar beitsgruppe mit langfristiger Perspektive auf bauen konnte. Aber ich wusste, jetzt müssten Genetik und Neurobiologie dazukommen, um soziale Insekten vertieft zu erforschen. Und der mir in Würzburg angebotene Lehrstuhl war fast so gut ausgestattet wie eine entsprechende Abteilung eines Max-Planck-Instituts. Mein Umzug ging einher mit der Grün dung des Biozentrums, in dem sich die biolo gischen Disziplinen aus drei Fakultäten zu
»Ed Wilson ist der Visionär. Ich bin dagegen der Mann fürs Detail«
51
Evolution (Serie, Teil III) INFOS Ameisen gehören zu den Staaten bildenden Insekten und bilden eine Familie innerhalb der Hautflügler. Rund 12 500 Ameisenarten sind bekannt, darunter 180 in Europa. In Deutschland dominieren die Rote Wald ameise sowie die Schwarze Wegameise. Ein Ameisenstaat kann aus mehreren Millionen Indivi duen bestehen, überwiegend unfruchtbare Weibchen, dazu eine oder mehrere Königinnen, die für die Reproduktion sorgen. Ameisen orientieren sich mit Duftstoffen (Pheromonen) sowie polarisiertem Him melslicht, manche Arten sogar über Ultraschall. Bei der sozialen Verständigung spielt auch das Betasten mit Fühlern und Beinen eine Rolle.
Literaturhinweise: Hölldobler, B., Wilson, E. O.: The Superorganism: The Beauty, Elegance, and Strangeness of Insect Societies. Norton & Company 2009; deutsche Ausgabe in Vorbereitung Hölldobler, B., Wilson, E. O.: Ameisen. Piper, München 2001.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979753.
52
sammenschlossen, ein Konzept, das ich sehr gut fand. Dann habe ich noch den LeibnizPreis bekommen, ein richtiger Glücksfall. Ich hatte tolle Postdocs, wir haben viel veröffent licht. Dennoch, hätte Harvard mir nicht an geboten, meine Professur zwei Jahre für mich freizuhalten, ich hätte den Sprung zurück nach Deutschland wohl nicht gewagt. Spektrum: Wie würden Sie die deutschen Universitäten von den amerikanischen unter scheiden? Hölldobler: Der Vergleich fällt mir schwer, da die Universitätslandschaft in den USA viel he terogener ist als in Deutschland. Im Allgemei nen aber ziehe ich das amerikanische dem deutschen Universitätssystem vor. Der Haupt grund ist, dass die amerikanischen Universi täten wesentlich autonomer sind, weil keine Wissenschaftsministerien vorgeschaltet sind. Ich zitiere gerne den deutschstämmigen ehe maligen Präsidenten der Stanford University, Gerhard Caspar, der einen Artikel in einer deutschen Zeitung mit der Schlagzeile begann: »Schafft die Wissenschaftsministerien ab!« Das Führungspersonal wird nicht von der Kollegenschaft gewählt, sondern von Fin dungskommissionen benannt. Universitäts präsidenten müssen Entscheidungen treffen und verantworten, das gilt auch für die De kane und »Chairs« der Departments. In Deutschland ist das zum Teil ein Trauerspiel. Ein für mich naheliegendes Beispiel: Seit 2004 ist meine Stelle in Würzburg unbesetzt … seit über vier Jahren! Dabei hätte man das alles im Voraus planen können. Nichts ge schah. Seither gab es immer wieder Listen, auf denen höchst unterschiedliche Kandi daten standen. Es dauerte ewig, bis man sich auf eine Person einigte – und selbst dann ließ man sich so viel Zeit oder offerierte so schlechte Bedingungen, dass die Gefragten letztlich abwinkten. So ruiniert man einen über Jahre aufgebauten sehr guten Ruf. Spektrum: Und in Amerika ist das besser? Hölldobler: Zumindest werden Entscheidun gen schneller und mit größerer Kompetenz ge troffen. Die Führungskräfte haben Entschei dungsmacht, aber sie agieren nicht ohne Kon trolle – sie werden an ihren Leistungen gemes sen. Denken Sie nur an Larry Summers, den ehemaligen Harvard-Präsidenten: Ein brillan ter Kopf, aber als sich herausstellte, dass ihm die Führungsnatur für eine solche Institution fehlt, musste er wieder gehen. Der frühere langjährige Harvard-Präsident Derek Bok hat mir bei einer Cocktailparty einmal gesagt, dass sein Ruf mit der Qualität der Professoren, die er auf Lebenszeit ernennt, steht und fällt. Und so hat er uns damals vor Fehlern bewahrt und verhindert, dass einige Leute – gegen unseren
eigenen Vorschlag – berufen wurden. Natür lich berät sich der Präsident bei jeder Einstel lung eines Professors. Da geht immer eine in ternationale Suche voraus, mit einer eigens da für bestellten internationalen Ad-hoc-Kom mission. In Deutschland wird dagegen ewig an einem Kompromiss geschmiedet, bei dem am Ende oft nichts Vernünftiges herauskommt. Spektrum: Also kein Nachteil in den USA? Hölldobler: Na ja, es ist schon schwierig, dass in den USA in den Naturwissenschaften alles von Fördergeldern abhängt. Das macht es für Grundlagenforschung wie die unsere manch mal beschwerlich. Das kann man sich in Deutschland gar nicht vorstellen, wie es ist, wenn die National Science Foundation mit unter weniger als acht Prozent aller Anträge genehmigt. Spektrum: Jetzt haben Sie mit Edward Wil son wieder ein Buch geschrieben – »The Su perorganism« heißt es. Hölldobler: Ja, das ist gerade bei Norton er schienen. Ich bin stolz auf das Werk, aber es war auch eine schwere Geburt. In dem Buch geht es um einen der großen Übergänge in der Natur, vom solitären oder primitiv sozi alen Leben zum Leben in der Gruppe, in der die Gruppenmitglieder im Lauf der Evolution immer enger interagieren, so dass die Gruppe schließlich Merkmale eines normalen Orga nismus entwickelt. Bei den eusozialen Insek ten – Ameisen, sozialen Bienen, sozialen Wes pen, Termiten – findet man solche komplexen Sozietäten, die man als Superorganismen be zeichnen kann. Spektrum: Aber auch dieses Werk begleitet eine Debatte, ob soziale Insektenstaaten – und damit der Altruismus einiger Individuen – durch Verwandten- oder Gruppenselektion entstanden ist. Hölldobler: Ja, richtig. Das hat die Arbeit an dem Buch nicht immer ganz einfach gemacht. Ed und ich sind uns einig, dass eine reine Gen-Perspektive der Evolution nicht reicht, um die Entstehung der komplexen Organisa tionen der hoch entwickelten Ameisensozie täten zu verstehen. Unsere »Multilevel Selec tion Theory« ist dafür der bessere Ansatz. Das heißt aber nicht, dass die Gen-Perspektive, die vor allem der Verwandtenselektion zu Grunde liegt, falsch ist. Mathematisch kann man bei de Theorien ineinander überführen. Es hat anfangs einige Mühe gekostet, Ed davon zu überzeugen. Denn er wollte die Verwandten selektion völlig ad acta legen zu Gunsten der Gruppenselektion, die übrigens wenig mit der einst von Konrad Lorenz und seinen Zeitge nossen propagierten Gruppenselektion ge mein hat. Wie gesagt, Ed und ich stimmen darin überein, dass das Multilevel-SelectionSPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie Modell die Evolution von Superorganismen besser erklärt, allerdings sind wir uns uneinig über die Bedeutung von Verwandtschaft für die Evolution von Eusozialität. Spektrum: Können Sie das näher erläutern? Hölldobler: Die Frage ist: Wie kommt es, dass ein Gen, das altruistisches Verhalten för dert, sich in einer Population ausbreitet? Die Antwort, auf die Evolutionsbiologen sich seit Langem geeinigt haben, ist, dass sich ein sol ches Gen dann schneller in einer Gruppe aus breitet, wenn ihre Mitglieder bereits eng mit einander verwandt sind. Der Grund: Dann ist die Chance höher, dass die anderen Indivi duen selbst Träger dieses Gens sind. Das ist die klassische Verwandtenselektion. Die Ent stehung eusozialer Systeme, in denen sich nur ein oder wenige Individuen reproduzieren und viele sterile Individuen die Nachkommen dieser reproduzierenden Individuen aufzie hen, lässt sich meines Erachtens nur mit der Verwandtenselektion erklären. Sicherlich kann sich kooperatives Gruppenverhalten auch un ter nicht verwandten Individuen entwickeln, aber es wird nie zur Eusozialität kommen. Spektrum: Das behauptet Wilson aber. Hölldobler: In der Tat. Natürlich ist es so, dass in hoch entwickelten eusozialen Sozie täten der durchschnittliche Verwandtschafts grad ziemlich niedrig sein kann, weil die Kö niginnen sich mit vielen Männchen gepaart haben, oder weil es mehrere nicht verwandte Königinnen in der Kolonie gibt. Aber diese Arten haben den point of no return längst überschritten, das heißt es gibt keine Entwick lung zurück. In solchen Insektenstaaten ist größere genetische Vielfalt sogar vorteilhaft. In unserem Buch hat sich Gott sei Dank nach zähem Ringen meine Sicht stärker durchge setzt, sonst wäre es noch nicht auf dem Markt. Natürlich wird es nicht allen Kollegen gefal len, aber das wäre ja auch langweilig. Spektrum: Und warum dann überhaupt noch von Gruppenselektion sprechen? Hölldobler: Auf der Basis der Verwandten selektion ergibt die Gruppenselektion Sinn: Wenn die gegenseitige Hilfe verwandter Indi viduen den Sozialverband stärkt, schlägt dieser womöglich andere Gruppen aus dem Feld. Dann konkurrieren Sozietäten als Ganzes mit einander. Die Kolonie, die auf Grund eines besseren Kommunikationssystems schneller eine rare Ressource findet, setzt sich besser durch und hat höhere Chancen, zu überleben und sich fortzupflanzen. Das heißt in der Kon sequenz, dass die Selektion auf verschiedenen Ebenen wirkt. Die Einheit der Evolution ist unbestritten das Gen. Aber die Selektion »sieht« nur den Phänotyp, den des Individu ums und den erweiterten Phänotyp der Grup SPEKTRUM DER WISSENSCHAFT · März 2009
pe. Je stärker dabei die Konkurrenz zwischen den Gruppen ist, desto besser funktioniert in der Regel die Kooperation innerhalb der Gruppen. Schließlich sind die Individuen in nerhalb der Gruppe so stark aufeinander ange wiesen und die Arbeitsteilung so intensiv und Konflikte innerhalb der Gruppe völlig ver schwunden, dass man tatsächlich von einem echten Superorganismus sprechen kann. Der ist jetzt die Zielscheibe der Selektion. Spektrum: Fast nebenbei haben Sie und Wil son mehrmals behauptet, das ließe sich auch auf den Menschen anwenden ... Hölldobler: Zumindest ist es plausibel anzu nehmen, dass zu Beginn der Menschheitsge schichte Zusammenschlüsse aus Familien durch ihre soziale Organisation, Technik oder moralische Vorstellungen gegenüber anderen Gesellschaften einen Wettbewerbsvorteil ge wannen. Diese Gruppen hatten bessere Chan cen, sich im Lauf der Menschheitsgeschichte durchzusetzen. Und es ist plausibel anzu nehmen, dass genetische Grundlagen der Kul tur in der Evolutionsgeschichte mit selektiert wurden. Die Bedeutung der Gruppe sehen Sie heute außerdem noch am XenophobieEffekt, dem Hang zum Tribalismus (siehe Le xikon II) – einer der stärksten Triebkräfte des Menschen. Das hat in der Vergangenheit zweifellos soziale Verbände gestärkt, ist aber in unserer Zeit ein weit gehend negatives Merk mal, das wir kulturell kontrollieren müssen. Spektrum: Zu einem Superorganismus haben wir es aber noch nicht geschafft. Hölldobler: Wir sollten das auch nicht an streben, denn das Leben in einem den Amei senstaaten ähnlichen Superorganismus wäre ziemlich langweilig. Spektrum: Wie würden Sie Ihre bisherige Laufbahn beurteilen? Hölldobler: Ich habe drei Berufsziele: Ich möchte ein möglichst guter Forscher sein; dann liegt mir sehr daran, ein guter akademischer Lehrer sein, das heißt Studenten für die Forschung begeistern und junge Wissenschaft ler heranziehen. Für mich ist die größte Er füllung meines Berufs, wenn ehemalige Schü ler in ihrer wissenschaftlichen Laufbahn erfolg reich sind. Und drittens will ich, so gut ich es kann, unsere Wissenschaft einer breiten Öf fentlichkeit vermitteln. Denn wir machen un sere Arbeit großteils mit öffentlichen Geldern. Und daraus ergibt sich eine Bringschuld. Wir sollten nicht nur unseren Kollegen von unseren Ergebnissen berichten, sondern auch den Laien. Jetzt kann nicht jeder auch gute Prosa schreiben, aber es gibt immerhin eine Aus kunftspflicht. Sonst würde ich auch nicht hier mit Ihnen den ganzen Nachmittag sitzen, um aus meinem Leben zu erzählen.
»Das Leben in einem den Ameisenstaaten ähnlichen Superorganismus wäre ziemlich langweilig«
Hubertus Breuer arbeitet als Wissenschaftsjournalist in Brooklyn/New York. Er erhielt gerade den GlaxoSmithKline-PublizistikPreis 2009.
53
Serie Mathematik (Teil VI)
Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
Wie real ist das
Unendliche
Die seit 120 Jahren ungelöste Frage nach der Kontinuumshypothese nähert sich einer überraschenden Antwort. Das liefert gute Gründe für die Annahme, dass die Theorie des Unendlichen kein Produkt wissenschaftlicher Willkür ist, sondern tiefe Wahrheiten ans Licht bringt. Von Jean-Paul Delahaye
K
ommen die natürlichen Zahlen in der Natur vor? Offensichtlich nicht. Noch nie ist jemandem die Sieben leibhaftig über den Weg ge laufen, gar nicht zu reden davon, dass man die Drei mit der Fünf – oder gar mit sich selbst – beim Multiplizieren beobachtet hätte. Gleichwohl tragen die natürlichen Zahlen ihren Namen irgendwie zu Recht. Man findet nicht die Sieben in der Natur, aber sehr häufig sieben Dinge. Es gibt viele Vorgänge in der re alen Welt, die durch eine Addition oder Multi plikation natürlicher Zahlen zu beschreiben sind. Streng genommen sind natürliche Zahlen nur Abstraktionen; aber sie sind so nützliche und universelle Hilfsmittel zum Verständnis der realen Welt, dass man geneigt ist, ihnen selbst eine Realität zuzugestehen – nicht in der beobachtbaren Welt, sondern in der Welt der Ideen, die der antike Philosoph Platon für re aler erklärte als die handgreifliche Realität.
SERIE: Die gröSSten Rätsel der Mathematik Teil I: Interview mit Gerd Faltings SdW 09/2008 Die riemannsche Vermutung Teil II: Das Komplexitätsproblem P = NP SdW 10/2008 Teil III: Goldbachsche Vermutung und Primzahlzwillingsvermutung SdW 12 /2008 Teil IV: Die Vermutung von Birch und Swinnerton-Dyer SdW 01/2009 Teil V: Die ABC-Vermutung SdW 02/2009 Teil VI: Hierarchien des Unendlichen SdW 03/2009 Teil VII: Das Navier-Stokes-Problem SdW 04/2009 Teil VIII: Das Yang-Mills-Problem SdW 05/2009 Teil IX: Was ist Mathematik? SdW 06/2009 54
Das bedeutet insbesondere, dass die natür lichen Zahlen nicht nur im Kopf irgendwel cher Menschen existieren, sondern außerhalb von ihnen: nicht persönliches Hirngespinst, nicht bloße soziale Konvention, sondern Ob jekte eigenen Rechts. Gleiches gilt für die re ellen und sogar die komplexen Zahlen; auch sie haben ihre Unentbehrlichkeit für die Be schreibung der Natur über jeden Zweifel er haben unter Beweis gestellt. Das passt zu der alltäglichen Erfahrung der Mathematiker: Sie erleben ihre Funktionen, Operatoren und na türlich auch die natürlichen Zahlen als Ge genstände, die nicht der Willkür des Betrach ters, sondern – häufig zu dessen Unmut – ih ren eigenen Gesetzen folgen. Es passt allerdings nicht zur offiziellen Lehrbuchweisheit. Angesichts der Frage »Was genau sind denn nun die natürlichen Zahlen?« greifen die Mathematiker ausdrücklich nicht auf irgendwelche Beobachtungen in der Real welt zurück oder nehmen einen besonderen Zugang zur platonischen Ideenwelt für sich in Anspruch. Vielmehr berufen sie sich auf Axi ome. Das sind möglichst einfach gehaltene Aussagen, die ohne Beweis zu glauben einem nicht sonderlich schwerfallen sollte. Aus ihnen leiten die Mathematiker durch logische Schlussfolgerungen die ganze reichhaltige Viel falt an Sätzen her, die – in diesem Fall – die Arithmetik und die Zahlentheorie ausmachen. Das Problem ist nur: Ein Axiomensystem ist ohne Zweifel eine soziale Konvention. Für die natürlichen Zahlen wurden verschiedene Systeme diskutiert; daraus ging eines als allge mein akzeptiertes Standardsystem hervor. Man nennt es ZFC nach Ernst Zermelo (1871– 1953) und Abraham Fraenkel (1891–1965); das C steht für choice, weil zu den von Zerme lo und Fraenkel aufgestellten Axiomen noch SPEKTRUM DER WISSENSCHAFT · März 2009
rechts: Linas Vepstas (http://linas.org); übrige Abbildungen: Pour la Science
1? 2
0
?
MEnsch & Geist
Dies ist nur eine von den unendlich vielen Kugeln, die das Titelbild dieser Ausgabe zeigt; aber schon in ihr spiegeln sich unendlich viele Kugeln unendlichfach.
Serie Mathematik (Teil VI)
In Kürze Das durch das Auswahlaxiom ergänzte Axiomen system von Zermelo und Fraenkel (ZFC) gilt als geeignete Basis für die Mengenlehre; insbesondere hat man nie irgendwelche Widersprüche in ZFC gefunden. r Die Kontinuumshypo these besagt, dass es keine Unendlichkeit zwischen derjenigen der natürlichen und derjenigen der reellen Zahlen gibt. Sie ist auf der Basis von ZFC unentscheidbar: Man kann die Hypothese selbst oder auch ihr Gegenteil zu ZFC hinzu fügen, ohne neue Widersprüche zu erzeugen. r In den letzten Jahren sucht man nach neuen Axiomen, die diese Indifferenz (»Symmetrie«) von ZFC gegenüber der Kontinuumshypothese brechen. r Allem Anschein nach liefert jede Methode, die überhaupt die Symmetrie bricht, das Ergebnis, dass die Kontinuumshypothese falsch ist. r
das Auswahlaxiom (axiom of choice) hinzu kommt. Woher wissen wir, dass ausgerechnet dieses Axiomensystem die natürlichen Zahlen getreulich reproduziert? Die aus dem plato nischen Ideenhimmel, wohlgemerkt, denn die Zahlen für den täglichen Gebrauch axioma tisch zu begründen ist nicht schwer. Interes sant und problematisch wird es erst da, wo die uns umgebende Realität nicht hinreicht: im Unendlichen. Georg Cantor (1845 – 1918), dem Schöp fer der modernen Mengenlehre, verdanken wir die Einsicht, dass das Unendliche in ver schiedenen Größen vorkommt. Ein Beispiel für die kleinste Sorte ist die Menge der natür lichen Zahlen. Dagegen ist die Menge der re ellen Zahlen »noch viel unendlicher«, und da rüber gibt es eine unendliche Hierarchie von immer größeren unendlichen Mengen.
Tücken des Unendlichen
Cantor war davon überzeugt, dass es zwischen der Unendlichkeit der natürlichen und jener der reellen Zahlen keine »Zwischengröße« ge ben könne. Eine Menge, die »wesentlich mehr« Elemente enthält als die natürlichen Zahlen, müsse bereits so groß sein wie das »Kontinu um«, sprich die Menge der reellen Zahlen. Al lerdings gelang es Cantor zeitlebens nicht, die se Vermutung, die so genannte Kontinuums hypothese, zu beweisen. Das Problem erwies sich als so hartnäckig und so bedeutend, dass David Hilbert (1862 – 1943) in seinem weg weisenden Vortrag auf dem 2. Internationalen Mathematikerkongress 1900 in Paris die Kon tinuumshypothese auf Platz 1 seiner berühmt gewordenen Liste von 23 Problemen setzte. Mittlerweile gibt es eine Antwort auf Hil berts Frage: Sowohl die Kontinuumshypothe
se als auch ihre Verneinung sind mit dem Axi omensystem ZFC vereinbar. Für einen Plato nisten ist ein solches Ergebnis ein harter Schlag. Ignorabimus. Wir wissen nicht, ob es in dem Ideenhimmel eine unendliche Menge in der Zwischengröße gibt, und wir können es niemals wissen, denn wenn wir es wüssten, dann wäre entweder die Kontinuumshypothe se oder ihr Gegenteil mit ZFC unvereinbar – was nicht der Fall ist. Aus diesem Befund kann man den nahelie genden Schluss ziehen, dass die ganze Vorstel lung vom Ideenhimmel zu verwerfen ist. Die Theorie des Unendlichen wäre demnach nichts weiter als ein ziemlich belangloses Glasperlen spiel, der Willkür der Mathematiker anheim gestellt, und von einer Realität jenseits des Be obachtbaren könnte keine Rede sein. Es ver steht sich, dass eine solche Konsequenz, die der ganzen Mathematik den üblen Anschein des Beliebigen und Belanglosen anzuheften droht, vielen Vertretern des Fachs nicht schme cken will. Die Auseinandersetzung ging bis ins Persön liche. Cantor litt sehr darunter, dass seine Kol legen seinem Werk diese Belanglosigkeit zu schrieben. Leopold Kronecker (1823 – 1891), einer seiner Lehrer und später sein erbitterter Gegner, hat diese Auffassung in die berühmt gewordenen Worte gefasst: »Gott hat die na türlichen Zahlen geschaffen, alles andere ist Menschenwerk.« Aber es gibt einen Ausweg. Es könnte ja sein, dass das Axiomensystem ZFC unvollstän dig ist. Vielleicht haben wir nur noch nicht verstanden, dass man den herkömmlichen Axiomen eines oder einige wenige hinzufügen muss, damit das so ergänzte System das »wah re« Unendliche getreulich wiedergibt.
Es gibt unendlich viele Unendlichkeiten (I)
f(x) C c x
f(a)
a A
(II)
P(A)
C
f(x)
x
f(a) A
c
a
P(A)
56
Eine der erstaunlichsten Entdeckungen Cantors war, dass es unendlich viele unterschiedliche Typen von Unendlichkeiten gibt. Dies ergibt sich daraus, dass die Menge P(A) aller Teilmengen von A nicht bijektiv auf A abgebildet werden kann. Beweis: Nehmen wir an, es gäbe eine Bijektion f von A auf P(A), welche jedem Element a in A genau ein Element f(a) in P(A) zuordnet. Hieraus werden wir einen Widerspruch herleiten. Wir definieren die Menge C als die Menge der Elemente x aus A, die nicht Element ihrer eigenen »Bildmenge« f (x) aus P(A) sind. Da C eine (möglicherweise leere) Teilmenge von A ist, ist C ein Element von P(A). Da f nach Voraussetzung bijektiv ist, gibt es ein eindeutig bestimmtes c in A mit C = f(c). Ist c Element
von C (Bild I), so ist es nach Definition von C kein Element von f (c) = C; Widerspruch. Liegt c nicht in C (Bild II), so ist c kein Element von f (c). Folglich liegt es nach der Definition von C in C; Widerspruch. Dieser Widerspruch zeigt, dass f nicht existiert. Unser Beweis ähnelt dem Paradox von dem Barbier, der alle Männer rasiert, die sich nicht selbst rasieren. Man kann weder sagen, der Barbier rasiere sich selbst, noch, er rasiere sich nicht selbst. P(A) ist also strikt größer als A, denn kleiner als A ist es bestimmt nicht. der Ausgehend von der unendlichen Menge natürlichen Zahlen erhält man mit dem obigen Resultat eine erste Staffel von unendlichen Mengen: , P( ), P(P( )), P(P(P( ))), …
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
Ontologischer Maximalismus und mittelalterlicher Gottesbeweis Anselm von Canterbury (1034 – 1109) glaubte die Existenz Gottes mit einem Argument be weisen zu können, das eine kuriose Ähnlichkeit mit dem ontologischen Maximalismus aufweist. »Wenn Gott existiert, so ist er vollkommen«, argumentierte Anselm. »Aber die Vollkommenheit schließt die Existenz ein, denn Existenz ist eine vornehmere Eigenschaft als Nichtexistenz, gehört folglich zur Vollkommenheit. Da Gott alle diese Eigenschaften besitzt, muss er existieren.« Damit nutzte er die Paradoxien des Unendlichen, denen die Griechen der Antike noch aus dem Weg gingen, für seine Zwecke. Im »Proslogion« erklärt Anselm, dass die reale Existenz noch vollkommener sei als die bloß vorgestellte Existenz in Gedanken. »Wir glauben, dass (Gott) etwas so Großes ist, dass nichts Größeres gedacht werden kann. Existiert ein solches Wesen etwa nicht, bloß weil die Toren in ihrem Herzen sprechen: ›Es ist kein Gott‹ (Psalm 14)? Dennoch wird dieser Tor zumindest verstehen, was er hört, wenn ich sage: ›etwas, über das hinaus nichts Größeres gedacht werden kann‹.
Rein formal könnte man diese Aufgabe da durch lösen, dass man kurzerhand die Konti nuumshypothese zum Axiom erklärt. Aber ein solch brachialer Akt wäre schiere Willkür. Die Kontinuumshypothese ist beim besten Willen nicht als eine einfache Aussage zu bezeichnen, die »eines Beweises weder fähig noch bedürf tig« ist, so die klassische Definition eines Axi oms. Außerdem könnte man ebenso gut per Axiom die Existenz einer Menge in Zwischen größe postulieren, und damit wäre der alte unbefriedigende Zustand wiederhergestellt. Nein, das zu findende Axiom muss seine Plau sibilität aus besseren Gründen beziehen als aus dem schlichten Wunsch, sich einer läs tigen Unbestimmtheit zu entledigen.
Wiederherstellung der Gewissheit
Möglicherweise hat Hugh Woodin von der University of California in Berkeley ein sol ches Axiom samt plausibler Begründung ge funden. Noch sind nicht alle Schritte seines Gedankengangs ausgearbeitet; aber wenn sei ne Ideen Bestand haben, dann ist deren über raschendes Ergebnis, dass die Kontinuums hypothese falsch ist. Von diesen Ideen soll im Folgenden die Rede sein. Auf jeden, der sich näher mit der Unend lichkeit beschäftigt, warten einige äußerst ge wöhnungsbedürftige Erkenntnisse. So hatte schon Galileo Galilei bemerkt, dass es ebenso SPEKTRUM DER WISSENSCHAFT · März 2009
Und was er versteht, ist in seinem Verstand, selbst wenn er nicht versteht, dass es existiert. Denn etwas im Verstand zu haben und zu verstehen, dass dieses Etwas existiert, ist zweierlei … Gewiss kann ein Wesen, über das hinaus nichts Größeres gedacht werden kann, nicht nur im Verstand existieren; denn wenn es nur im Verstand existierte, kann man es sich auch in der Realität denken, was größer ist. Damit wäre genau das, über das hinaus nichts Größeres gedacht werden kann, etwas, über das hinaus etwas Größeres gedacht werden kann. Das aber ist sicherlich unmöglich.«
Et certe id quo maius cogitari nequit, non potest esse in solo intellectu. Si enim vel in solo intellectu est, potest cogitari esse et in re; quod maius est. Si ergo id quo maius cogitari non potest, est in solo intellectu: id ipsum quo maius cogitari non potest, est quo maius cogitari potest. Sed certe hoc esse non potest.
viele natürliche Zahlen wie Quadratzahlen gibt. Denn die Menge der natürlichen Zah len lässt sich bijektiv, das heißt umkehrbar eindeutig, auf die Menge der Quadratzahlen abbilden: 1 → 1, 2 → 4, 3 → 9, … Jedem Element der ersten Menge entspricht genau ein Element der zweiten; keines wird wegge lassen, und keines kommt mehrfach vor. Aus dem »Paradoxon des Galilei« schlossen die Zeitgenossen, dass die Erkenntnis des Unend lichen Gott vorbehalten sei, oder auch, dass das Unendliche nicht existiere. Über diese Position sind wir dank Georg Cantor inzwischen hinaus. Wir können zwar bei einer unendlichen Menge offensichtlich nicht sinnvoll von der Anzahl ihrer Elemente sprechen, aber immerhin definieren, was es heißen soll, dass zwei Mengen »gleichmächtig sind«, das heißt gleich viele Elemente haben, nämlich immer dann, wenn es eine bijektive Abbildung zwischen ihnen gibt. Und bijektive Abbildungen (kurz: »Bijekti onen«) gibt es reichlich. So kann man zeigen, dass nicht nur die Menge der Quadratzahlen, sondern auch die der Primzahlen, die der Zweierpotenzen und viele andere Teilmengen der Menge dieser Menge selbst gleichmäch tig sind. Ein Teil kann so groß sein wie das Ganze. Nicht nur das: Man kann auch beträcht lich über die natürlichen Zahlen hinausgehen,
Bijektion oder bijektive Abbil dung: eine Zuordnung, bei welcher jedem Element a der Menge A eindeutig ein Element b der Menge B entspricht und umgekehrt. Die Menge der natürlichen Zahlenund die Menge der Quadratzahlen stehen in einer Bijektion; daraus folgt, dass sie die gleiche Größe (»Mächtigkeit«) haben.
B A
b
a
57
Serie Mathematik (Teil VI)
Kontinuumshypothese Es gibt keine unendliche Menge, deren Größe zwischen derjenigen der natürlichen Zahlen und derjenigen der reellen Zahlen R liegt.
Auswahlaxiom Gegeben sei eine unendliche Menge von Mengen; dann kann man aus jeder dieser Mengen ein Element auswählen und aus diesen Elementen eine neue Menge bilden. Für endlich viele Mengen ist das trivial: Aus {a, b, c}, {1, 2} und {A, E, I, O, U} kann man {b, 1, U} bilden. Interessant ist das Auswahlaxiom in Fällen, in denen eine Auswahl nicht durch eine Vorschrift beschreibbar ist. 1/2 1/3 1/4 1/8 1/9 1/27
...
1/4 1/16 1/32
...
...
1/5 1/125 1/25
1/6 1/36 1/216
... ... 58
...
1/7 1/49 1/343
...
1/4 1/25
1/9
1/16
1/49
1/36
...
ohne dass die Menge dadurch »wesentlich un endlicher« würde. So ist die Menge Q der ra tionalen Zahlen auch nur »abzählbar unend lich«, das heißt von der Mächtigkeit der na türlichen Zahlen, denn es gibt eine Bijektion zwischen und Q . Allerdings gibt es ein Verfahren, mit dem man von einer Menge zu einer mächtigeren Menge kommt: Zu einer Menge M bilde man die »Potenzmenge« P(M ), das ist die Menge ihrer Teilmengen. So ist zum Beispiel zu der dreielementigen Menge M={1, 2, 3} die Po tenzmenge P(M )={∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}. Diese hat acht Ele mente; im Allgemeinen enthält eine Menge mit n Elementen 2n Teilmengen. Für unend liche Mengen ist es weniger offensichtlich, aber immer noch wahr: P(M ) ist immer grö ßer als M, denn es kann keine Bijektion zwi schen M und P(M ) geben (Kasten S. 56). Wendet man das Verfahren mehrfach an, so erhält man eine unendliche Folge von im mer größeren Unendlichkeiten: ➤ die abzählbare Unendlichkeit der natür lichen Zahlen ={0, 1, 2, …}, die mit ℵ0 (»aleph-null«) bezeichnet wird; ➤ die Unendlichkeit von P( ), also diejenige aller Teilmengen von . Diese Menge lässt sich in eine Bijektion mit der Menge R der reellen Zahlen bringen; sie bildet das »Konti nuum« und wird mit 2ℵ0 bezeichnet ; ➤ noch größer: die Unendlichkeit der Menge P(P( )), der Menge aller Teilmengen von P( ), in Formeln 22ℵ0 ➤ und so weiter. Neben dieser ersten Serie von Unendlich keiten kann man mit Cantors Theorie noch eine zweite konstruieren. Man definiert ℵ1 als die kleinste Unendlichkeit, die größer ist als ℵ0, entsprechend ℵ2 als die kleinste Un endlichkeit oberhalb von ℵ1 und so weiter. Hier stellt sich die naheliegende Frage: Sind diese beiden Hierarchien des Unend lichen in Wirklichkeit ein und dieselbe? Ist also ℵ1=2ℵ0, ℵ2=2ℵ1 und allgemein ℵk=2ℵk–1? Die erste Gleichung dieser Liste entspricht der Aussage, dass jede unendliche Teilmenge der Menge R der reellen Zahlen sich entweder auf oder auf R bijektiv abbilden lässt. Das ist die Kontinuumshypothese. Ihrer großen, durch Hilberts berühmte Liste noch untermauerten Bedeutung zum Trotz ließen Fortschritte in Sachen Kontinuums hypothese auf sich warten. Zudem fielen die ersten Ergebnisse eher zur Enttäuschung der Platonisten aus. Kurt Gödel (1906 – 1978) bewies 1938, dass die Kontinuumshypothese »relativ wider spruchsfrei« zum Axiomensystem ZFC hinzu gefügt werden kann. Das heißt, ZFC mit
Kontinuumshypothese ist widerspruchsfrei unter der Voraussetzung, dass ZFC allein wi derspruchsfrei ist. Gödel ging von einer Struktur aus, welche die Axiome von ZFC erfüllt (ein »Modell« des Axiomensystems ZFC), und wählte daraus eine Teilstruktur, ebenso wie man beispiels weise aus dem Körper R der reellen Zahlen den Teilkörper Q der rationalen Zahlen aus wählen kann. In dieser Teilstruktur gelten im mer noch die Axiome von ZFC, weil sie für die ganze Struktur gelten; zusätzlich ist die Teilstruktur so konstruiert, dass in ihr die Kontinuumshypothese wahr ist. Damit hatte Gödel seine Behauptung mit einem »internen Modell« bewiesen. Dagegen ist das von Paul Cohen (1934 – 2007) eingeführte »Forcing« eine »externe« Methode. Sie ähnelt dem klassischen Verfah ren, mit dem man die Menge der rationalen Zahlen zu jener der reellen erweitert (nämlich indem man die reellen Zahlen als Grenzwerte von Folgen rationaler Zahlen erklärt). Cohen ging von einer Struktur aus, die ZFC erfüllt, und erweiterte sie so geschickt, dass für die erweiterte Struktur das Gegenteil der Kontinuumshypothese galt, also beispielsweise 2ℵ0 =ℵ2. Damit gelang es Cohen 1963 zu be weisen, dass auch die Verneinung der Konti nuumshypothese mit ZFC vereinbar ist.
Was ist ein gutes Axiom?
Gödel zählte zu den Leuten, die sich mit die ser Beliebigkeit nicht zufriedengeben moch ten. Er war davon überzeugt, die Kontinuums hypothese sei falsch und das gängige Axio mensystem einer Ergänzung bedürftig. So schrieb er: »Nur wer – wie die Intuitionisten – bestrei tet, dass die Grundbegriffe und Axiome der klassischen Mengenlehre überhaupt eine (wohl definierte) Bedeutung haben, kann sich mit sol ch einer Lösung zufriedengeben, nicht aber wer glaubt, dass sie eine gewisse Realität beschrei ben. Denn in dieser Realität muss (die Kon tinuumshypothese) entweder wahr oder falsch sein. Dass sie auf der Basis der heute bekannten Axiome unentscheidbar ist, kann nur bedeuten, dass diese Axiome keine vollständige Beschrei bung dieser Realität enthalten.« Demnach besteht die Aufgabe des Mathe matikers und Logikers darin, neue Axiome zu suchen, die, zu ZFC hinzugefügt, die Konti nuumshypothese beweisbar oder widerlegbar machen. Naturgemäß kann es keinen Beweis geben, dass ein bestimmtes Axiom, das die Forscher sich ausdenken mögen, das richtige ist. Immerhin kann man Kriterien aufstellen, welche die guten Axiome von den schlechten unterscheiden helfen. SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist Das erste Kriterium versteht sich fast von selbst: die Widerspruchsfreiheit. Ein zusätz liches Axiom darf zusammen mit den allge mein akzeptierten Axiomen von ZFC nicht auf einen Widerspruch führen. Übrigens ist auch das Auswahlaxiom unabhängig von den anderen Axiomen von ZFC, wie Gödel und Cohen bewiesen haben. Das zweite Kriterium trägt den Namen »ontologischer Maximalismus«. Die Idee da hinter ist einfach: Erkläre alles als seiend, was sein kann. Sprich keinem Objekt ohne Not die Zugehörigkeit zum platonischen Ideen himmel ab. Das entspricht der klassischen Denkweise der Mathematiker, nach der ein Objekt bereits dann existiert, wenn es wider spruchsfrei definiert werden kann. In elementarer Form ist der ontologische Maximalismus bereits in ZFC verwirklicht und leistet dort gute Dienste. Es gibt in ZFC nämlich ein Axiom, das die Existenz unend licher Mengen postuliert. Ersetzt man dieses Axiom durch seine Verneinung (»Jede Menge ist endlich«), so ergibt sich eine nicht uninte ressante Theorie, welche die klassische Arith metik umfasst, aber bald an Grenzen stößt. So fehlen ihr die reellen Zahlen, ohne die eine Physik schwerlich denkbar wäre. Nach dem Prinzip des ontologischen Ma ximalismus ist jedes Axiom, das die Existenz sehr großer Mengen behauptet, ein gutes Axi om. Dieser Leitlinie folgend, haben die Men gentheoretiker in den letzten 50 Jahren viele neue Axiome aufgestellt, die man »Axiome der großen Kardinalzahlen« nennt. Hier ein einfaches Beispiel: Der ontologische Maxima lismus zwingt uns zu der Annahme, dass es eine Menge gibt, welche größer ist als jede Menge, die in der Folge , P( ), P(P( )), P(P(P( ))) … vorkommt. Deren Größe ist wahrhaft Schwindel erregend, selbst für Ma thematiker, die mit dem »gewöhnlichen« Un endlichen keine ernsthaften Probleme haben; man bedenke, dass die übliche Mathematik sich auf den ersten drei, allenfalls vier Glie dern dieser Folge abspielt. Und diese per Axi om postulierte Menge ist nur die kleinste un ter den großen Kardinalzahlen (Spektrum der Wissenschaft 12/1998, S. 46). Im Lauf der Zeit haben die Logiker etliche verschiedene Axiome für große Kardinalzahlen aufgestellt und überprüft. Sie sind sämt lich »natürlich« in dem Sinn, dass man zu ih rer Rechtfertigung den ontologischen Maxi malismus anführen kann. Aber die Hoffnung, ein solches Axiom würde, zu ZFC hinzu gefügt, die Frage nach der Kontinuumshypo these – so oder so – beantworten, wurde ent täuscht. Man kann sogar zeigen, dass große Klassen von Axiomen der großen Kardinal SPEKTRUM DER WISSENSCHAFT · März 2009
Modell Ein Modell für eine Menge von Axiomen ist eine Struktur, welche alle diese Axiome erfüllt. Ein Modell für die Gruppenaxiome ist einfach eine Gruppe (etwa die Gruppe der Drehungen im Raum, die den Nullpunkt fest lassen). Ein Modell für ZFC ist eine Struktur, die alle Axiome von ZFC erfüllt.
@
wichtigeonlineadressen
Brainlogs Blogs für die Welt im Kopf www.brainlogs.de
Managementwissen per Fernlehre kostengünstig ortsunabhängig erwerben Qualitätsmanager, Qualitätsbeauftragter www.cqa.de
Ingwer und Meerrettich zur wirkungsvollen Entzündungshemmung bzw. Antibiose bei Pferd und Mensch www.freenet-homepage.de/Brosig-Pferde-Ingwer/
Kernmechanik – von Kernspin bis Kosmologie, von Dunkler Materie und Energie www.kernmechanik.de
KOSMOpod Astronomie zum Hören www.kosmopod.de
WISSENSlogs Science unplugged www.wissenslogs.de
GroSSe Kardinalzahlen Mengen von gigantischer Größe, größer als alle Mengen in der Folge , P( ), P(P( )), P(P(P( ))), … Diese großen Kardinalzahlen werden mit Hilfe von Axiomen konstruiert, die man zu ZFC hinzunimmt.
Hier können Sie den Leserinnen und Lesern von Spektrum der Wissenschaft Ihre WWW-Adresse mitteilen. Für € 83,00 pro Monat (zzgl. MwSt.) erhalten Sie einen maximal fünfzeiligen Eintrag, der zusätzlich auf der Internetseite von Spektrum der Wissenschaft erscheint. Mehr Informationen dazu von GWP media-marketing Susanne Förster Telefon 0211 61 88-563 E-Mail:
[email protected]
Serie Mathematik (Teil VI) Vollständigkeit
unentscheidbar
Ein System heißt vollständig, wenn man von jeder im System formulierbaren Aussage A zeigen kann, dass entweder A oder »nicht A« gilt. Gödel hat bewiesen, dass jedes widerspruchsfreie System, das reichhaltig genug ist, um darin Arith metik zu treiben, unvollständig ist. Diejenigen Formeln A, die man weder beweisen noch widerlegen kann, heißen im System unentscheidbar.
zahlen ohne Einfluss auf die Kontinuumshy pothese sind. Nachdem also der ontologische Maximalis mus als Quelle neuer, Klarheit schaffender Axiome gescheitert ist, gilt es neue Kriterien zu suchen. Das wichtigste unter diesen ist sehr subtil, aber viel versprechend; wir verdanken ihm aktuelle Fortschritte, die Hoffnung auf eine endgültige Klärung machen. Cohens Methode, das »Forcing«, ist sehr mächtig – in manchen Fällen fast zu mächtig. So kann man ein Modell von ZFC durch For cing derart vergrößern, dass die Kontinuums hypothese falsch wird (was Cohen getan hat), und dann nochmals vergrößern, und zwar so, dass die Kontinuumshypothese wahr wird! Das Forcing hat sozusagen keine Meinung zur Kontinuumshypothese, denn es kann sie ab wechselnd wahr und falsch machen.
Stabilität – das entscheidende Kriterium
Wenn es dagegen um arithmetische Aussagen geht (das sind Aussagen, in denen nur die na türlichen Zahlen vorkommen, wie beispiels weise »Es gibt unendlich viele Primzahlzwil linge«), ist Forcing keineswegs so kapriziös: Eine arithmetische Aussage, die in einem Mo dell beweisbar ist, bleibt dies in jeder Erweite rung dieses Modells durch Forcing. Man sagt: Der Bereich der Arithmetik ist unter Forcing stabil in ZFC. Dies bedeutet auch, dass ZFC ein brauchbares System für die Arithmetik darstellt. ZFC hat auch ansonsten seine Eignung unter Beweis gestellt. Bislang ist es noch nie gelungen, eine arithmetische Aussage zu for mulieren, für die ZFC unbrauchbar wäre, das heißt, die nachweislich mit den Mitteln von ZFC weder beweisbar noch widerlegbar wäre – bis auf die Aussagen, die Gödel eigens
zu diesem Zweck konstruiert hat, nämlich um seinen berühmten Unvollständigkeitssatz zu beweisen. Vollständigkeit – jede in einem System for mulierbare Aussage ist in diesem System be weis- oder widerlegbar – ist für die Arithme tik nicht zu erreichen. Das ist die Aussage der gödelschen Unvollständigkeitssätze. Da muss man sich mit etwas weniger zufriedengeben, einer »schwachen Vollständigkeit«. Eine sol che zweitbeste Eigenschaft könnte die Stabili tät sein. Ein Axiom, das zu ZFC hinzugenom men nicht nur die Arithmetik, sondern einen größeren Bereich des Universums der Mengen stabilisieren würde, würde uns also der prin zipiell unerreichbaren Vollständigkeit ein Stückchen näherbringen. Das wäre ein guter Grund, ein solches Axiom zu akzeptieren. Damit haben wir mittlerweile drei Krite rien für gute Axiome versammelt, die man zu ZFC hinzufügen sollte. Ein solches Axi om muss ➤ relativ widerspruchsfrei sein, das heißt es darf, zu ZFC hinzugefügt, keinen neuen Wi derspruch erzeugen, ➤ mit dem Prinzip des ontologischen Maxi malismus, das heißt insbesondere mit den be kannten Axiomen für große Kardinalzahlen, verträglich sein, ➤ möglichst große, neue Teile des Univer sums der Mengen stabilisieren. Hat man solche natürlichen Axiome ge funden? Ja. Zwei Axiome scheinen allen ge nannten Anforderungen zu genügen und sind deshalb Kandidaten für eine Erweiterung der Mengenlehre. Der erste Kandidat heißt »Axiom der pro jektiven Determiniertheit«, ( projective determinacy, PD) und wurde in den 1970er und 1980er Jahren erarbeitet. Es besagt, dass es für alle unendlichen Spiele einer bestimmten Ka
Eine neue Art von Logik
Hugh Woodin
60
Eines der stärksten Argumente gegen die Kontinuumshypothese beruht auf einer neuen Logik, die Hugh Woodin (Bild) vorgeschlagen hat. Es handelt sich um die W-Logik, eine Verallgemeinerung der gängigen mathematischen Logik. Man definiert eine Kollektion von Modellen und erklärt einen Satz für beweisbar in der WLogik, wenn er in jedem Modell der Kollektion beweisbar ist. Die Vollständigkeit dieser Logik (also der Nachweis, dass ein System genau dann widerspruchsfrei ist, wenn es ein Modell hat) konnte bislang nur teilweise gezeigt werden. Was fehlt, ist ein Beweis der so genannten WVermutung.
Die W-Logik ist die Logik der großen Kardinalzahlen im folgenden Sinn: Eine Behauptung ist mit Hilfe von (sehr allgemein definierten) Axiomen der großen Kardinalzahlen beweisbar, wenn sie in der W–Logik beweisbar ist. In die W-Logik ist also die Annahme, dass die Axiome der großen Kardinalzahlen gelten, gewissermaßen schon eingebaut. So wie man durch das Akzeptieren unendlicher Objekte den Übergang von der Arithmetik zur Mengenlehre bewältigte, so verschafft uns die W-Logik einen vergleichbaren Fortschritt, nämlich den Übergang vom üblichen Unendlichen zu dem der großen Kardinalzahlen.
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist tegorie eine Gewinnstrategie gibt. Vor allem Jan Mycielski, Yiannis Moschovakis und Ale xander Kechris haben wesentliche Ergebnisse erzielt und unter anderem gezeigt, dass PD den Teil des Universums der Mengen stabili siert, der ℵ1 entspricht – ein Fortschritt ge genüber ZFC, dessen Stabilitätsbereich sich auf die natürlichen Zahlen entsprechend ℵ0 beschränkt. Zudem ist PD verträglich mit den Axiomen der großen Kardinalzahlen; Donald Martin und John Steel haben 1985 sogar be wiesen, dass PD selbst in einem gewissen Sinn ein Axiom großer Kardinalzahlen ist. Unglücklicherweise sagt auch PD nichts über die Kontinuumshypothese aus. Man muss also weitergehen und Axiome suchen, welche den über ℵ1 hinausgehenden Bereich des Mengenuniversums stabilisieren. Genau hier haben die letzten Fortschritte der Theorie stattgefunden. Hugh Woodin hat ein neues Axiom vorgeschlagen, welches uns ganz in der Nähe der erhofften Lösung für die Kontinuumshypothese bringt. Es trägt den Namen WMM wie »Woodin’s Martin’s Maxi mum«, weil Woodin ein Axiom namens »Ma ximum« von Donald Martin aufgegriffen und weiterentwickelt hat. Obwohl die Situation noch nicht endgültig geklärt ist, sieht es ganz so aus, als folgte aus diesem Axiom, dass die Kontinuumshypothese falsch ist. Was spricht für das Axiom WMM? ➤ Erstens stabilisiert es den Bereich des Uni versums der Mengen, der zu ℵ2 gehört; das ist eine Stufe höher als das, was PD leistet. Also ist dieses Axiom ein guter Kandidat im Sinn unserer Kriterien. ➤ Zweitens genügt es höchstwahrscheinlich der Forderung des ontologischen Maximalis mus. Zumindest kann man zeigen, dass ein sehr ähnliches Axiom mit den Axiomen der großen Kardinalzahlen kompatibel ist. ➤ Drittens: Wenn man die Gültigkeit einer weiteren Vermutung voraussetzt, die als ver nünftig gilt und die man bald zu beweisen hofft, der so genannten W-(»Omega«-)Vermu tung, dann folgt aus WMM, dass die Konti nuumshypothese falsch ist. Allgemeiner kann man zeigen, immer un ter der Voraussetzung, dass die W-Vermutung gilt: Jede Methode, welche das Universum der Mengen bis ℵ2 stabilisiert, hat zur Folge, das die Kontinuumshypothese falsch ist. Pa trick Dehornoy von der Université de Caen bezeichnet bereits die Kontinuumshypothese als »im Wesentlichen falsch«. So wie es aussieht, trennen uns nur noch einige offene und nicht allzu schwere Fragen von einer definitiven Lösung von Hilberts er stem Problem: Anders als Cantor vor 120 Jah ren glaubte, ist das Kontinuum nicht die erste SPEKTRUM DER WISSENSCHAFT · März 2009
Unendlichkeit jenseits des Abzählbaren. Bis her gewonnene Teilergebnisse deuten darüber hinaus darauf hin, dass es nur genau eine Zwi schengröße zwischen der abzählbaren Unend lichkeit und dem Kontinuum gibt. Das ent spricht der unerwarteten Formel 2ℵ0 =ℵ2. Die Konsequenzen dieser Erkenntnis sind noch gänzlich unklar – jedenfalls zurzeit. Das Unendliche weiß noch einige seiner Ge heimnisse zu wahren.
Das Unendliche wird immer besser verstanden
Noch ist auch die Frage nach der Kontinu umshypothese nicht vollständig geklärt; eini ge Spezialisten halten auch die entgegenge setzte Antwort nicht für ausgeschlossen. So ist es denkbar, dass ein Axiom großer Kardinal zahlen gefunden wird, das die Kontinuums hypothese impliziert. Gleichwohl sind die Fortschritte gewaltig. Bereits dadurch, dass wir große Kardinalzahlen definieren und klas sifizieren können, verfügen wir über eine The orie des Unendlichen, von der man nicht be haupten kann, die Mathematiker hätten sie willkürlich erfunden. So genießt das Axiom PD, das uns nach weislich einer Form der Vollständigkeit näher bringt, bereits allgemeine Zustimmung in der Fachwelt. Woodin selbst hält es sogar für ebenso wahr und evident wie die Axiome der elementaren Arithmetik. Damit zeigt sich, dass das Unterfangen, den grundlegenden Axiomen der Mengenlehre natürliche Axiome hinzuzufügen, keine Utopie ist: Man kann sich dem Unendlichen nähern, es gibt unter unseren Bemühungen nach und nach seine Geheimnisse preis und erweist sich dabei als Teil der Realität. Andere Fachleute wie Dehornoy drücken sich etwas vorsichtiger aus: »Es scheint kaum zu bestreiten, dass die von H. Woodin bewie senen Sätze eine Aussage über etwas machen, wenn auch dieses Etwas nicht das überabzähl bare Unendliche ist, über das heute in der Re gel Sätze formuliert werden.« Allem Anschein nach hatten Cantor und Gödel Recht, als sie behaupteten, die Konti nuumshypothese sei für uns nicht frei wähl bar, sondern die Tatsache, dass diese falsch ist, sei uns vorgegeben. Offenkundig haben diese Fortschritte der mathematischen Logik eine philosophische Dimension: Wenn das Unendliche nicht et was ist, was wir uns nach unserem Belieben zurechtdefinieren, sondern vielmehr seine Formen unserem Geist aufzwingt, so ist dies ohne Frage eine unglaublich tief liegende Aus sage über die Welt und die Weise, in der wir sie wahrnehmen.
Jean-Paul Delahaye ist Professor für Informatik an der Université de Lille.
Bellotti, J.: Woodin on the Conti nuum Problem: An Overview and some Objections. In: Logic and Philosophy of Science III-1, 2005. Online unter http://www2.units. it/~episteme/L&PS_Vol3No1/ contents_L&PS_Vol3No1.htm Gödel, K.: What is Cantor’s Continuum Hypothesis? In: American Mathematical Monthly 54, S. 515 – 525, 1947. Guerrerio, G.: Kurt Gödel. Spektrum der Wissenschaft Biografie 1/2002. Woodin, H.: Set Theory after Russell. The Journey back to Eden. In: Link, G. (Hg.): One Hundred Years of Russell’s Paradox. De Gruyter, Berlin 2004. Das Unendliche. Spektrum der Wissenschaft Spezial 1/2001. Das Unendliche (plus eins). Spektrum der Wissenschaft Spezial 2/2005.
Weitere Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979755.
61
Psychoakustik
Die Biologie des
Wohlklangs
Mal traurig, mal fröhlich, dissonant oder harmonisch – Musik stürzt uns in ein Wechselbad der Gefühle. Dies sei erlerntes Verhalten, lehrt die Musikpsychologie. Eine natürliche Wirkung von Obertönen, glauben die Autoren. Von Norman D. Cook und Takefumi Hayashi
Jan Philipp Baer / iStockphoto
G
64
ute Laune oder Stolz und Selbstbewusstsein – wann immer Musik solche Assoziationen bei uns weckt, zeigt ein Blick aufs Notenblatt, dass sie in einer Dur-Tonart komponiert ist. Das gilt für Popsongs ebenso wie für die Fanfare der Tagesschau und so manche Nationalhymne. Trauerte Beatle Paul McCartney hingegen in »Yesterday« einer vergangenen Liebe nach, baute er die Klage »Why she had to go, I don’t know« auf einem Moll-Dreiklang auf. Jean Philippe Rameau, französischer Komponist und Musiktheoretiker, empfahl 1722: »Die Stimmung in Dur eignet sich für Reigen der Freude und des Jubels«, für »Melodien des Sturmes und der Wut«, aber auch zur Vermittlung von »Erhabenheit und Herrlichkeit«; Moll hingegen stünde für Anmut, Zartheit, Klage und Trauer. Diese Unterscheidung hatte sich mit dem Aufkommen mehrstimmiger Musik in der Renaissance rasch entwickelt. Dennoch verstehen Psychologen und Musiktheoretiker sie bis heute nicht. Denn nur ein einziger Halbton-Schritt unterscheidet die musikalischen Geschlechter: Erklingt ein Dur-Akkord, liegt sein zweiter Ton vier Halbtöne über dem Grundton (große Terz), bei Moll sind es nur drei (kleine Terz). Dass nicht nur Erwachsene, sondern auch Kinder ab drei Jahren Dur und Moll mit angenehmen beziehungsweise unangenehmen Gefühlen assoziieren, gilt den meisten Experten nicht als angeborenes, sondern erlerntes Verhalten: Weil die Musik im Westen nun SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
Dur bedeutet Stolz Das Deutschlandlied steht in D-Dur und schwingt sich schon im ersten Wort »Einigkeit« vom Grundton d zur Dur-Terz fis auf, um schließlich im »Vaterland« auf der Quinte a anzukommen; der Herzenswunsch »Blüh im Glanze« beginnt hoch oben auf der Oktave d''. Auch die amerikanische Nationalhymne illustriert die Bedeutung des Dur-Geschlechts: Der erste Vers »say, can you see« steigt mit dem B-Dur-Dreiklang auf die Oktave des Grundtons.
Schon Renaissancekomponisten wussten um die emotionale Wirkung der Ton geschlechter, dementsprechend sind Totenmessen meist in einer Moll-, Stücke zu fröhlichen Anlässen in einer Dur-Tonart komponiert.
einmal auf der Dur-Moll-Tonalität beruhe, hätte sich unsere Wahrnehmung an diesem Schema ausgerichtet. Das sich demnach ebenso wenig naturwissenschaftlich begründen lasse wie das Regelwerk der deutschen Rechtschreibung. Eine Sicht, die wir nicht teilen. Unseres Erachtens wurde die Bedeutung der so genannten Obertöne für das musikalische Empfinden bislang schlicht unterschätzt. Diese sind, wie vor mehr als einem Jahrhundert der deutsche Physiker Hermann von Helmholtz (1821 – 1894) erkannte, eine gute Erklärung für eine andere Qualität von Mehrklängen: die Konsonanz beziehungsweise Dissonanz. Ein Dur- oder Moll-Akkord wirkt stets in sich harmonisch und geschlossen, das ändert sich auch nicht bei einer so genannten Umkehrung, bei der statt des Grundtons dessen Oktave (1. Umkehrung) oder die Oktaven von Grundton und Terz (2. Umkehrung) gespielt werden. Wird aber beispielsweise die Terz durch die Quarte ersetzt (so genannter sus4Akkord), die Quint eines Moll-Dreiklangs um einen Halbton erniedrigt oder die eines Dur-Akkords um dieses Maß erhöht (verminderter beziehungsweise übermäßiger Akkord), erscheint der Gesamtklang unausgewogen, spannungsreich und verlangt nach »Auflösung« in einen konsonanten Dreiklang. Nun erzeugen natürliche Instrumente niemals reine Sinusschwingungen, sondern stets ein ganzes Spektrum, das sich aus dem Grundton und Vielfachen davon zusammensetzt. Das in der Mitte einer Klaviertastatur gegriffene c' besitzt beispielsweise eine Grundfrequenz F0 von 261 Hertz (Hz), als erster SPEKTRUM DER WISSENSCHAFT · März 2009
Christophe Denis / fotolia
Das Streben nach Harmonie
65
Psychoakustik Oberton F1 erklingt zudem die doppelte Frequenz (522 Hz), als F2 die dreifache (783 Hz). Anzahl und jeweilige Stärke der Teiltöne verleihen einem Instrument die Klangfarbe, so dass jenes c' auf dem Klavier anders klingt als von einem Saxophon gespielt. Weil die Amplituden der Obertonschwingungen zu höheren Ordnungszahlen hin abnehmen, prägen aber nur die ersten fünf oder sechs den Höreindruck. Helmholtz erkannte 1877 die Bedeutung dieses Phänomens für unser musikalisches Empfinden und postulierte, dass zwei Töne dann konsonant seien, wenn ihre Frequenzspektren einen Oberton oder mehrere Obertöne gemeinsam hätten. Generationen von Forschern haben das Harmonie- und Disharmonie-Empfinden bei verschiedenen Tonintervallen untersucht. Als sicher gilt: Ein Abstand von einem oder zwei Halbtönen (beispielsweise von c nach cis oder d) klingt unangenehm oder unruhig, elf Halbtöne wirken äußerst dissonant (etwa von c nach h), während die sechs Halbtöne einer übermäßigen Quart nur als leichter Missklang gehört werden.
Das Spiel der Obertöne
F1 F2 F3 F4
C
F
Ton 1: F0 Ton 2:
C' F1
F0
F' G' F2 F1
C'' E''F''G''A'' C'''D''' F3 F4 F5 F6 F2
F3 F4 F5 F6
Dissonanz – ein komplexes Phänomen
Dissonanz
Dissonanz
Empirische Untersuchungen ergaben, dass Akkorde dann als sehr dissonant empfunden werden, wenn darin zwei Töne einen Abstand von einem oder zwei Halbtönen aufweisen. Weitere Dissonanzmaxima liegen bei elf und sechs Halbtonschritten. Allein aus der Präsentation zweier reiner Sinustöne lässt sich Letzteres nicht nachvollziehen (links). Erst die Berücksichtigung von Obertönen ergibt ein theoretisches Modell, das der Erfahrung entspricht (rechts).
0 1 2 3 4 5 6 7 8 9 10 11 12
0 1 2 3 4 5 6 7 8 9 10 11 12
Größe des Intervalls (in Halbtonschritten)
Größe des Intervalls (in Halbtonschritten)
66
alle Grafiken des Artikels: Norman D. Cook
F0
Lautstärke
Jeder natürliche Ton besteht aus Sinustönen, von denen einer mit der Grundfrequenz F0, andere mit Vielfachen davon erklingen, so genannte Obertöne (linkes Bild). Musikalisch handelt es sich dabei um Intervalle zum Grundton. So entsprechen der erste und dritte Oberton Oktaven, der zweite der Quinte und der vierte einer Terz (rechtes Bild, auf einer Klaviertastatur dargestellt). Zum Gesamtton tragen höhere Ordnungen immer weniger bei. Erklingen zwei Töne gleichzeitig, entsteht das Hörergebnis durch Interaktion aller Frequenzen.
Wohl- und Missklang im Modell
Reinier Plomp, damals Audiologe an der Universität Amsterdam, modellierte 1965 gemeinsam mit dem holländischen PsycholinA guisten Willem Levelt die Wahrnehmung von 1 2 3 Hören 4 Dissonanz durch das zweier reiner Si3 F4 F6 Befund nustöne. F1 Damit F2 ließ sich derF obige aber nur bei kleinen Intervallen nachbilden, das Empfinden bei Tonabständen von sechs und elf Halbtönen gab das Modell nicht wieder (siehe unterer Kasten, linke Grafik). Spielten sie den Probanden jedoch zusätzlich Obertöne vor, also Vielfache der Grundfrequenz beider Ausgangstöne, wurde die theoretische Kurve der empirisch ermittelten immer ähnlicher. Mehr noch: Die Modellkurve zeigte mehr oder weniger ausgeprägte »Dellen«, also Intervalle geringerer Dissonanz (rechte Grafik). Und diese finden sich in Dur- und Moll-Tonleitern wieder, sie entsprechen den als konsonant empfundenen Intervallen: Im Abstand von drei oder vier Halbtönen zum Grundton liegen kleine und große Terz, bei fünf Halbtönen folgt die Quarte, bei sieben die Quinte, bei neun die Sexte und nach zwölf Halbtönen ist die Oktave erreicht. Da solche Strukturen nicht nur im Abendland die Musik prägen, handelt es sich unseres Erachtens nicht um Erlerntes, es ist vielmehr ein Hinweis auf die physiologischen Gegebenheiten unserer auditiven Wahrnehmung. SPEKTRUM DER WISSENSCHAFT · März 2009
5–3
Mensch & geist 7
Moll (zweite Umkehrung)
Dur (Grundstellung)
unteres Intervall
4–3
6 5
m2
4
M0
M2 m1
3
m0
M1
4
5
2 3–4
1 0
0
1
2
Moll (Grundstellung)
ter
be
nte
Der5Dissonanzgrad von Akkorden lässt sich in einer Farbkodierung über dem Dreiklanggitter abtragen (blau: konsonant; rot: dissonant). Wurde nur die Zahl der Halbd 3 tonabstände zwischen den Grundtönen berücksichtigt (oben), hatte das Ergebnisnt s wenig mit der Realität gemein. Doch auch die Einbeziehung von immer mehr Oberere u (d), tönen half nicht: Die normalerweise als dissonant empfundenen verminderten übermäßigen würden 0 1 2 (A) 3 und 4 5sus4-Akkorde 6 7 8 9 (S) 10 11 12 1 dieser Analyse nach als konsonant eingestuft. r
ne
sI
unteres untere Intervall nterva
l
d m M S d
S m M d S
l
ll al rtvearv t n Ins I r esre ntunt
0 1 2 3 4 5 6 7 8 9 10 1 11 1 12 13 oberes ere Interval erva l
S d m M d M A m S m M S d
sI
ll
rva
rva
nte
es
ter
ll
d S m M S M A m d m M d S
ere
unteres Intervall
M A m
M A m
ob
13 12 11 10 9 8 7 6 5 4 3 2 1 0
d S m M d
S d m M S
lll rrvvaal nttee ss IIn erree oobbe
13 13 12 12 11 11 10 10 9 9 8 8 7 7 6 6 5 5 4 4 3 3 2 2 11 0 0
anz Disson
SPEKTRUM DER WISSENSCHAFT · März 2009
7
Steckt ein Fehler M Modell? S S im 7
Ein Raster für die Musik
Als gutes Hilfsmittel bei der Analyse hat sich das Dreiklanggitter erwiesen (siehe Abbildung oben), auf dessen vertikaler beziehungsweise horizontaler Achse die Größen der beiden Intervalle in Halbtonschritten abgetragen werden. Ein Cluster aus sechs Gitterpunkten entspricht den Dur- und Moll-Akkorden mit ihren Umkehrungen, die bereits den harmonischen Rahmen der abendländischen Musik vorgeben. Auch spannungsgeladene Akkorde wie der sus4 finden dort ihren Platz, einige durchaus mögliche Kombinationen werden hier nicht betrachtet, da sie in der Praxis nicht üblich sind. Übrigens: In der arabischen und türkischen Musik mit ihren 24 statt 12 Tönen pro Oktave ist die Zahl der Akkorde höher,
6
n nz Diissso a
Wesentlich komplexer noch verhält es sich bei Mehrklängen aus mindestens drei Tönen. Von Ausnahmen abgesehen (siehe Randspalte S. 69) sind ihre Grundfrequenzen zwar lauter als die Obertöne, diese prägen aber den Klangcharakter. Spielen sie auch für das Harmonieempfinden eine Rolle? Uns interessieren in diesem Zusammenhang keine Akkorde, die um eine Sekunde oder Sept erweitert wurden, also um Intervalle, die allein auf Grund ihrer Halbtonabstände zum Grundton dissonant klingen (und die in der abendländischen Musik, ob Klassik, Pop oder Jazz deshalb beispielsweise dem Spannungsaufbau dienen). Unser Hauptaugenmerk liegt vielmehr auf solchen Dreiklängen, die diesem Schema nicht entsprechen, dennoch im Allgemeinen nicht als harmonisch eingeschätzt werden; dazu gehören verminderte, übermäßige und sus4-Akkorde (die ersten beiden bestehen aus zwei kleinen beziehungsweise zwei großen Terzen, im sus4-Dreiklang wird die Terz durch eine Quart ersetzt).
3
oberes Intervall
Auf einem Dreiklanggitter lassen sich die beiden Intervalle eines Akkords in Halbtonschritten eintragen, um die Eigenschaften des Klangs zu analysieren. Die hier dargestellten sechs Drei klänge – Dur- und Moll-Akkord sowie jeweils die 1. und 2. Umkehrung – stecken bereits den Rahmen abendländischer Musik ab.
un
te In
0 1 2 3 4 5 6 7 8 9 10 11 12 13 oberes Intervall
67
Psychoakustik
Spannung
A
nach Moll
B –1,0
nach Dur
C 1,0
0,0
Differenz der Intervalle (Intervall 2 – Intervall 1)
Vollkommen symmetrische, also aus gleich großen Intervallen bestehende Dreiklänge wirken nicht konsonant. Senken oder Erhöhen eines der Töne ergibt eine neue Struktur, die oft Duroder Moll-Charakter hat, wie Grafik und Tabelle zeigen.
einige würden zwischen den Gitterpunkten des abendländischen Rasters liegen. Auf einer dritten Achse tragen wir das nach dem Modell von Plomp und Levet berechnete Dissonanzempfinden ein (die Skala reicht von einem Wert 0,0 für harmonisch bis zu 1,0 für »sehr unangenehm«). Überall dort, wo zwischen zwei Tönen nur ein oder zwei Halbtonschritte liegen, sollte dieser Wert hoch sein. Beschränkten wir uns auf die Grundfrequenzen von Akkorden, wäre das ein begrenzter Bereich nahe dem »Nullpunkt«, der sich entlang der Intervallachsen als schmale »rote Zone« fortsetzt. Dur- und Moll-Akkorde liegen samt ihren Umkehrungen in einer »Ebene der Harmonie«. Allerdings: Das gilt auch für die erwähnten verminderten, übermäßigen und sus4-Akkorde. Das einfache Modell gibt also die Realität noch nicht adäquat wider.
Sind erneut Obertöne die Erklärung? Nehmen wir einen einfachen C-Dur-Akkord in mittlerer Oktavlage: c' - e' - g'. Der zweite Oberton zu g' ist dessen Quinte, die bereits in der nächst höheren Oktave liegt: d''. Dieser Ton ist nur zwei Halbtonschritte von e'' entfernt, dem ersten Oberton des e'. Betrachten wir nun einen übermäßigen Akkord c' - e' - gis', verkürzt sich dieser Abstand auf einen einzigen Halbton. Doch obwohl wir eine Vielzahl von Kombinationen berücksichtigten, fiel der Gesamteffekt weit schwächer aus als erwartet. Zwar erhielt die Ebene der Konsonanz eine immer komplexere Topografie und dissonante Bereiche wuchsen. Trotzdem blieb das ursprüngliche Muster weit gehend erhalten, die spannungsgeladenen Akkorde blieben in den Harmoniezonen. Die Mehrheit der Musikpsychologen erklärt dies als Lerneffekt: Weil in unserer musi-
Aus Spannung wird Wohlklang
Bezeichnung laut Harmonielehre (soweit vorhanden)
Intervallstruktur in Halbtonschritten
Akkord nach Absenkung um einen Halbton u–u–s
u–s–u
s–u–u
3 – 2
2 – 4
4 – 3
3 – 3
Akkord nach Erhöhung um einen Halbton u–u–h
u–h–u
h–u–u
3 – 4
4 – 2
2–3
4 – 3
3 – 5
5 – 4
4 – 4
4 – 5
5 – 3
3–4
5 – 4
4 – 6
6 – 5
5 – 5
5 – 6
6 – 4
4–5
6 – 5
5 – 7
7 – 6
6 – 6
6 – 7
7 – 5
5–6
7 – 6
6 – 8
8 – 7
7 – 7
7 – 8
8 – 6
6–7
5 – 1
4 – 3
6 – 2
(5 – 2)
5 – 3
6 – 1
4–2
2 – 4
1 – 6
3 – 5
(2 – 5)
2 – 6
3 – 4
1–5
8 – 7
7 – 9
9 – 8
8 – 8
8 – 9
9 – 7
7–8
9 – 8
8 – 10
10 – 9
9 – 9
9 – 10
10 – 8
8–9
3 – 5
2 – 7
4 – 6
(3 – 6)
3 – 7
4 – 5
2–6
6 – 2
5 – 4
7 – 3
(6 – 3)
6 – 4
7 – 2
5–3
u–u–s
u–s–u
s–u–u
u–u–h
u–h–u
h–u–u
Dominant 7
Dominant 7
Dur
vermindert
Moll
–
–
Dur
Dur
Dur
übermäßig
Moll
Moll
Moll
Dur
Dominant 7
–
sus4
–
–
Moll
–
–
–
Tritonus
–
–
–
–
Dominant 7
Dur
sus4
Moll
–
–
–
Dur
Dominant 7
(sus4)
Moll
–
–
Dominant 7
–
Dur
(sus4)
–
Moll
–
Dur
Dur
Dur
übermäßig
Moll
Moll
Moll
Dur
Dominant 7
Dominant 7
vermindert
Moll 7
–
Moll
Dur
Dominant 7
Dominant 7
(vermindert)
Moll 7
Moll
–
Dominant 7
Dur
Dominant 7
(vermindert)
–
Moll 7
Moll
u: unverändert
68
Spannungsakkord
s: Absenkung um einen Halbton
h: Erhöhung um einen Halbton
( ): Umkehrung
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
SPEKTRUM DER WISSENSCHAFT · März 2009
Spannung
l
13 11 9
d s a s d d s
unt
1 0
1
2
3
4
BarbershopMusik Durch präzise Intonation und Stimmführung lassen sich Obertöne derart überlagern, dass sie sich gegenseitig verstärken und beim Zuhörer die Illusion einer weiteren Stimme entsteht. Diese als »Barbershop« bezeichnete Gesangstechnik entstand in den USA in den Zeiten vor der Erfindung des Radios – um sich die Wartezeit beim Frisör zu vertreiben. Die bekannteste deutsche Gruppe dieser A-cappella-Gesangskunst waren die Comedian Harmonists.
d s d a s d s
rval Inte eres
7
5 3
5
6
7
8
9 10 11 12 13
Spannung
oberes Intervall
unte res I nter
vall
13 11 9
d
7 5
s
s s
d
a
s
d d
s
a
d
3
s
d
1
0
1
2
3
4
5
6
7
8
9 10 11 12 13
vall
13 11 9
7 5
3
1 0
1
2
Spannung
oberes Intervall
nter
Doch so leicht räumen wir nicht das Feld. Der im Januar 2008 verstorbene Musikpsychologe Leonard Meyer von der University of Chicago postulierte bereits 1956, dass musikalische Spannung entsteht, wenn die beiden Intervalle eines Akkords (oder auch die Abfolge zweier Intervalle in einer Melodie) gleich groß sind. Ob zwei kleine Terzen aufeinanderfolgen oder zwei Quinten, der Mensch kann eine solche Struktur nicht klassifizieren. Er findet keinen Anhaltspunkt, den Grundton eines Mehrklangs beziehungsweise einer Tonfolge zu identifizieren, und erlebt das musikalische Angebot deshalb noch als instabil. Auf diesem Ansatz beruht unsere Spannungskurve für Dreiklänge (siehe Grafik links). Größte Dissonanz herrscht also bei gleichen Tonabständen der den Akkord aufbauenden Intervalle; sobald aber die Symmetrie um mindestens einen Halbton gebrochen wird, geht die Spannung gegen null. Wieder erweist sich das Dreiklanggitter als gutes Analysewerkzeug. Das Überraschende – symmetrische Dreiklänge liegen dort gemäß unserer Spannungskurve in einem schmalen dissonanten Streifen, nicht aber die Umkehrungen des verminderten und des sus4-Akkords. Kommen aber neben den Grundtönen auch Obertöne ins Spiel, entspricht die Berechnung der Erfahrung: Beide Mehrklänge sowie ihre Umkehrungen liegen in Bereichen hoher Spannung, während Dur- und MollAkkorde weiterhin in der Ebene der Konsonanz verbleiben. Demnach beruht die gesamte harmonische Instabilität eines Akkords auf zwei voneinander unabhängigen akustischen Faktoren: der Dissonanz der einzelnen Intervalle sowie der symmetriebedingten Spannung aller drei Töne. Bei beiden Effekten spielen die Obertöne eine entscheidende Rolle. Dieses Modell lehrt uns auch interessante Details zur Musikgeschichte. Als die Musiker der Renaissance begannen, mehr als drei verschieden geführte Stimmen kunstvoll zu kombinieren, war dies ein weit größeres Abenteuer als bislang angenommen. Denn sie betraten
res I
Ungewissheit erzeugt Spannung
eine neue, ihnen unbekannte Klangwelt. Auf ihren Entdeckungsreisen lernten sie die Möglichkeiten und die Gefahren der Polyphonie kennen. Lag der Fokus der Komponisten zuvor auf der Abfolge von Intervallen, suchten sie nun nach symmetrischen und asymmetrischen Drei-Ton-Kombinationen. Und sie lernten die zwei Tongeschlechter zu unterscheiden, die weder mit der Dissonanz eines Intervalls noch mit dem Symmetriegrad eines Dreiklangs zu erklären sind und uns doch im Alltag überall begegnen: CasinoBetreiber lassen ihre Glücksspielautomaten Dur-Klänge dudeln, um eine angenehme Atmosphäre zu schaffen, auf einer Beisetzung wird im Allgemeinen Musik in Moll er klingen. Doch die Beobachtung von Meyer bietet einen Ansatz, das Geheimnis zu lüften. Denn um einem symmetrischen Akkord die innere
unte
kalischen Umgebung bestimmte Akkorde häufiger erklingen als andere, sind sie vertraut und werden als konsonant eingestuft, unbekannte Mehrklänge hingegen wirken seltsam und gelten deshalb als dissonant. Die Musikgeschichte bestätigt, dass sich Hörgewohnheiten tatsächlich ändern. So galt die Terz in der Renaissance noch als dissonantes Intervall, während heute im Jazz selbst eine Sekunde oder große Septime als offener Schluss unaufgelöst am Ende eines Stücks erklingen darf.
d m sMa d d Ms m d s s s m Ma m M m M d mM d s 3
4
5
6
7
8
oberes Intervall
9 10 11 12 13
Auf dem Dreiklanggitter ergibt die anhand der Intervallsymme trie berechnete Spannung eine Gerade (konsonant: blau, nicht konsonant: rot), sofern man lediglich die Grundfrequenzen berücksichtigt. Einige vermin derte und sus4-Akkordewürden dabei aber als nicht spannungs voll eingestuft. Erst mit den Obertönen F1 (Mitte) oder F1 bis F4 (unten) fallen diese Drei klänge in Spannungszonen, während Dur- und Moll-Akkorde in Bereiche geringer Spannungen auftauchen.
69
Psychoakustik
Das Tongeschlecht im Zahlenraster
–3,0
–2,0
–1,0
0
Moll b
a Dur 1,0
2,0
3,0
–1,0
Differenz der Intervalle (in Halbtonschritten)
Der Psychologe Norman D. Cook erforscht die höheren kognitiven Fähigkeiten des Homo sapiens, insbesondere die Wahrnehmung von Musik und Sprache. Takefumi Hayashi ist Ingenieur und arbeitet auf dem Gebiet der Psychophysik und Computergrafik. Beide lehren Informatik an der Universität Kansai in Osaka (Japan).
© American Scientist www.americanscientist.org
Cook, N. D.: The Sound Symbolism of Major and Minor Harmonies. In: Music Perception 24(3), S. 315 – 319, 2007. Holst, I.: Das ABC der Musik: Grundbegriffe, Harmonik, Formen, Instrumente. Reclam, Ditzingen 1992.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/artikel/ 979754.
70
m MM m M m M
schritten (links). Auf dem Dreiklanggitter abgetragen geben die Grundtöne allein die Realität nicht wieder. Berücksichtigt man hingegen auch jene Dreiklänge, die sich aus den verschiedenen Obertonkombinationen ergeben, wird das Bild eindeutig (hier mit den Obertönen F1 bis F4).
m M m M M m M
unter es In terva ll
1,0
13 12 11 10 9 8 7 6 5 43 3 2 1 0
Iunteres nter Intervall l
Modalität
Eine große Terz unten, ein kleine darüber, schon erklingt ein Dur-Akkord; das Umgekehrte gilt für Moll. Dabei beträgt der Unterschied zwischen beiden Intervallen jeweils nur einen Halbton. Doch daraus lässt sich ein Kriterium der Modalität ableiten: die Differenz von unterem und oberem Intervall in Halbton-
13 11 9
mM M m m M
7
5
3
mM m M m M
1
0 11 2 3 4 5 6 75 8 69 107 11 12 13 oberes Intervall eres Intervall
Spannung zu nehmen, wird man die Frequenz eines seiner Töne erhöhen oder senken. Im ersten Fall erreicht man bis auf wenige, nicht nach Tongeschlecht klassifizierbare Ausnahmen die Strukturen von Moll-, im zweiten Fall solche von Dur-Dreiklängen (siehe Tabelle S. 68). Die resultierenden Intervallpaarungen sind eindeutig: Ein Akkord aus beispielsweise einem drei Halbtöne umfassenden unteren und einem zwei Halbtonschritte großen oberen Intervall (3-2-Struktur) ergibt sich ausschließlich aus einem symmetrischen 3-3-Akkord, dessen oberster Ton um einen Halbton gesenkt wird. Ohne die Theorien der Harmonielehre bemühen zu müssen, lässt sich die »Modalität« eines Dreiklangs also anhand der Symmetriebrechung ermitteln. Als Maß wählten wir die Differenz der Halbtonschritte von unterem und oberem Intervall: Ist sie +1 ergibt sich ein maximaler Dur-Charakter, bei –1 ein ausgeprägtes Moll (siehe Kasten oben). Mit diesem Ansatz haben wir die sechs Standard-Dur- und -Moll-Akkorde analysiert. Betrachteten wir dabei nur die Grundfrequenzen, ergab sich einmal mehr kein eindeutiges Bild, bezogen wir hingegen Obertöne und deren Kombinationen mit ein, entsprach das Ergebnis den musikalischen Erfahrungen. Möglicherweise bestimmt unser Gehirn das Geschlecht eines Akkords oder einer Tonfolge also durch Addieren aller Modalitäten der Teiltöne. Bleibt noch die Frage nach der emotionalen Wertigkeit von Dur und Moll. Mögli-
0 1 2 3 4 5 6 7 8 9 10 11 12 13 oberes Intervall
cherweise hat auch diese einen biologischen Grund. Wollen Tiere ihren Artgenossen soziale Stärke, Aggression oder Dominanz durch Laute vermitteln, fallen diese oft zum Ende des Klangs hin zu niedrigeren Frequenzen ab. Umgekehrt bedeuten ansteigende Stimmäußerungen häufig soziale Schwäche, Niederlage oder Unterwerfung. Dieser Frequenzkode mag letztlich in der Anatomie begründet sein: Große Tiere haben im Allgemeinen tiefere Stimmen als kleine. Ein solcher Kode findet sich auch im Sprachmuster des Menschen: Frequenzanstieg begleitet beispielsweise Fragen oder Äußerungen von Respekt. Befehle, Aussagen oder Dominanz dagegen unterstreichen wir mit einer fallenden Intonation. Das erinnert an die beschriebene Symmetriebrechung im musikalischen Kontext: Erhöhen eines Intervalls um einen halben Ton führt zu Moll, Senken zu Dur. In der Musikwissenschaft wurden diese neuen Erkenntnisse bislang wenig beachtet. Es wäre allerdings auch eine wahrhaft her kulische Aufgabe, die gesamte Harmonielehre zu überarbeiten und auf eine psychoakustische Basis zu stellen. Vielleicht würde dann aber beispielsweise verständlicher, warum die vor wenigen Jahrzehnten propagierte Los lösung von aller Tonalität weit gehend ohne Publikum stattfand: Das Wechselspiel von Spannung und Auflösung, die Gefühlswelt der Tongeschlechter lassen sich nicht durch noch so intellektuell anspruchsvolle Kompositionen ersetzen. Dazu ist Musik zu tief in unserer Biologie verankert. SPEKTRUM DER WISSENSCHAFT · März 2009
Wissenschaft im Rückblick
120 KilobyteGroßrechenanlage »Eine … ausschließlich mit Transistoren arbeitende elek tronische Großrechenanlage neuester Bauart wurde jetzt in
den USA in Betrieb genom men. Die Rechengeschwin digkeit liegt um ein Vielfaches höher als bei den bisherigen Datenverarbeitungssystemen. … Die reine Rechenge schwindigkeit der 7090 be trägt 210 000 Additionen oder Subtraktionen in einer einzigen Sekunde. Mehr als 32 000 zehnstellige Zahlen können in dem Magnetkern speicher festgehalten wer den.« Automatik, Heft 3, 4. Jg., März 1959, S. 94
Verbesserte Diagnostik durch invasive Fotografie
Verblüffende Mutation entdeckt »Als eine revolutionäre Entdeckung auf dem Gebiete der Ge netik wurde … das Ergebnis des amerikanischen Pflanzengene tikers R. A. Brink, Unversity of Wisconsin, … verbreitet. … Er stellte bei Untersuchungen über verschieden gefärbte Maissor ten zufällig fest, daß eine Mutation eingetreten war; wenn eine rotgefärbte mit einer ungefärbten, aber gefleckten Abart ge kreuzt wurde, so verschwand – offenbar wiederholt – die rot gefärbte Variante. Wiederholte Kreuzungsversuche … führten zu dem Schluss, daß lediglich das zeitweilige Zusammentreten der beiden Gene, des roten wie des gefleckten Mais, als Allel diese Wirkung hervorruft.« Deutsche medizinische Wochenschrift, Nr. 12,
Blitzlicht im Brustkasten
84. Jg., 20. März 1959, S. 574
Jg., März 1959, S. 33
Luftstraßenbahn
Internationaler Wetterdienst
»Unsere Luftschifftechniker sind rastlos an der Arbeit, die Luft als neuen Verkehrsweg der Allgemeinheit so schnell als mög lich zu erschließen. … Das eigenartigste Projekt dieser Art ist die Luftbahn, eine Erfindung des Ingenieurs Leps in Marburg; sie stellt ein Mittelding zwischen elektrischer Bahn und Luft schiff dar, besteht aus einem Ballon und Personenwagen und läuft, wie eine Trambahn, einem elektrischen Kabel entlang.« Umschau, Nr. 13, 13. Jg., 27. März 1909, S. 280 Der Flug zu Arbeit und Einkauf blieb ein Traum.
»Der Chef der Lungenabteilung des Lainzer Krankenhauses in Wien hat eine neue Untersuchungsmethode entwickelt. Ein an einer Kleinbildkamera angeschlossenes Thoratoskop wird in den Körper eingestochen. An der Spitze befindet sich eine Na del mit einer winzigen Glühbirne … sowie ein Blitzlämpchen, welches beim Fotografieren zusätzliches Licht spendet. Zwi schen den Lämpchen befindet sich das Objektiv, welches das Bild in die Kamera spiegelt. … Farbaufnahmen sollten eine ge naue Diagnose ermöglichen.« Neuheiten und Erfindungen, Nr. 287, 26.
»Der Vertrag zwischen der deutschen Seewarte in Ham burg (und) dem Meteorolo gischen Institut in London … über die Lieferung von Wet terberichten vom Atlantischen Ozean durch Radiote legraphie ist zum Abschluss gelangt. Es werden zunächst versuchsweise in den Früh jahrsmonaten täglich zwei Te legramme durch Schiffe …
nach der englischen Station in Malin-Head gegeben, von wo sie durch Telegramm an die deutsche Seewarte gelan gen, die sie den deutschen Wetterstationen mitteilt.« Zeit schrift für Schwachstromtechnik, Heft 5, 3. Jg., März 1909, S. 138
Bestimmung der Schwerkraft auf dem Ozean »Eine Bestimmung der Schwerkraft auf dem Indischen und Großen Ozean ist durch O. Hecker mit Hilfe von Siedether mometern und photographisch registrierenden Quecksilber barometern ausgeführt worden. Diese Bestimmungen auf ho her See, … ergaben …, daß die Schwere auf dem Ozean durch aus normale Werte besitzt. … Die Massenerhebungen der Kontinente müssen demnach durch Massendefekte im Erd innern ausgeglichen sein und ebenso die Ozeane durch ent sprechend größere Dichtigkeit unter dem Meeresgrunde.« Na turwissenschaftliche Wochenschrift, Nr. 11, 14. März 1909, S. 170 SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
71
spektrum-essay: Wissenschaftstheorie
Manche Schwäne
sind grau
Woher wissen wir, dass alle, wirklich alle Schwäne weiß sind? Seltenlassen sich wahr und falsch so eindeutig feststellen, wie man möchte. Vielleicht brauchen wir eine realistischere Definition von wissenschaftlicher Wahrheit.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
72
Von Robert Matthews
W
as ist der Unterschied zwi schen Astronomie und Astro logie? Ganz einfach: Astro nomie ist die wissenschaft liche Erforschung von Himmelsobjekten, Astrologie ist Hokuspokus. Jeder, der auch nur ein bisschen von Wissenschaft versteht, weiß warum. Astronomie erfüllt das Krite rium empirischer Naturforschung: Ihre Be hauptungen lassen sich stets auf die Probe stellen – genauer gesagt, sie sind falsifizierbar. Seit der österreichisch-britische Philosoph Karl Popper (1902 – 1994) vor gut 70 Jahren als grundlegendes Kennzeichen echter Wis senschaft die Falsifizierbarkeit definierte, gilt sie vielen Forschern als zuverlässige Waffe im Kampf gegen die Pseudowissenschaft. Phy siker und Nobelpreisträger Steven Weinberg preist den Wiener Denker als den größten Wissenschaftsphilosophen, und Kosmologe Frank Tipler nennt Poppers Hauptwerk »Lo gik der Forschung« das bedeutendste Buch seines Jahrhunderts. Doch die Zeiten ändern sich. Poppers Wis senschaftsdefinition wird durch das Aufkom men durchaus seriös gemeinter Ideen, die sei nem Kriterium nicht zu genügen scheinen, auf eine harte Probe gestellt. An den Grenzen der Wissenschaft sprießen vielerlei Hypothe sen, die sich anscheinend unmöglich falsifizie
ren lassen – von Versuchen, das fundamentale Wesen der Raumzeit zu verstehen, bis zu The orien für die Ereignisse vor dem Urknall. Muss deshalb die Beschäftigung mit solch verblüffenden Ideen als Pseudowissenschaft abgekanzelt werden? Oder sollten die Forscher die Falsifizierbarkeit lockerer nehmen? Diese Debatte spaltet die Gemeinde der Wissen schaftler. Einige lassen keinen Zweifel an ih rem rigorosen Standpunkt.
Ist das Multiversum Pseudowissenschaft?
»Ich hätte nie gedacht, dass seriöse Forscher derart pseudowissenschaftliche Behauptungen aufstellen«, sagt Peter Woit, Mathematiker an der Columbia University in New York und Autor des Buchs »Not Even Wrong«, einer beißenden Kritik an aktuellen Moden in der theoretischen Physik. Für Woit sind Bestre bungen, das Kriterium der Falsifizierbarkeit zu verwässern, »ein empörender Versuch, das Scheitern zu kaschieren«. Am meisten ärgert ihn das in letzter Zeit enorm gewachsene Interesse am so genannten Multiversum – einer unendlichen, aber nicht beobachtbaren Ansammlung von Universen, von denen unser Kosmos nur ein Teil sein soll. »Das Grundproblem ist nicht bloß, dass das Multiversum keine falsifizierbaren Vorhersa gen liefert, sondern dass alle Vorschläge, da raus überhaupt Vorhersagen abzuleiten, reines SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
mensch & Geist
mrkva / fotolia
Wunschdenken sind«, meint Woit. Andere glauben, solche Kritik beruhe auf einem Miss verständnis. »Manche Leute sagen, das Mul tiversumkonzept sei nicht falsifizierbar, weil man es nicht beobachten kann – aber das ist ein Trugschluss«, bemerkt Kosmologe Max Tegmark vom Massachusetts Institute of Tech nology. Er hält dagegen, das Multiversum sei eine natürliche Konsequenz von anerkannter maßen falsifizierbaren Theorien: Quantenme chanik und allgemeine Relativitätstheorie. So gesehen steht und fällt die Multiver sumtheorie damit, wie gut jene Theorien der empirischen Prüfung standhalten. Insofern findet es Tegmark nicht pseudowissenschaft licher, der Idee des Multiversums nachzuge hen, als über Phänomene im Innern eines Schwarzen Lochs nachzugrübeln – eine Kon sequenz der allgemeinen Relativitätstheorie, deren »Innenleben« ebenso wenig direkt beo bachtbar ist wie das Multiversum. Paradoxerweise gehöre geradezu blinder Glaube dazu, eine Theorie nur deshalb zu ver werfen, weil sie Poppers Kriterium nicht be steht, meint Lawrence Krauss von der Western Reserve University in Cleveland (Ohio). »Man kann einfach nicht wissen, ob eine Theorie wirklich unfalsifizierbar ist.« Krauss zitiert als Beispiel eine exotische Konsequenz der allge meinen Relativitätstheorie, den so genannten Gravitationslinseneffekt. Wie Einstein 1936 theoretisch zeigte, kann das Licht eines fernen SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Sterns durch das Schwerefeld eines zwischen ihm und uns liegenden Sterns zu einem hellen Ring verzerrt werden. Das war eine spektaku läre Vorhersage, aber Einstein fügte hinzu, kein Astronom dürfe hoffen, so etwas jemals zu beobachten, denn dafür sei der Ring zu klein. Doch da hatte das Genie nicht mit dem Erfindungsreichtum der Astronomen gerech net. 1998 wurde erstmals ein perfekter Einst einring entdeckt, den allerdings nicht ein ein zelner Stern hervorruft, sondern eine riesige, Milliarden Lichtjahre entfernte Galaxie. Krauss räumt ein, er sei in dieselbe Falle getappt, als er nach dem Falsifikationskrite rium entschied, ob eine Idee wirklich »wissen schaftlich« genug sei, sie zu publizieren. »Ich entschloss mich, Artikel nicht zu schreiben, weil ich dachte, die Behauptungen würden niemals falsifizierbar sein, aber letztlich waren sie es doch.« Dennoch bleibt Popper für viele Wissen schaftler der einzige Philosoph, der über ihre Tätigkeit etwas zu sagen hat. Seine Anzie hungskraft beruht vor allem auf der eingän gigen Logik, die dem Begriff der Falsifizier barkeit zu Grunde zu liegen scheint. Popper veranschaulichte sie mit der inzwischen be rühmten Parabel vom schwarzen Schwan. Angenommen, eine Theorie besagt: Alle Schwäne sind weiß. Das offensichtliche Be weisverfahren für diese Allaussage wäre, zu überprüfen, ob sie wirklich auf jeden Schwan
Der Satz »Alle Schwäne sind weiß« lässt sich nicht streng verifizieren – denn dazu müsste man hier und jetzt sämtliche Schwäne auf der Welt kontrollieren. Selbst für die Tiere, die sich um diesen Teich tummeln, fiele das in der Praxis schwer. Hingegen ist das Falsifizieren kein Problem: Dafür genügt es, einen einzigen nicht weißen Schwan vorzuweisen.
73
spektrum-essay: Wissenschaftstheorie zutrifft. Doch das wirft ein Problem auf. Man kann noch so viele weiße Schwäne finden und wird dennoch nie ganz sicher sein, ob sich nicht irgendwo ein schwarzes Exemplar ver birgt. Hingegen beweist das Auffinden eines einzigen schwarzen Schwans, dass die Theorie falsch ist. Darin besteht die einzigartige Kraft der Falsifikation: Sie vermag eine Allaussage mit einem einzigen Gegenbeispiel zu wider legen – und diese Fähigkeit ergibt sich, wie Popper betonte, direkt aus den Sätzen der de duktiven Logik.
Auch Falsifizieren funktioniert nicht
Der österreichisch-britische Philosoph Sir Karl Popper (1902 –1994) formulierte das Falsifi kationskriterium: Jede wissenschaftlich sinnvolle Aussage muss prinzipiell widerlegbar sein.
74
ullstein bild, Horst Tappe
Popper erhob darum die Falsifikation zum Wesensmerkmal des wissenschaftlichen Pro zesses; die Suche nach falsifizierbaren Vorher sagen unterscheide seriöses Forschen von Pseu dowissenschaft. Doch schon seinerzeit gab es Bedenken, ob das Kriterium seinen Zweck er fülle. Ein besonders nahe liegender Einwand besagt, dass auch Astrologen, Wahrsager und Quacksalber falsifizierbare Aussagen machen, ohne dass diese dadurch wissenschaftlich wür den. Aber entlarvt sie wenigstens ihr unbe kümmerter Umgang mit negativer Evidenz als pseudowissenschaftlich? Leider funktioniert auch das nicht, wie der französische Philosoph und Physiker Pierre Duhem bereits vor mehr als einem Jahrhun dert zeigte. Er betonte, dass die Vorhersagen einer wissenschaftlichen Theorie oft auf einem Fundament anderer Annahmen ruhen, aus denen hervorgeht, wie die Theorie getestet wird. Wenn ein Experiment die Theorie zu falsifizieren scheint, ist es oft möglich, die Schuld auf eine dieser »Hilfshypothesen« zu schieben statt auf die Theorie selbst.
Das geschieht in der Wissenschaft ziemlich oft. Im selben Jahr 1906, in dem Duhem seine Einwände gegen die Falsifikation publizierte, schienen Experimente des deutschen Physikers Walter Kaufmann mit Elektronen die damals funkelnagelneue spezielle Relativitätstheorie Einsteins zu falsifizieren und rivalisierenden Theorien den Vorzug zu geben. Doch Einstein wies die Ergebnisse schlichtweg zurück: »Jenen Theorien kommt aber nach meiner Meinung eine ziemlich geringe Wahrscheinlichkeit zu, weil ihre die Maße des bewegten Elektrons be treffenden Grundannahmen nicht nahe gelegt werden durch theoretische Systeme, welche größere Komplexe von Erscheinungen umfas sen.« (Einstein Papers, Bd. 2., S. 461). Er war sicherlich nicht der letzte Wissenschaftler, der unpassende Resultate einfach verwarf – wie Popper zugeben musste. Dennoch blieb Pop per überzeugt, dass zumindest die Suche nach falsifizierbaren Konsequenzen das Wesen wis senschaftlicher Tätigkeit ausmacht. Für Woit entlarvt sich die Multiversum theorie gerade durch die vergebliche Suche nach solchen Konsequenzen als Pseudowissen schaft. »Wenn man nichts vorzuweisen hat als Wunschdenken über die Möglichkeit künf tiger Fortschritte, betreibt man keine Wissen schaft«, sagt er. Doch wie die Philosophin Re becca Goldstein von der Harvard University einwendet, unterstreicht dies nur Poppers ide alistisches Bild des Wissenschaftlers: »Popper behauptet ja nicht nur, das Gebiet der Wissen schaft sei durch Falsifizierbarkeit eindeutig ab gegrenzt, sondern auch, jeder Wissenschaftler sei einzigartig und habe so viel Distanz zu seinen eigenen Theorien, dass er nur darauf aus sei, sie abzuschießen.« In Wirklichkeit, so Goldstein, läuft der Vorgang viel positiver ab: Man versucht Theorien zu finden, die funktio nieren, und nicht, Alternativen zu falsifizieren. Selbst wenn Forscher akzeptieren, dass eine Theorie einen Test nicht bestanden hat, ver werfen sie diese selten als falsch. Auch Popper erkannte das. Krauss verweist auf den klas sischen Fall Newton gegen Einstein. Im 20. Jahrhundert wurde Newtons Gravitationsthe orie wiederholt durch Beobachtungen »falsifi ziert« – zum Beispiel, als sie nur die Hälfte der tatsächlichen Lichtbeugung durch das Schwe refeld der Sonne voraussagte. Dennoch wer den die Naturforscher Newton nicht so bald zum alten Eisen werfen, denn seine Gesetze funktionieren in der Alltagswelt ganz hervor ragend. »Das machen wir zu wenig deutlich«, sagt Krauss. »Wir haben keine wahren Theo rien, sondern nur effektive.« Was also bleibt nach all diesen Eingeständ nissen von Poppers vermeintlich unumstöß lichem Kriterium übrig? Es ist nur schwer SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
mensch & Geist praktisch anwendbar, es ist zu vage, um zwi schen Wissenschaft und Pseudowissenschaft zu unterscheiden, und es hat wenig Bezug zur wirklichen Praxis. Warum ist es dann so be liebt? »Wissenschaftler mögen methodisch einfache Theorien, die mit ihrer Vorstellung von gutem wissenschaftlichem Denken über einstimmen«, meint der britische Philosoph Colin Howson von der London School of Economics. Wenn die trügerisch einfache Falsifikation in die Irre führt, was dann? Howson glaubt, Poppers Idee, den Wissenschaftsprozess mittels deduktiver Logik einzugrenzen, sollte endlich verworfen werden. Stattdessen müsse man ge nauer betrachten, was Forscher wirklich tun: Sie wägen das Gewicht der Indizien für kon kurrierende Theorien gegeneinander ab und suchen die relative Plausibilität abzuschätzen. Howson ist ein führender Verfechter eines Wissenschaftsbegriffs, der nicht auf simpler Wahr-Falsch-Logik beruht, sondern auf dem viel subtileren Konzept so genannter Glau bens- oder Überzeugungsgrade (degrees of be lief ). Im Mittelpunkt steht eine grundlegende Verbindung zwischen dem subjektiven Begriff der Überzeugung und der harten Mathematik der Wahrscheinlichkeit.
Was heißt »wahrscheinlich wahr«?
Bei Wahrscheinlichkeit denkt man meist an Zufallsereignisse wie Münzwürfe; die Formeln der Theorie geben beispielsweise die Chance an, in 30 Würfen 20-mal Kopf zu erhalten. Doch das ist nicht die einzige Art, Wahr scheinlichkeitstheorie zu treiben. Man kann sie auch quasi auf den Kopf stellen und kommt auf eine viel interessantere Frage: Wie groß ist die Wahrscheinlichkeit, dass die Münze lädiert ist, wenn wir in 30 Würfen 20-mal Kopf se hen? Mit anderen Worten, wenn wir eine Hy pothese haben – etwa die Überzeugung, eine Münze sei fehlerhaft –, erlaubt uns die Wahr scheinlichkeitstheorie, diesen Glauben anhand unserer Beobachtungen zu überprüfen. Das sollte vertraut anmuten; schließlich üben Wissenschaftler auf diese Weise ihren Beruf aus. Außerdem hat dieses Bild des wis senschaftlichen Denkens eine solide theore tische Basis. Sein Kern ist ein mathematisches Theorem, das besagt: Jedes rationale Über zeugungssystem gehorcht Wahrscheinlichkeits gesetzen – und zwar jenen, die der englische Mathematiker Thomas Bayes (1702 – 1761) formulierte, als er erstmals auf die Idee kam, die Wahrscheinlichkeitstheorie auf den Kopf zu stellen. Anders als Poppers Wissenschaftsbegriff fällt das bayessche Schema nicht gleich in sich zusammen, wenn es mit der Realität konfron SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Ein starker Jahrgang …
Jedes rationale System von Überzeugungen gehorcht den von Bayes formulierten Wahrscheinlichkeitsgesetzen
… ist die CD-ROM 2008 von Spektrum der Wissenschaft. Sie bietet Ihnen alle Artikel (inklusive Bilder) des vergangenen Jahres im PDF-Format. Diese sind im Volltext recherchierbar und lassen sich ausdrucken. Eine Registerdatenbank erleichtert Ihnen die Suche ab der Erstausgabe 1978. Die CD-ROM läuft auf Windows-, Mac- und Unix-Systemen (der Acro bat Reader wird mitgeliefert). Des Weiteren finden Sie das spektrumdirektArchiv mit ca. 10 000 Artikeln. spektrumdirekt und das Suchregister laufen nur unter Windows. Die JahrgangsCD-ROM kostet im Einzelkauf € 25,– (zzgl. Porto) oder zur Fortsetzung € 18,50 (inkl. Porto Inland); Bestellen können Sie über den Beihefter oder unter:
www.spektrum.com/lesershop Spektrum der Wissenschaft Verlagsgesellschaft mbH | Slevogtstraße 3–5 | 69126 Heidelberg | Tel.: 06221 9126-743 | Fax: 06221 9126-751 | service@ spektrum.com
Wissen aus erster Hand
Mr. 9 / fotolia
spektrum-essay: Wissenschaftstheorie
In der wissenschaftlichen Praxis ist das Falsifizieren einzelner Aussagen vom Typ »Alle Schwäne sind weiß« die große Ausnahme. Meist begegnen die Forscher Grautönen zwischen Schwarz und Weiß, wahr und falsch.
tiert wird. Es beruht auf der Vorstellung, für eine Theorie würde positive Evidenz gesam melt – und damit verbringen Wissenschaftler ja laut Tegmark wirklich ihre Zeit: »In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten; wir steigern das Gewicht der Indizien.« Der bayessche Ansatz quantifiziert diese Praxis. Erst einmal gibt es für ein Phänomen mehrere rivalisierende Erklärungen; gezielt werden Beobachtungen gesammelt, und dann dient die Mathematik des bayesschen Schlie ßens dazu, die Evidenz für oder gegen jede konkurrierende Theorie zu gewichten. Ein fach gesagt vergleicht man zu diesem Zweck die Wahrscheinlichkeiten dafür, die beobach teten Resultate auf Grund jeder dieser Theo rien zu erhalten. Die Theorie, welche die höchste Wahrscheinlichkeit ergibt, gilt dann als diejenige, deren Evidenzgewicht durch die Daten am meisten zugenommen hat. Auch andere Aspekte des Wissenschaftsall tags werden damit richtig wiedergegeben. Bei spielsweise erfordern augenscheinlich unplau sible Theorien besonders gewichtige Indizien, ehe sie ernst genommen werden können – nach dem Motto »Außerordentliche Behaup tungen erfordern außerordentliche Beweise«. Vage Theorien, die zu allen möglichen Daten passen, erlangen nach dem bayesschen Sche ma nur mühsam wissenschaftliches Gewicht. Wegen seiner mathematischen Stringenz und Realitätsnähe favorisieren viele Wissen schaftsphilosophen nun diesen Ansatz. »Heut zutage findet man die interessantesten An sichten im Bayesianismus. Viele Forschungen zielen derzeit in diese Richtung«, sagt Robert Nola, Philosoph an der University of Auck land (Neuseeland). Er fügt allerdings hinzu, dass die Methode nicht ohne Probleme ist.
Wetten auf die Dunkle Energie Robert Matthews ist Gastdozent für Naturwissenschaft an der Aston University in Birmingham (Großbri tannien).
Held, L.: Methoden der statisti schen Interferenz: Likelihood und Bayes. Spektrum Akademischer Verlag, Heidelberg 2008. Poser, H.: Wissenschaftstheorie. Eine philosophische Einführung. Reclam, Stuttgart 2001.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979556.
76
Vor allem zeigt die bayessche Methode zwar, wie Beobachtungen anfänglichen Hypothesen oder Theorien durch Evidenz Gewicht verlei hen, aber sie sagt nichts darüber aus, wie diese Ausgangshypothesen aussehen sollen. Die Überzeugungen, die hinter einer völlig neu artigen Theorie stehen, beruhen vielleicht auf rein subjektiver Intuition. Verfechter des bayesschen Ansatzes ver weisen darauf, dass solche Vorannahmen in der Regel an Bedeutung verlieren, je mehr Resultate sich ansammeln. Insofern bestätigt der Bayesianimus eine weitere Maxime der Forschung: Durch systematisches Beobachten kommt die Wahrheit heraus. Verquere An fangsüberzeugungen werden nie direkt falsi fiziert, sondern letztlich unter dem Gewicht gegen sie sprechender Indizien begraben.
Nicht nur Wissenschaftsphilosophen fin den den Bayesianimus zukunftsträchtig, son dern auch praktizierende Forscher, von Ar chäologen bis Zoologen. Zu den Anhängern zählen Kosmologen, die neuerdings mittels bayesscher Verfahren aus den Datenströmen der Observatorien, Satelliten und Raumson den das plausibelste Modell des Universums herleiten möchten. Vor allem sollen diese Me thoden helfen, Spekulationen einzuschränken und zu entscheiden, ob die gängigen Theorien zu den Beobachtungen passen oder ob Zu satzhypothesen erforderlich sind. Betrachten wir die mysteriöse Kraft, die für die beschleunigte Expansion des Universums verantwortlich gemacht wird. Einige Theoreti ker vermuten, diese »Dunkle Energie« sei nicht immer konstant geblieben, sondern habe sich im Lauf der kosmischen Entwicklung ver ändert. Solche Ideen sind theoretisch faszinie rend, meint Andrew Liddle von der University of Sussex in Brighton, aber zugleich kompli zieren sie das Modell des Universums. Liddle und seine Kollegen haben mit bayes schen Methoden geprüft, wie plausibel die Idee einer variierenden Dunklen Energie ist. Ihr Ergebnis: Das Standardmodell mit kon stanter Dunkler Energie bleibt eine viel besse re Wette. Das könnte sich ändern, aber ein schlauer Spieler setzt darauf, dass die variable Dunkle Energie eine Sackgasse bleibt. Begriffe wie »bessere Wette« und »schlauer Spieler« muten nicht sehr wissenschaftlich an, aber dafür kommen sie wirklichen Entschei dungen über Forschungsprioritäten viel näher. Die bayesschen Methoden quantifizieren die sen Prozess im Detail – und ersetzen das Schwarz-Weiß der Falsifikation durch die Grau töne der wirklichen Welt. »Ich bin fest über zeugt, das ist der richtige Weg«, meint Liddle. Was folgt daraus für die Debatte, ob Be griffe wie Multiversum wirklich in die Wis senschaft passen? Für Howson gehört das Multiversum nach bayesschen Kriterien ein deutig zur Wissenschaft, da es auf Theorien beruht, die jeweils ein riesiges Evidenzgewicht tragen. »Wenn Popper das als Pseudowissen schaft verurteilt, weil es unfalsifizierbar ist – aber vielleicht nicht für immer –, dann umso schlimmer für Popper.« Doch ob man nun das Schwarz-Weiß der Falsifizierung oder subtile Grautöne als Wesen der Wissenschaft betrachtet, am Ende ent scheiden nach wie vor empirische Beobach tungen darüber, ob eine Theorie ernst genom men wird. »Ab einem gewissen Punkt kann man auf die Idee der Falsifikation nicht ver zichten«, sagt Krauss. »Gerüchte über das Ende der Wissenschaft sind jedenfalls stark übertrieben.« SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Geophysik
Die Geburt eines
OZEANs
Werden Sie Zeuge dieses höchst seltenen Ereignisses, das derzeit in einer der heißesten und unwirtlichsten Regionen der Erde stattfindet! Auf den folgenden Seiten können Sie das Gebiet gefahrlos besuchen und hautnah miterleben, wie ein Kontinent auseinanderbricht.
In Kürze r Afrika teilt sich längs einer Bruchlinie, die von der Südspitze des Roten Meeres durch Eritrea, Äthiopien, Kenia und Tansania bis nach Mosambik führt und Ostafrikanisches Rift genannt wird. r Wie ein Hemdsärmel, den ein gespannter Bizeps sprengt, platzt die Erdkruste auf, wenn empordringende Gesteinsschmelze aus der Tiefe sie immer mehr dehnt und ausdünnt, bis sie schließlich reißt. Jeder neue Riss verbreitert sich, während Magma von unten hineingepresst wird. r Dieser spektakuläre geologische Vorgang, der schon Jahrmillionen andauert, kommt zum Abschluss, wenn Salzwasser aus dem Roten Meer den Einschnitt füllt. In zehn Millionen Jahren könnte das gesamte Rift überflutet sein.
78
Text und Fotos von Eitan Haddok
I
n der Afar-Senke im Nordosten Äthiopiens weicht eine der trockensten Wüsten der Erde einem neuen Ozean. Dort ziehen Kräfte in der Tiefe den afrikanischen Kontinent auseinander und sind dabei, ihn in zwei Teile zu zerreißen. Im Verlauf dieses Vorgangs wird die feste Gesteinshülle der Erde zunächst immer dünner. So misst die kontinentale Kruste unter der Afar-Senke von Ober- zu Unterkante nur noch 20 Kilometer – weniger als die Hälfte ihrer ursprünglichen Dicke. Teile des Gebiets liegen bereits mehr als hundert Meter unter dem Meeresspiegel. Lediglich ein flaches Hügelland im Osten hindert das Rote Meer am Eindringen. Weil die dünne Kruste die Gluthitze im Erdinnern nicht mehr gut abschirmt, ist ein wilder, unruhiger Landstrich entstanden, in dem heiße Dämpfe aufsteigen, Vulkane Lava speien und die Erde immer wieder heftig bebt. Obwohl Afar der einzige Ort auf dem Globus ist, an dem sich die Geburt eines Ozeans live erleben lässt, haben nur wenige Außenstehen-
de, Wissenschaftler eingeschlossen, jemals ihren Fuß in die Region gesetzt. Die Temperaturen steigen im Sommer bis auf 48 Grad Celsius, und einen Großteil des Jahres fällt kein Tropfen Regen. Trotzdem habe ich als Wissenschaftsreporter die Reise dorthin gewagt. Dabei waren es nicht nur tückische Naturkräfte und extreme Klimaverhältnisse, mit denen ich rechnen musste. Die Gegend wird auch von politischen Unruhen und Kämpfen erschüttert, die der Krieg zwischen Äthiopien und dem benachbarten Eritrea mit sich bringt. Krustendehnung und -absenkung müssen noch eine Jahrmillion andauern, bis die AfarSenke unwiderruflich unter den Fluten des Roten Meers versinkt und zum Boden eines neuen Ozeans wird. Vorerst ist der künftige Meeresgrund, wie die Fotos auf den folgenden Seiten zeigen, eine trostlose Einöde, in der Lavaströme die letzten Reste der ohnehin spärlichen Vegetation verbrennen, höllische Temperaturen Schwefelsäure in Schlammlöchern kochen lassen, aus Spalten zischend giftige Dämpfe entweichen und Salzkrusten von früheren Einbrüchen des Roten Meers zeugen. SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
AfarDepression
Ostafrikanische Riftzone
al
le
Ka
rt
en
:K
ev
in
Ha
nd
Salzkrusten in der Nähe des Vulkans Afdera zeugen von früheren Überflutungen der Afar-Senke in Äthiopien. In den letzten 200 000 Jahren drang das Rote Meer mindestens dreimal in die Tiefebene ein. Beim Verdunsten des Meerwassers blieb das Salz zurück. Eines Tages wird die Überflutung zum Dauerzustand.
h
es
op
i th
ä
h isc
c Ho
d
n la
Salzabbaugebiet
Krater Dallol
Vulkan Erta Ale
E
R
Rotes Meer
IT
R
E
A
Vulkan Afdera
ÄTH IOP Die Afar-Senke markiert den nördlichen Endpunkt des OstIEN afrikanischen Rifts, einer 3500 Kilometer langen tektonischen Bruchzone, an welcher der Kontinent in zwei Teile zerrissen wird (Pfeile auf dem Globus). SPEKTRUM DER WISSENSCHAFT · März 2009
79
Geophysik
Insel im Basalt
1 ●
Höchster Punkt der Afar-Senke ist Erta Ale, der »rauchende Berg«, wie ihn die Einheimischen nennen. Dabei handelt es sich um den nörd lichsten Vulkan einer langen Kette, die dem so ge nannten Ostafrikanischen Rift folgt. Dieser Gra benbruch ist zwar größtenteils noch nicht bis unter den Meeresspiegel abgesunken, entspricht aber den mittelozeanischen Rücken: Ketten sub mariner Vulkane, an denen neuer Meeresboden entsteht. In der Tat tritt beim Erta Ale eine ähn liche dünnflüssige, basaltische Lava aus wie an diesen untermeerischen Rückenachsen. Vergan gene Eruptionen haben ebene Bereiche großflä chig mit einer Schicht aus frischem Basalt be deckt, aus welcher der ursprüngliche Boden nur noch stellenweise inselartig herausragt 1 .
●
Lavasee Auf dem Erta Ale befindet sich einer der weni gen dauerhaft existierenden Lavaseen der Erde. Im Normalfall reicht der Wärmefluss aus dem Untergrund nämlich nicht aus, um Gestein an gesichts der abkühlenden Wirkung der Atmo sphäre in schmelzflüssigem Zustand zu halten. Selbst am Erta Ale erstarren manchmal, wenn die Wärmezufuhr nachlässt, Teile der Seeober fläche zu einer schwarzen Kruste 2 . In der Re gel treiben jedoch Basaltblöcke wie Eisberge auf der blubbernden Gesteinsschmelze, deren Temperatur 1200 Grad Celsius erreicht 3 . Die meisten Bewohner von Afar halten sich von dem Vulkan fern, weil sie böse Geister dort vermu ten. Der Anblick eines Afar-Kriegers auf dem Gipfel ist deshalb ungewöhnlich. In diesem Fall handelt es sich jedoch um meinen Führer Ibra him 4 . Bei Nacht wirkt Lava, die aus Spalten im See quillt, besonders spektakulär 5 .
2 ●
●
●
●
3 ●
●
4 ●
80
5 ●
SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
6 ●
7 ●
8 ●
Höllische Hitze Hundert Kilometer nördlich des Erta Ale, nahe der Grenze zu Eritrea, liegt der Krater Dallol. Dort presst glutflüssiges Magma in der Tiefe überhitztes Grundwasser durch ein riesiges unter irdisches Röhrensystem nach oben. So ist ein 1,6 Kilometer breites Feld von hydrothermalen Schloten, Geysiren und heißen Quellen entstand 6 , das an die ähnliche, aber leichter zugäng liche Landschaft des Yellowstone-Nationalparks im Westen der USA erinnert. Das Zitronengelb in dieser natürlichen Farbpalette stammt vom Schwefel 7 . Durch Mischung mit dem Signalrot von oxidiertem Eisen entstehen Orangetöne 8 . Nur wenige Schritte von diesem prächtigen Bild entfernt zeugen graubraune, ausgedörrte Säulen von der Vergänglichkeit heißer Quellen 9 . Wenn ein Erdbeben oder ein anderer natürlicher Prozess die unterirdischen Zuleitungen verstopft, verlieren die Minerale eines Schlots binnen Jahresfrist ihren leuchtenden Glanz.
●
●
●
SPEKTRUM DER WISSENSCHAFT · März 2009
●
9 ●
81
Geophysik
Tödliche Dämpfe Die surreale Landschaft des Kra ters Dallol verdankt ihre Existenz dem Regenwasser, das tief im Boden versickert, sich dort beim Kontakt mit heißem Mag ma erhitzt und zurück zur Ober fläche steigt. Unterwegs durch quert es mächtige Schichten aus Salz, das es bis zur Sättigung löst. An der Oberfläche kühlt sich die Sole ab und verdampft. Dabei kristallisiert das gelöste Salz aus und formt mächtige Säulen 10 oder Gebilde so zart wie Eierschalen 11 . Doch die Schönheit dieser Skulpturen ist trügerisch: Giftige Dämpfe, die aus ihnen entweichen, sind mit ein Grund für die Gefährlichkeit der Afar-Region. Besucher die ser so genannten Fumarolen sollten Gasmasken tragen. Wie derholt zwang mich ein Schwall des unheimlichen Brodems dazu, das Fotografieren einzustel len und sicherheitshalber meine Maske anzulegen.
●
●
10 ●
11 ●
Gift oder Lebenselixier? In der Nähe rötlicher Tümpel mit siedend heißem, eisenreichem Wasser 12 ist ein starker Kohlen wasserstoffgeruch ein deutliches Gefahrenzeichen. Vorbeikommende Tiere nehmen manchmal einen Schluck, ohne zu ahnen, dass es ihr letzter sein wird. Ich sah mehrfach tote Vögel in der heißen Brühe trei ben. Was auf einen Organismus gif tig wirkt, kann allerdings das Le benselixier eines anderen sein. Aus dem Boden strömende Gase, die für Vögel, Insekten und Säugetiere töd lich sind, ernähren in vielen der säurehaltigen heißen Quellen des Dallol komplexe Mikrobengemein schaften. Es überrascht wohl nicht, dass diese Ökosysteme solchen an den mittelozeanischen Rücken auf fallend ähneln.
●
12 ●
82
SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
13 ●
Literaturhinweise: Wright, T. J. et al.: Magma-Maintained Rift Segmentation at Continental Rupture in the 2005 Afar Dyking Episode. In: Nature 442, S. 291 – 294, 20. Juli 2006. Ayele, A. et al.: The Volcano-Seis mic Crisis in Afar, Ethopia, Starting September 2005. In: Earth and Planetary Science Letters 255 (1 – 2), S. 177 – 187, 15. März 2007.
Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979757.
14 ●
Verhängnisvolle Fluten Salzskulpturen wie die auf der vorigen Seite erinnern daran, dass die Geburt eines Ozeans kein plötzliches Ereignis ist, sondern ein Dra ma, das sich allmählich entfaltet. Während der 30 Millionen Jahre, in denen diese Region be reits gedehnt wird, hat der Meeresspiegel mehrfach geschwankt, so dass sich die AfarSenke zeitweise mit Meerwasser füllte. Zum letzten Mal stiegen die Wasser des Roten Meeres vor etwa 80 000 Jahren hoch genug, um sich über die niedrigen Hügel im Osten von Afar in das Becken zu ergießen und dabei tiefe Schluchten 13 einzuschneiden. Als nach dem Sinken des Meeresspiegels Afar wieder vom Meer abgeschnitten war, verdunstete das ein gedrungene Wasser. Die Erosion formte das zu rückbleibende Salz zu teils bizarren Gebilden, die an Pilze erinnern 14 . Stellenweise sind an den Wänden der eingeschnittenen Canyons ab wechselnde Schichten von Salz und rötlichen Meeresablagerungen zu sehen 15 .
●
●
●
SPEKTRUM DER WISSENSCHAFT · März 2009
15 ●
83
Geophysik
16 ●
Salz der Erde Das von früheren Überflutungen zurückgebliebene Salz bietet den heutigen Bewohnern der unfruchtbaren, von der Sonne versengten Afar-Senke eine bescheidene Einkommensquelle. Die nomadisch lebenden Hirten sammeln es von Hand ein, nachdem sie die dicken Krusten mit Holzpflöcken und Beilen in handliche Stücke zerlegt haben 16 . Die nächsten Handelsplätze, wo das Salz verkauft oder gegen andere Güter eingetauscht werden kann, befinden sich im äthiopischen Hochland Richtung Westen. Kamelkarawanen, die für den Trans port des ungewöhnlichen Exportguts eingesetzt werden 17 , brauchen für die Strecke sechs Tage.
●
●
84
SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
Amotz Agnon
17 ●
Fata Morgana oder Halluzination? In den meisten Jahren besteht die größte Sorge der Bewohner von Afar darin, an sauberes Wasser zu kommen. Doch Ende 2006 fielen ungewöhnlich große Regenmengen und viele der Salzfelder waren während meines gesamten Aufenthalts im Januar 2007 überflutet. Dieser ungewöhnliche Umstand be scherte mir einen der nachhaltigsten Eindrücke meines Besuchs in der Region: Als die Kamelkarawa nen durch die Fluten wateten, wirkten sie aus der Ferne wie eine surreale Montage aus Gegenwart und Zukunft dieses im Entstehen begriffenen Ozeanbodens 18 .
●
18 ●
SPEKTRUM DER WISSENSCHAFT · März 2009
Eitan Haddok lebt und arbeitet als Fotograf und Reporter in Paris. Auf Geowissenschaften und Ökologie spezialisiert, hat er eine besondere Vorliebe für aride Ökosysteme. Haddok erwarb 1994 an der Universität Tel Aviv den Mastergrad in Geophysik und Planetologie. Neun Jahre lang arbeitete er als Umweltingenieur, bevor er beschloss, seine beiden Leidenschaf ten – die Erde und die Fotografie – beruflich zu verbinden.
85
WISSENSCHAFT IM ALLTAG Datenkompression
Eins, zwei, MP3 Dank der Erkenntnisse der Psychoakustik lassen sich ganze Plattensammlungen auf einem Speicherchip unterbringen. Von Klaus-Dieter Linsmeier
Z
u jeder Zeit und überall Musik hören zu können – was Anfang der 1980er Jahre als Attitüde der jungen Generation begann, gehört seit der Entwicklung des MP3-Datenformats zum Alltagsbild. Digital auf einem Chip gespeichert bringt uns Musik beim Sport in Schwung, unterhält ein Kriminalhörspiel auf dem Weg zur Arbeit. Denn MP3, eine Abkürzung von MPEG-1 Audio Layer 3, ist eine Technik, digital gespeicherte Audiodaten zu verdichten und so den Speicherbedarf beziehungsweise die für eine Übertragung notwendige Datenrate zu reduzieren. Benötigt ein unkomprimiertes Signal pro Sekunde etwa 180 Kilobyte Speicherplatz, verringert sich der Bedarf nach MP3-Kodierung auf nur noch 16 Kilobyte. Bietet eine handelsübliche CD deshalb ungefähr 70 Minuten Hörvergnügen, sind es bei der MP3-CD gut 700. Die Entwicklung des Verfahrens begann bereits Ende der 1970er Jahre, als ISDN (Integrated Services Digital Network) sich anschickte, das analoge Telefonnetz abzulösen: Dieter Seitzer, damals Professor für Telekommunikation an der Friedrich-Alexander-Universität Erlangen-Nürnberg, plante, mit 128 Kilobit pro Sekunde, der Bandbreite von zwei ISDN-Telefonleitungen, Musiksignale zu übermitteln. Er war auch Mitbegründer des Fraunhofer-Instituts für Integrierte Schaltungen IIS, das in einer Forschungsallianz mit der Hochschule das Datenformat MP3 entwickelte; 1995 erhielt es nach einer Fraunhofer-internen Umfrage seinen Namen. Ein Klang ist ebenso wie ein Bild zunächst ein analoges, das heißt kontinuierliches Signal; um es zu digitalisieren, wird es elektronisch abgetastet. Seit der Einführung von CD, DVD und neuerdings Blu-ray Disc weiß der Musikliebhaber, dass die Qualität der Wiedergabe umso besser ist, je öft ein solches Abtasten erfolgt, je mehr Daten des ursprünglichen Signals also gespeichert werden. Geht Komprimierung also nicht zwangsläufig mit einem hörbaren Qualitätsverlust einher? Tatsächlich merken die wenigsten, dass beispielsweise Bruchteile einer klassischen Sinfonie ungenauer ge-
speichert sind als andere Abschnitte. Denn MP3 beruht vor allem auf Erkenntnissen der Psychoakustik darüber, welche in einem Schallsignal enthaltenen Informationen das Gehör auch tatsächlich erkennt und verwertet. Wenn eine Trompete gleichzeitig mit einer leiseren Flöte erklingt, »maskiert« sie diese für unsere Wahrnehmung. Beide Instrumente erklingen in benachbarten Frequenzbereichen, doch das lautere gibt eine Mithörschwelle vor: Sofern die Flöte diese nicht überschreitet, bleibt ihr Ton verdeckt.
Ermittler für Verdecktes Ein Encoder genanntes Programm berechnet deshalb zunächst aus dem zeitlichen Verlauf der Schallamplitude das Frequenzspektrum des Signals, sodann den Gesamtverlauf der Mithörschwelle, wie er sich aus allen vorkommenden Anteilen ergibt. Auf diese Weise erkennt es, welche Einzelfrequenzen getrost mit weniger Bits gespeichert werden dürfen. Zudem berücksichtigt MP3, dass unser Gehör bei tiefen Frequenzen genauer arbeitet als bei hohen. Das Spektrum wird deshalb zunächst in einem feinen Frequenzraster ermittelt, dann aber so in Bändern zusammengefasst, dass tiefe Tonbereiche exakter unterschieden werden als hohe. Bei einer solchen auf »Irrelevanz« von Signalanteilen beruhenden Komprimierung gehen Daten verloren. Die so erzeugte Ungenauigkeit kann bei der Dekodierung Störgeräusche verursachen. Ab einer Bitrate von etwa 128 Kilobit pro Sekunde aber bleibt dieses »Quantisierungsrauschen« unterhalb der Mithörschwelle, wird also vom rekonstruierten Audiosignal maskiert. Auf die Irrelevanz- folgt die Redundanzreduktion, insbesondere nach dem Huffman-Algorithmus, der häufig vorkommende Signalanteile mit wenigen Bits, selten auftretende hingegen mit vielen Bits kodiert. Solche verlustfreien Verfahren verdichten um den Faktor 2 bis 2,5, in Kombination mit der Irrelevanzreduktion ermög licht MP3 so eine Kompression um den Faktor 10 bis 30.
Wussten Sie schon? r Wo Licht ist, ist auch Schatten: Die Möglichkeit, Audio-CDs in das MP3-Format umzuwandeln und per Internet zu versenden sorgte für Umsatzeinbrüche in der Musikindustrie. Inzwischen wurden die Gesetze zum Schutz geistigen Eigentums verschärft und Techniken entwickelt, MP3-Dateien mit einem »Digital Rights Management« zu ergänzen: Musik und Hörbücher lassen sich legal erwerben, die dabei bezahlten Zugriffsrechte sind in den Daten gespeichert und zur Freischaltung eines Stücks im Player erforderlich. Inzwischen entwickelt sich der legale MusikDownload zum Massenmarkt mit mehr als einer Million Alben bis Oktober 2008, einem Wachstum um 60 Prozent im Vergleich zum Vorjahr. Allen Unkenrufen zum Trotz ist die CD aber längst
86
nicht ausgestorben: Im gleichen Zeitraum wurden davon 149 Millionen verkauft. r Auch aus Stereo- lässt sich Surround-Klang erzeugen: Das SX Pro®-Verfahren des Fraunhofer-Instituts IIS bereitet Stereodaten in Echtzeit so auf, dass sie optimal über eine 5.1-Surround-Anlage abgespielt werden können. Dazu wird das Klangbild des Musiksignals analysiert und der Anteil des mittleren und der hinteren Kanäle eines 5.1-Systems berechnet. Dies vergrößert den Bereich des optimalen Hörens und das Klangbild wird insgesamt stabiler. Genutzt wird diese Technologie bereits vom bayerischen Radiosender »Rock Antenne«.
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer Bei der Analyse des Audiosignals und seiner Komprimierung dürfen Psychoakustiker und Programmierer ihr Können unter Beweis stellen. Dazu gehört, ein Stereosignal so zu verschlüsseln, dass der Raumklang der Aufnahme optimal erhalten bleibt. Sind beispielsweise zwei Sprecher bei einem Hörspiel oder die Instrumente einer Band wirklich auf beide Stereokanäle verteilt, werden diese auch getrennt verarbeitet. Befand sich die Schallquelle jedoch eher in der Mitte, hätte eine solche Kodierung zur Folge, dass der durch die Quantisierung entstehende Fehler bei der Rekonstruktion im Decoder genannten Programm zwischen links und rechts hin- und herspringen würde. Dem lässt sich vorbeugen: Sind die Stereosignale sehr verschieden, ist die Summe daraus deutlich kleiner als bei einem mittigen Signal, die Differenz hingegen deutlich größer. Entscheidet der Encoder auf »mittig«, kodiert er bei hoher Genauigkeit Summe und Differenz, bei geringer nur einen Kanal plus die Pegeldifferenz zwischen beiden. Insbesondere die Forscher des IIS inzwischen an »MP3 Surround«, also einem Kompressionsverfahren für Mehrkanalton. Dabei geht es nicht allein darum, die Ton- und Geräuschkulisse von Actionfilmen Platz sparend zu verdichten. Auch bei Musik und Hörspiel bietet der Surround-Sound einen Vorteil: Während ein räumlicher Höreindruck beim Stereosignal nur in der Mittelachse zwischen den beiden Lautsprechern entsteht, optimale Positionierung vorausgesetzt, ist dieser Bereich bei Surround-Wiedergabe
größer. Der so genannte Center-Lautsprecher stabilisiert das Klangbild der beiden vorderen Lautsprecher, die beiden hinteren können die bei der Aufnahme im Raum reflektierten Schallanteile wiedergeben. Ein sechster Lautsprecher, der Subwoofer, ist auf Basstöne spezialisiert, seine Position ist beliebig, da unser Gehör langwellige Signale nicht räumlich zu orientieren vermag. Unkomprimiert fallen beim Surround-Klang rund 4,3 Megabit pro Sekunde und mehr an. Aktuelle Techniken der Verdichtung bearbeiten jeden der fünf für die Raumwahrnehmung wichtigen Kanäle separat (diskrete Kodierung: Dolby Digital, DTS, Mehrkanal-AAC) oder mischen sie vor der Kompression nach einer festen Rechenvorschrift (so genannter Downmix), mit deren Hilfe sie auch wieder zu trennen sind (Matrix-Kodierung: Dolby ProLogic II, Logic 7). MP3 Surround verbessert die Rekonstruktion des verdichteten Signals, da es anhand psychoakustischer Modelle Parameter zur Beschreibung der räumlichen Klangwahrnehmung aus den Ausgangskanälen gewinnt. Dazu gehört beispielsweise die Kohärenz: Eine punktförmige Klangquelle erzeugt ein schmaleres Frequenzspektrum als eine diffuse. Die neuen Dateien sind nur etwa zehn Prozent größer als solche im MP3-Stereoformat und bieten dennoch den vollen 5.1-Klang. Klaus-Dieter Linsmeier ist Redakteur bei »Spektrum der Wissenschaft«.
Prinzip der Maskierung
Lautstärke n Dez be
80 60
Mithörschwelle
40
Ruhehörschwelle
20
0,02
0,05
Lautstärke n Dez be
Spektrum der Wissenschaft / Siganim
60 40 20
0,1
0,2 0,5 1 2 Frequenz in Kilohertz
5
10
20
5
10
20
Effekt mehrerer maskierender Schallereignisse
80
Mithörschwelle Ruhehörschwelle Signal nicht hörbar
0 0,02
SPEKTRUM DER WISSENSCHAFT · märz 2009
maskierter Schall
Signal nicht hörbar
0
Überschreitet die Lautstärke eines Tons die Ruhehörschwelle, nehmen wir ihn wahr – sofern nicht ein Ton anderer Frequenz eine Mithörschwelle erzeugt, die den ersten verdeckt. In einem realen
maskierender Schall
0,05
0,1
0,2 0,5 1 Frequenz in Kilohertz
2
Audiosignal entstehen mehrere solcher Barrieren. MP3-Encoder ermitteln die daraus folgenden Maskierungseffekte und speichern nicht hörbare Signalanteile ungenauer, das heißt mit weniger Bits.
87
Autos der Zukunft (Serie, Teil II)
Die Zukunft fährt elektrisch Über 100 Jahre lang haben billiges Öl und überall verfügbarer Kraftstoff dem Auto mit Verbrennungsmotor einen Massenmarkt bereitet. Mehr als 800 Millionen PKW weltweit sind heute allerdings für rund 20 Prozent der menschengemachten Kohlendioxid-Emissionen verantwortlich. Jetzt führen neue Technologien zu einer Renaissance der Elektrofahrzeuge.
Von Reinhard Löser
A
Diskutieren Sie mit! Elektrofahrzeuge brauchen zwar kein Benzin. Doch der Strom, mit dem sie fahren, stammt bislang vor allem aus Kohle- und Atomkraftwerken. Entwickelt sich der Automobilbau in die richtige Richtung? Diskutieren Sie mit auf www. spektrum.de/artikel/980525.
ngesichts hoher Ölpreise und höchstmöglicher Umweltschonung werden wir ganz schnell emissi onsfreie Fahrzeuge anbieten«, ver spricht Carlos Ghosn, Chef sowohl des fran zösischen Unternehmens Renault als auch des sen japanischen Partners Nissan. Auf dem Weg zum selbsternannten »größten Anbieter für Elektrofahrzeuge weltweit« hat sich Re nault-Nissan erst kürzlich mit dem Energie versorger Energie Ouest Suisse (seit 1. Februar 2009: Alpiq) verbrüdert. Dessen schweizerische Kraftwerke werden zu 85 Prozent mit Wasserkraft betrieben. Die Vision des Spa niers Ghosn von globaler Klimaentlastung: Nur wenn auch die Energie im »Tank« klima freundlich und nachhaltig erzeugt wird, ist wirklich die gesamte Ökobilanz von der
SERIE: Autos der Zukunft Teil I: Wie Nano das Auto verändert SdW 02/2009 Teil II: Die Zukunft fährt elektrischSdW 03/2009 Teil III: Elektroautos – die rollenden Stromspeicher SdW 04/2009 Teil IV: Intelligente Sicherheitssysteme SdW 05/2009 88
Primärenergieerzeugung bis zur Kraftübertragung auf die Straße (»Well-to-Wheel«) koh lendioxidfrei. Zum eigentlichen Entwicklungsschub ha ben vor allem deutliche Fortschritte in der Speichertechnologie und insbesondere bei Bat terieelementen beigetragen – forciert durch transportable elektronische Geräte wie Han dys, iPods, PDAs und Laptops. Und doch ha ben sich deutsche Autoschmieden der Elektromobilität bis vor ein, zwei Jahren mit aller Macht entgegengestemmt. Sie setzten auf den sparsamen Diesel und vertrauten auf deutsche Ingenieurkunst, mittels derer sich die Emissionen am Ende des Auspuffs schon unter die ge setzlichen Grenzwerte bringen lassen würden. Außerdem schien man mit Wasserstoff und Brennstoffzelle noch Trümpfe im Ärmel zu ha ben. Daimler arbeitet seit 1994 an dieser Tech nologie, investierte nach eigenem Bekunden bereits mehr als eine Milliarde Euro und hat sich die derzeit größte Brennstoffzellen-Fahr zeugflotte zugelegt. Dennoch stehen noch im mer keine Fahrzeuge beim Händler, zu ambiti oniert waren die ursprünglichen Ziele. Anfangs sollte das Brennstoffzellenfahrzeug sogar gänz lich ohne Batterie auskommen. Das Hybrid auto (Hybrid Electric Vehicle, HEV) hingegen, das in Japan und den USA sukzessive den Markt aufräumt und ihn für reine Elektroau SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Elektroautos sind im Kommen. Anders als mancher vermuten würde, konzentrieren sich die Ingenieure aber nicht nur auf kleine Stadtautos, sondern präsentieren auch PS-starke Sportwagen. Zwar ist die Batterie, die dem Benzin im Tank überlegen wäre, noch nicht erfunden, doch die Entwicklung verläuft rasant.
Alexey Dudoladov / iStockphoto
tos aufnahmefähig macht, wurde in Deutsch land noch bis vor Kurzem heftig boykottiert. Über Nacht hat sich nun die Situation ver ändert: Seit der Finanzkrise und dem »Auto salon« in Paris im Oktober 2008 scheint es nur noch ein Thema zu geben – Elektrofahrzeuge (Electric Vehicles, EVs). Bei bloßen Ankün digungen bleibt es indessen nicht. In London lässt Daimler ausgesuchte Kundengruppen Er fahrungen mit 100 batteriegetriebenen Exem plaren des »smart ed«, einem Smart mit »elec tric drive«, sammeln. Einige Windkrafträder produzieren für dieses Vorhaben sogar Öko strom, der ins Netz eingespeist wird. Auch beim Pilotprojekt »e-mobility Berlin« wird Daimler bald über 100 Elektroautos durch die Hauptstadt rollen lassen, aufladbar an 500 Stromzapfstellen des Energieversorgers RWE.
Auch der Strom ist »grün«
Ähnliches geschieht in Italien. Hier entwickelt der größte Energieversorger des Landes Enel eigens 400 neue Ladestationen für 100 EVs von Daimler, die ab 2010 in Rom, Mailand und Pisa unterwegs sein werden. Einen Flot tenversuch unternimmt auch Volkswagen mit dem Energieversorger E.ON. Dabei wollen die Unternehmen mit zwei Batteriespezialisten – der GAIA Akkumulatorenwerke in Nordhausen und der Litec Battery aus dem SPEKTRUM DER WISSENSCHAFT · März 2009
sächsischen Kamenz – sowie weiteren For schungseinrichtungen zusammenarbeiten. BMW hat unterdessen zu Vattenfall Eu rope gefunden: 50 Mini-E-Elektroautos sollen demnächst in Berlin an den Start gehen, an getrieben von zertifiziertem »grünem« Strom des schwedischen Energieversorgers. Zehnmal so viele Elektrofahrzeuge schickt BMW der zeit in den USA auf die Straße. Doch das »E« schmückt nicht nur kleine Stadtautos. Aus der kalifornischen Auto schmiede Tesla Motors stammt der Tesla Road ster, mit einer Spitzengeschwindigkeit von 200 Kilometern pro Stunde eines der schnellsten straßenzugelassenen Elektrofahrzeuge der Welt. Sein Nachfolger wird ab Mitte 2009 auch auf europäischen Straßen zu sehen sein. Der über 100 000 Euro teure Flitzer katapultiert sich bei einem Gewicht von 1240 Kilogramm inner halb von knapp vier Sekunden von null auf 100 Kilometer pro Stunde. 6831 aus der Com putertechnik geborgte Lithiumionen-(Li-Io nen-)Akkus speichern bei 375 Volt und einem Gewicht von 450 Kilogramm insgesamt 53 Kilowattstunden elektrische Energie. Ihre Ge samtleistung beträgt 225 Kilowatt (300 PS), das Drehmoment 280 Newtonmeter, die Reichweite 360 Kilometer. Nach dem Raketenritt muss man sich al lerdings in Geduld üben: Zwischen 4 und 16
In Kürze r
Angesichts der weltweiten Finanzkrise überbieten sich Autohersteller derzeit bei der Vorstellung elektrisch angetriebener Fahrzeuge, die möglicherweise die Zukunft der Mobilität verkörpern.
r
Zentral ist dabei die Verfügbarkeit leistungsfähiger Batterien. Lithiumionen- Akkus sind derzeit die vielversprechendsten Produkte. Zahllose Varianten offerieren je eigene Vorteile. r Serienreife Fahrzeuge sind allerdings noch selten, vorerst laufen Pilotprojekte. Noch haben die E-Mobile auch geringere Reichweiten als benzinbetriebene Autos. Doch der Bedarf an Vehikeln für den Stadtverkehr ist bereits größer, als ihn die Industrie decken kann.
89
DPA, Lukas Barth
Autos der Zukunft (Serie, Teil II)
Einen ungewöhnlichen Anblick bietet der kastenförmige Elektromotor des Mini E. 150 Kilowatt leistet das Aggregat und beschleunigt den Zweisitzer in 8,5 Sekunden von null auf 100 Kilometer pro Stunde. Die Reichweite liegt bei 240 Kilometern. 500 Exemplare sind bereits im Pilotprojekt auf amerikanischen Straßen unterwegs, weitere 50 fahren bald durch Berlin. Der Lithiumionen-Akku ist im Fond des Wagens platziert.
Tesla Motors
Der vollelektrische Tesla Roads ter befindet sich seit Mai 2008 in der Kleinserienproduktion. Noch in diesem Jahr kommt eine leistungsstärkere Variante auch auf den europäischen Markt.
Stunden dauert das Wiederaufladen. Von der gewaltigen Beschleunigung, der hohen Ge schwindigkeit, vor allem dem fast geräuschlo sen »Fliegen« sind die Tesla-Fahrer aber durch weg begeistert. Dass das Fahrzeug mit null Emissionen auskommt, wird indessen kaum wahrgenommen und verliert sich oft in den euphorischen Presseberichten. Unterdessen verstärkten die Hersteller ihre Präsenz auch auf der Detroiter Automesse NAIAS (North American International Auto Show) im Januar 2009 – ob GM, Ford, Jeep oder Dodge, Volvo, Mitsubishi oder PSA Peu geotCitroën. Die beiden Letztgenannten kün digten Mitte 2008 sogar eine zunächst kurz fristige Elektrokooperation an. PSA bringt als Branchenpionier die Erfahrung mit bislang rund 10 000 verkauften Elektrofahrzeugen in die Ehe ein, Mitsubishi wiederum verspricht sich eine Weiterentwicklung und gute Absätze seines auf dem Kleinwagen »i« basierenden »Mi-EV«, der bald auf den japanischen Markt kommen soll. Toyota rüstet derweil den Kleinstwagen »iQ« mit Elektroantrieb aus. Konzipiert ist der »FT-EV« (Future Toyota Electric Vehicle),
90
der allerdings erst 2012 beim Händler stehen soll, mit einer rein elektrischen Reichweite für Kurzstrecken im Stadtverkehr. Aber selbst ein Newcomer aus dem Reich der Mitte wie das chinesische Unternehmen BYD (Build Your Dream) offeriert einen EV. Der kom pakte Van namens »e6« soll 400 Kilometer am Stück schaffen und nach zehn Minuten zur Hälfte wieder aufgeladen sein. Daimler schließlich präsentierte bei der NAIAS die Studie »Concept BlueZero« auf Basis der neuen B-Klasse. Es handelt sich da bei um gleich zwei EVs mit Li-Ionen-Akkus, die ab 2010 auf den Markt kommen sollen. »E-CELL« steht für ein Auto mit batterieelektrischem Antrieb und einer rein elek trischen Reichweite bis 200 Kilometer. Der »E-CELL PLUS« verfügt dagegen über einen zusätzlichen »Range Extender«, einen Dreizy linder-Benzinmotor mit 50 Kilowatt Leistung bei konstanten 3500 Umdrehungen pro Mi nute, der den Akku bei Bedarf unterstützt. Er dient allerdings nicht wie bei einem Hy bridfahrzeug dem Antrieb, sondern lädt nur die Batterie nach. Das bringt gleich zwei Vor teile, nämlich die Vergrößerung der Reich weite gegenüber rein elektrisch betriebenen Fahrzeugen sowie die optimale Drehzahl und damit den besten Wirkungsgrad für den zu geschalteten Verbrennungsgenerator. Für den »E-CELL PLUS«, dessen rein elektrische Reichweite nur 100 Kilometer beträgt, kann der schwäbische Autobauer daher eine Ge samtreichweite von bis zu 600 Kilometer ver sprechen. Die Akkus sind flüssigkeitsgekühlt und ver fügen über eine Energiespeicherkapazität von 17,5 beziehungsweise 35 Kilowattstunden so wie einen kompakten, maximal 100 Kilowatt starken Elektromotor, der eine Dauerleistung von 70 Kilowatt und ein maximales Drehmo ment von 320 Newtonmeter entwickeln kann. Bei einer Ladeleistung von 15 Kilowatt, wie sie spezielle Stromzapfstellen bieten, können die Akkus innerhalb einer beziehungsweise zwei Stunden genügend Energie für 100 oder 200 Kilometer Fahrtstrecke speichern. Beim Stromzapfen an gewöhnlichen Steckdosen, die nur eine Ladeleistung von sieben Kilowatt bringen, verdoppeln sich die Ladezeiten. Die Euphorie der letzten Zeit kann in dessen nicht darüber hinwegtäuschen, dass die meisten heutigen Elektroautos keine er schwinglichen Serienfahrzeuge sind und die neue Technologie noch in den Kinderschuhen steckt. Weiterhin scheitern rein batterie-elek trisch angetriebene Autos an den Anforde rungen der an Benzin- und Dieseltreibstoff gewöhnten Fahrer, die unterwegs immer eine Tankstelle finden. SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer Was hat Deutschland in diesem Bereich zu bieten? Zumindest bis in die 1990er Jahre war das Autoland führend in der Elektrochemie. Doch seit dem Großversuch mit batteriebetrie benen Autos auf der Insel Rügen – mit nicht ausgereifter Batterietechnik in herkömmlichen, viel zu schweren Autos, die eigentlich für einen Verbrennungsmotor ausgelegt waren – wurde die Speichertechnik ad acta gelegt. Einige Fahr zeuge brannten damals wegen Batterieüber hitzung ab, und die Leistungsparameter der Batterien konnten gegenüber Benzin und Die sel nicht punkten. Also wurde in den letzten Jahren der Diesel parkettfähig gemacht, und man werkelte an der Brennstoffzelle. Nun hat sich der einstige Vorsprung verflüchtigt. Japa nische Autos rollen den Markt auf, in der Bat terietechnologie geben China und Japan den Ton an, und überall finden Batteriespezialisten und Autoleute zusammen. Nachdem beispielsweise Mitsubishi schon im Jahr 2007 ein Joint Venture mit der GS Yuasa Corporation eingegangen ist, plant nun auch Honda, mit dem japanischen Batterie spezialisten eine gemeinsame Firma für Fer tigung und Vertrieb von Hochleistungsbat terien in Lithiumionen-Technologie zu grün den. Automotive Energy Supply Corporation (AESC) wiederum ist ein japanisches Ge meinschaftsunternehmen von Nissan und NEC. Panasonic EV Energy liefert für Toyota die Akkus, und Hitachi und Sanyo aus Japan sowie Samsung aus Korea haben ebenfalls ihre Partner in der Branche gefunden.
Wertvoll wie eine Ölquelle
Deutschland ist im Zugzwang, wie auch Mi nisterialdirektor Uwe Lahl im Bundesumwelt ministerium bereits schwant: »Wer Akkus ent wickelt, besitzt eine eigene Ölquelle!« Also fördert das Bundesforschungsministerium die Lithium-Technologie mit 60 Millionen Euro und unterstützt damit seit Ende 2007 ein Konsortium aus BASF, Bosch, Evonik und Volkswagen, das seinerseits weitere 360 Milli onen Euro in das Projekt steckt. Bosch und Samsung SDI haben sich ebenfalls die LiIonen-Technik vorgenommen und wollen in den nächsten fünf Jahren zwischen 300 und 400 Millionen Euro investieren. Das ist längst nicht alles. Volkswagen und Evonik finanzieren seit Anfang 2008 einen Lehrstuhl an der Universität Münster, um die Grundlagenforschung an elektrischen Spei chermedien zu stärken. Forschung findet auch im »Projekthaus e-drive« statt, das Ende 2008 von Daimler mit dem Karlsruher Institut für Technologie, einer Gemeinschaftseinrich tung von Universität und Forschungszentrum Karlsruhe, ins Leben gerufen wurde und die SPEKTRUM DER WISSENSCHAFT · März 2009
Themen Leistungselektronik, Steuerungs- und Regelungstechnik sowie elektrische Energie speicherung und Elektromaschinenbau bün deln soll. Wissenschaftler des Stuttgarter MaxPlanck-Instituts für Festkörperphysik und des Fraunhofer-Instituts für Chemische Techno logie in Pfinztal bei Karlsruhe tüfteln ebenfalls seit Langem an Lithiumsystemen. Mit gutem Grund: »Die Zukunft und ein Großteil der Gegenwart«, so bekundet Joa chim Maier, Direktor der Abteilung für Phy sikalische Chemie am Max-Planck-Institut für Festkörperforschung, »gehört lithiumba sierten Systemen.« Das sehr leichte Alkali metall Lithium ist nämlich prädestiniert für hohe Energiedichten und sehr hohe Zellspan nungen. In Li-Ionen-Batterien besteht die Kathode grundsätzlich aus einer Metalloxidmatrix, aus der Lithiumionen austreten können, und ei ner Anode, die – zumindest bislang – übli cherweise aus Graphit besteht. Als Elektrolyt fungiert ein in einem organischen Lösungs mittel gebundenes Lithiumsalz. Beim Aufla den wandern die Lithiumionen von der Ka thode weg und setzen sich im Graphit fest, beim Entladen kehren die Elektronen zu ihrer Beim Zweisitzer »Smart ed« befindet sich die Batterie unter den Sitzen. Geliefert wird sie vorerst allerdings von Tesla Motors. Denn die Batterie, die Smart-Hersteller Daimler gemeinsam mit Evonik produzieren will, ist wohl erst in einigen Jahren einsatzreif.
Ladegerät Getriebe Kühler für den Antrieb
Elektromotor Leistungselektrik LithiumionenBatterie Gaspedalmodul Merc
edes
Benz
Unterdruckpumpe für Bremssystem
91
Autos der Zukunft (Serie, Teil II) Aufholjagd Den Titel des schnellsten elektrischen Serienfahrzeugs der Welt will sich der Ultimate Aero EV von Shelby SuperCars (SSC) im US-Bundesstaat Washington noch in diesem Jahr verdienen. 1000 Pferdestärken sollen den Sportwagen in 2,5 Sekunden von null auf 100 und auf maximal 335 Kilometer pro Stunde beschleunigen. Die versprochene Ladezeit von zehn Minuten an einer 220-Volt-Steckdose, nach der die Reichweite erneut rund 300 Kilometer betragen soll, ist allerdings zweifelhaft.
Ausgangselektrode zurück. Weil die Elektro den sicher und gleichmäßig voneinander ge trennt sein müssen, ist dabei der »Abstand halter« oder Separator von großer Bedeutung. Hier kommen hochisolierende Kunststoffe oder Keramiken zum Einsatz, die jedoch für Ionen durchlässig sein müssen.
Kavalierstarts verbieten sich
Weil sich die Materialien für Kathode, Anode und Elektrolyt baukastenartig austauschen las sen, wächst die Vielfalt der Li-Ionen-Systeme ständig und die Forscher stoßen auf immer neue Eigenschaften. Systeme auf Basis von Li thiumnitrat und Lithiumeisenphosphat (LiFe PO4 ) etwa weisen mit rund 4000 Watt pro Ki logramm die höchsten Leistungsdichten auf. Davon könnten Fahrer beim »Gas geben« pro fitieren. Die höchste Energiedichte erreicht man hingegen mit Lithiumnickelkobalt (Li NiCo). Damit lässt sich ein Auto lange und weit fahren, Kavalierstarts verbieten sich je doch. Den Kostenvergleich gewinnt das LiFe PO4-System, das mit 500 Euro pro Kilowatt stunde aktuell die günstigste Li-Ionen-Batterie darstellt. Die höchste Zellspannung wiederum erreicht man mit Lithiumkobaltoxid. Lithiumnitrat-Zellen schließlich sind der zeit mit 1400 Euro pro Kilowattstunde die
teuersten elektrischen Energielieferanten, al lerdings lassen sich damit hohe Spannungen auf kleinem Bauraum realisieren, ebenfalls ein wichtiges Kriterium für Autokonstruk teure. Interessant ist auch das nanostruktu rierte Anodenmaterial Li-Titanat, das von der Firma Altairnano aus Reno in Nevada be reits in Akkus integriert wird. Das beein druckendste daran ist seine hohe Ionenbeweg lichkeit: Die Altair-Batterie lässt sich binnen einer Minute auf 80 Prozent ihrer Kapazität laden. Die relativ geringe Energiedichte sorgt allerdings für höheres Gewicht. Sehr leistungsfähig sind auch die von Saft (einem in Frankreich beheimateten Konzern), JVC, Toyota und Samsung produzierten Systeme aus Lithium-, Nickel-, Kobalt- und Alu miniumoxid. Allerdings können sie infolge hoher Wärmeentwicklung explodieren und müssen daher in spezielle Stahlbehälter einge haust werden. Ein weiteres viel versprechendes, allerdings ebenfalls stark temperaturabhängiges System besteht aus Li-Manganoxid (LMO, LiMn2O4) und Li-Titanoxid (LTO, Li4Ti5O12). Aus LMO lassen sich sehr preiswerte, leistungs fähige und stabile Kathoden herstellen, wäh rend LTO als Anode große Leitfähigkeit auf weist und obendrein als unverwüstlich gilt, da
Kein Elektroboom ohne leistungsfähige Batterien Das Elektrofahrzeug steht und fällt mit der technischen Beherrschung des grundlegenden Prinzips der elektrochemischen Energiespeicherung. Zunächst wird einer wiederaufladbaren Zelle (Akkumulator) Energie zugeführt, beim Entladen erhält man elektrische Energie zurück. Die für die Elektrochemie entscheidenden Reduktions- und Oxidationsvorgänge laufen dabei an der Phasengrenze zwischen Elektrode und Elektrolyt ab. elektrischer Strom
Verbraucher / Ladegerät Kathode
Separator
Elektrolyt
Anode
Lithiumion
+ + +
+
+
Jen Christiansen
+
In einer Lithiumionen-Batterie wandern positiv geladene Li-Ionen von der Anode durch einen porösen Separator zur Kathode. An der Anode werden dabei Elektronen frei, die als Strom zum Verbraucher fließen. Der Ladevorgang verläuft umgekehrt.
92
Bei galvanischen Elementen (»nicht aufladbaren« Batterien) bildet die negative Elektrode die Kathode, bei wiederaufladbaren Akkumulatoren fungiert die Elektrode abwechselnd als Anode oder Kathode, abhängig davon, ob die Batterie geladen oder entladen wird. Die Nennspannung der Zelle wird durch die eingesetzten Elektrodenmaterialien festgelegt, höhere Spannungen lassen sich durch Hintereinanderschalten mehrerer Zellen erreichen (daher auch der Begriff »Batterie«). Das Produkt aus Spannung und Kapazität ergibt den Energiegehalt des Akkus. Bei der Aufladung werden Ionen aus der chemischen Bindung der positiven Anode zur negativen Kathode gezogen, wo sie sich anlagern und eine chemisch energiereichere Bindung eingehen. Wichtig ist dabei die Aufnahmefähigkeit der Oberfläche für Elektronen, was sich im Maß für die Kapazität (gemessen in Amperestunden), also für die gespeicherte elektrische Ladung ausdrückt. Die theoretische Kapazität hängt von der Menge beziehungsweise Oberflächencharakteristik des Elektrodenmaterials ab. Sie unterscheidet sich häufig von der entnehmbaren »praktischen« Ladung und lässt sich durch Vergrößerung der Oberflächen und durch Parallelschaltung von Zellen erhöhen, was aber das Gewicht erhöht und mehr Bauraum verlangt. Außerdem hängt sie entscheidend von den konkreten Entladebedingungen ab, darunter Belastung, Temperatur, Alter und Ladehistorie. Im Allgemeinen nimmt die nutzbare Kapazität einer Batterie mit zunehmendem Entladestrom ab. Grund dafür sind wachsende Verluste am Innenwiderstand der Batterie, Veränderungen an der
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer Wer sich Sorgen um geeignete Stromtankstellen und nicht ausgereifte Technik macht, kann statt zum Elektroauto zum Hybridfahrzeug greifen. Mittlerweile bringen auch deutsche Hersteller Autos auf den Markt, die Benzin- und Elektromotor kombinieren. Im Fall des Mercedes-Benz S400 Hybrid ist ein scheibenförmiger Elektromotor direkt auf der Kurbelwelle angebracht. (Rein elektrisch angetriebene Fahr120-Volt-Batterie zeuge verfügen meist über vier an den
Standard-12-Volt-Batterie
Geometrie und Einflüsse der Temperatur. Auch die Geschwindigkeit der elektrochemischen Prozesse und der Transportvorgänge in der Batterie beeinflussen die Kapazität. Insbesondere liegt im Verschleiß von Elektroden und Elektrolyt eine weitere Hürde für die Effizienz von Systemen. Manche Stoffe können viele Elektronen speichern oder an sich binden, geben sie aber nicht so schnell ab, andere wiederum besitzen leicht bewegliche Ionen, aber begrenzte Speicherfähigkeit. Diese Faktoren bestimmen daher auch die nötigen Ladezeiten und die Fähigkeit der Akkus, auf lange Sicht viele Lade-/Entladezyklen zu überstehen. Als Leistung einer Batterie bezeichnet man die Menge an elektrischer Energie, die sich pro Zeiteinheit entnehmen lässt. Sie ist das Produkt aus Entladestrom und Entladespannung und wird in Watt (W) angegeben. Allerdings entladen sich alle Batterien allmählich selbst, wenn sie nicht im Gebrauch sind. Die Geschwindigkeit der Selbstentladung hängt von Materialien und Batterietyp, aber auch von der Häufigkeit der Zyklen, der vorangegangenen Entladetiefe und der Temperatur ab. Den Dauereinsatz in Kraftfahrzeugen limitiert auch die Zyklen festigkeit. Feste Elektrolyten können »verstopfen«, flüssige auslaufen, gasförmige entweichen. Bei einigen Elektroden korrodieren die Oberflächen, ihre Speicherfähigkeit nimmt so mit der Zeit ab. Aus anderen wächst eine Art Kristalle, wodurch sich der Elektrodenabstand verkleinert. Dadurch verringert sich die Kapazität, was zu Spannungsabfall führt, die chemischen Reaktionen aber
SPEKTRUM DER WISSENSCHAFT · März 2009
Elektromotor herkömmliches Automatikgetriebe
auch so beschleunigen kann, dass sie immer mehr Wärme produzieren und schließlich zur Explosion führen. Aus all diesen Gründen suchen Autoingenieure weltweit Spe zialisten, die sichere und leistungsfähige Batterien herstellen. Außerdem sollen sie eine lange Lebensdauer (gleichbedeutend mit einer hohen Zahl von Zyklen) besitzen und sich in kurzer Zeit wieder aufladen lassen. Weitere wichtige Vergleichsgrößen für Autobauer sind die Energiedichte (Energie pro Gewicht beziehungsweise Volumen in Wattstunden pro Kilogramm) und Leistungsdichte (entnehmbare Leistung pro Gewicht beziehungsweise Volumen in Watt pro Kilogramm), entweder absolut oder bezogen auf das Bauraumvolumen. >> R. L.
AltairNano
Rädern angebrachte Nabenmotoren.) Eine Steuerelektronik koordiniert das Zusammenspiel der beiden Aggregate. Die in den Kofferraum ausgelagerte übliche 12-VoltBatterie und die 120-Volt-Lithiumionen-Batterie für den Elektroantrieb sind an je eigene Stromkreise angeschlossen.
Mercedes-Benz
Steuer elektronik
In den Batterien von Altairnano verhindert eine nanostrukturierte Anode aus Lithiumtitanat (Bild), dass sich um die Anode herum eine Grenzschicht ausbildet, die den Fluss der Lithiumionen bremst.
93
Autos der Zukunft (Serie, Teil II) Woher nehmen? Woher kommt der für die Elektromobilität benötigte Strom? Das Problem könnte kleiner sein, als es scheint. Laut einer Studie unter ande rem der Deutschen Gesellschaft für Sonnenenergie würden 40 Millionen Hybridund Elektroautos den deutschen Strombedarf um nur zehn Prozent ansteigen lassen. Auch wenn es beim heutigen Strommix bliebe, sparte man in der Summe viel Öl – und knapp 30 Millionen Tonnen Kohlendioxid. Erneuerbare Energien ließen diesen Wert auf 67 Millionen Tonnen ansteigen.
Reinhard Löser ist promovierter Physiker, habilitierter Volkswirt sowie intimer Kenner der Automo bilindustrie. Als freier Autor lebt er in Ebenhausen bei München.
Auto der Zukunft. Sonderausgabe 1/2009 von Technology Review. Heise, Hannover 2009. ecomobil spezial. Sonderausgabe von ecomobil – das zeitgemäße automagazin. München, Juli 2008. Naunin, D. et al.: Hybrid-, Batterieund Brennstoffzellen-Elektrofahrzeuge. Technik, Strukturen und Entwicklungen. Expert-Verlag, Renningen 2006. Stan, C.: Alternative Antriebe für Automobile. Hybridsysteme, Brennstoffzellen, alternative Energieträger. Springer, Heidelberg 2008. Tollefson, J.: Charging up the Future. In: Nature 456, S. 436 – 440, 27. November 2008.
Weitere Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979759.
94
es mehr als 20 000 Lade-/Entladezyklen über steht. Überdies erlaubt das Materialgemisch LMO/LTO, den Produktionsprozess einfach, sicher und kostengünstig zu gestalten. So überrascht es nicht, dass die traditionellen ja panischen Batteriehersteller Toshiba und Hi tachi auf diese Technologie setzen und sie pa tentrechtlich weitläufig absichern.
Deutsche Forscher wieder mitten im Geschehen
Doch Neuerungen gibt es allerorten. Wäh rend Wissenschaftler an der kalifornischen Stanford University zur Kapazitätserhöhung die Graphitanode durch Silizium-Nanoröhren ersetzen, arbeiten Forscher des Zentrums für Sonnenenergie- und Wasserstoffforschung in Ulm an innovativen Elektrolyten. Weil or ganische Elektrolyte gegenüber hohen Tem peraturen empfindlich sind, sollen sie durch ionische Flüssigkeiten oder Gels ersetzt wer den, denn beispielsweise der Tesla benötigt für seine Akkus noch eigens eine separate Klima anlage. Allen Unkenrufen zum Trotz scheint Deutschland nun wieder das Heft in die Hand zu nehmen. Die Litec Battery in Sachsen – seit Ende 2008 ein Gemeinschaftsunternehmen von Evonik Industries und Daimler – kann komplette, serientaugliche Li-Ionen-Zellen fer tigen, die zu Batterien weiterverarbeitet wer den. Konkurrenzprodukte stellt die Litec-Bat terie klar in den Schatten. So sind ihre spezi ellen Kompositanoden in der Lage, dreimal mehr Energie als die Lithiumbatterie des fran zösischen Unternehmens Saft zu speichern. Außerdem ist ihr Volumen um 30 Prozent ge ringer als das der Toyota-Panasonic-Batterie: Die Zelle der Kamenzer ist mit 23 mal 18 Zen timetern kaum größer als ein Schulheft und wiegt ein Kilogramm. Litec-Geschäftsführer Andreas Gutsch schwärmt von ihrem Leistungsvermögen, sie sei »hundertmal so stark wie ein Bleiakku«. Damit markiert das lang lebige Produkt, das auch für die Massenferti gung geeignet ist, die Spitze der Technologie. Sämtliche Komponenten, welche die Leistungsfähigkeit der Batterie bestimmen – Ka thode, Anode, Elektrolyt und Separator –, werden bei Litec mit speziellem Knowhow zu sammengeführt. Herzstück sind dabei der von der Evoniktochter Degussa entwickelte keramische Separator »Separion« sowie die »Litarion«-Elektroden von Evonik, für die das Unternehmen sogar eigene Forschungskapazi täten aufgebaut hat. Von besonderer Bedeutung ist der kera mische Separator. Er ist hitzebeständig sowie physikalisch und chemisch stabiler als die bis lang verwendeten Folien aus Polyolefinen. We
der bei Überlastung noch bei Beschädigung schmilzt er. Das ist entscheidend, denn die ho hen Energiedichten insbesondere auch der Ka menzer Zellen ließen sich sonst nicht unter Kontrolle halten. Käme es einmal zum Kurz schluss, würde der Energieinhalt der Batterie schlagartig in einem Plasmabogen freigesetzt. Daimler wiederum bringt weitere 600 Pa tente zu batteriegetriebenen Fahrzeugen in die Litec-Ehe ein, davon über 230 auf dem Gebiet der Li-Ionen-Technologie. Ein noch gesuchter Dritter im Bunde soll über Kompetenzen in der Systemintegration Elektrik/Elektronik ver fügen. Geplant ist zudem ein Joint Venture der Großunternehmen speziell für die Ent wicklung und Produktion von Pkw- und LkwBatteriesystemen. Vorerst soll Litec allerdings nur für den Bedarf von Mercedes produzieren, später ist auch ein Verkauf von Zellen und Batteriesystemen an Dritte vorgesehen. Damit sind die Deutschen wieder mitten im Geschehen. Vom Markt der Lithium ionen-Batterien, der mit jährlichen Raten von über zehn Prozent innerhalb der nächsten zehn Jahre auf mehr als zehn Milliarden Euro wachsen soll, werden sie sich wohl ein ordent liches Stück abschneiden. Angesichts der Fortschritte, dank derer sich nun immer leistungsfähigere, leichtere und kleinere Batterien herstellen lassen, wird viel leicht auch endlich ein Preis abgeholt, der bereits seit 1925 ausgeschrieben ist. Sakichi Toyoda, der Gründer von Toyota, hatte eine Million Yen für eine Autobatterie mit der glei chen Energiedichte wie Benzin ausgelobt. 36 Stunden lang soll sie eine Leistung von 100 PS (74 Kilowatt) abgeben. Darüber hinaus darf die so genannte Sakichi-Batterie ein Höchst gewicht von 225 Kilogramm und ein Volu men von 280 Litern – Werte, die der Nutzung in einem Auto noch entsprechen – nicht über schreiten. Doch selbst wenn sich die Preisverleihung weiter verzögert: Technisch aufgeschlossene und ökologiebewusste Autofahrer würden lieber heute als morgen ein Elektroauto nut zen – vor allem für ihre täglichen Stadt fahrten, wofür die heute verfügbaren Reich weiten schon genügen. Das ist zumindest das Ergebnis einer aktuellen weltweiten Studie der Strategieberater Bain & Company. Demnach fehlen in Europa bereits jetzt rund 600 000 Elektrofahrzeuge pro Jahr. Die Industrie muss sich anstrengen. Wie lassen sich Elektroautos intelligent betanken und als rollende Stromspeicher nutzen? Mehr dazu erfahren Sie im nächsten Teil unserer Serie in der Aprilausgabe.
SPEKTRUM DER WISSENSCHAFT · März 2009
Multi-Touch-Screens
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Sensible Bildschirme Nicht nur Stoff für Sciencefiction-Filme: große trans parente Displays, auf denen mit Berührungen und Ges ten virtuelle Objekte und Dokumente bewegtwerden. Bald könnten Computer ohne Maus und Tastatur auskommen.
Von Stuart F. Brown
A
In Kürze r
Multi-Touch-Screens reagieren nicht nur auf einen Finger, sondern folgen den Anweisungen vieler Finger gleichzeitig.
r
Ein wandgroßer Schirm, den die Firma Perceptive Pixel entwickelt hat, reagiert auf bis zu zehn Finger oder mehrere Hände. Microsoft und Mitsubishi bieten kleinere Systeme speziell für Hotels, Läden, Konstruktions- und Designbüros an.
r
Der Multi-Touch-Computer wird uns vielleicht eines Tages von der Maus als derzeit wichtigstem Bedienungselement befreien – wie uns die Maus von der Tastatur emanzipiert hat.
96
ls Ende 2007 das iPhone von Apple auf den Markt kam, machte es so genannte Multi-TouchScreens – mehrfach berührungsempfindliche Bildschirme – allgemein bekannt. Die Bilder auf dem kleinen Display lassen sich nicht nur mit einer Fingerspitze umherbewegen, sondern obendrein auch durch Spreizen oder Verengen von zwei auf den Bildrändern platzierten Fingerspitzen ver größern oder verkleinern. Diese Bedienungsmöglichkeit fand sofort begeisterte Anhänger, denn sie funktioniert einfach und praktisch, und sie appelliert unmittelbar an unseren Tastsinn. In mehreren Labors rund um den Erdball sind solche Zweifingerbefehle jedoch bereits ein alter Hut; Techniker haben viel größere Bildschirme entwickelt, die auf zehn Finger gleichzeitig reagieren, ja sogar auf die Hände mehrerer Personen. Man kann sich leicht vorstellen, wie Fotografen, Grafiker oder Architekten – Profis, die viel visuelles Material bewältigen müssen und oft in Teams arbeiten – solche Multi-TouchComputer begrüßen werden. Doch die Technik wird bereits für noch weiter reichende Anwendungen erprobt: Ohne ein spezielles Training soll man während einer Teamsitzung einfach die Hand ausstrecken können, um Objekte und Pläne umherzubewegen oder einzeln hervorzuheben.
Jeff Han ist Informatiker an der New York University sowie Gründer der New Yorker Firma Perceptive Pixel. In deren Lobby prangt ein fast 2,5 mal 1 Meter großer Flachbildschirm. Auf der elektronischen Wand entfesselt Han mit bloßen Fingern eine wahre Bilderflut. Zehn Videokanäle können simultan ablaufen, und eine Symbolleiste ist nicht zu sehen. Wenn Han unterschiedliche Dateien aufrufen möchte, tippt er zweimal auf das Display und öffnet damit Listen oder Menüs, die wiederum angetippt werden können.
Empfindsame Pixel
Anfangs haben mehrere Kunden komplette Systeme gekauft, darunter Geheimdienste, die in ihren Einsatzzentralen geografisch lokalisierte Überwachungsbilder rasch vergleichen müssen. Im Vorwahlkampf um die ameri kanische Präsidentschaft nutzten Moderato ren des Nachrichtensenders CNN ein großes Perceptive-Pixel-System, das alle 50 Bundesstaaten darstellte; um Wahlergebnisse vorzuführen, holten die vor dem Schirm stehenden Moderatoren mit dramatischen Gesten einzelne Staaten oder sogar Bezirke nahe heran und schoben sie wieder beiseite. Für die Zukunft erwartet Han, dass die Technik sich in grafisch aufwändigen Bereichen, etwa im Energiehandel und für bildgebende Verfahren in der Medizin, fest etablieren wird. Wie Bill Buxton aus der Forschungsabteilung von Microsoft zu berichten weiß, liefen SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Brian Maranan Pineda
SPEKTRUM DER WISSENSCHAFT · März 2009
Schirms eingeschränkt hätte. Schließlich konstruierte Han ein rechteckiges Blatt aus durchsichtigem Acryl, das wie ein Wellenleiter wirkt. Leuchtdioden pumpen von den Rändern infrarotes Licht in das Blatt, das die Lichtwellen in seinem Inneren durch Totalreflexion gefangen hält, nach demselben Prinzip wie ein Glasfaserkabel. Doch wenn jemand den Finger auf eine Oberfläche des Blatts drückt, treffen einige der intern reflektierten Lichtstrahlen auf diese Stelle, werden gestreut, durchqueren die Acrylschicht und treten an der gegenüberliegenden Oberfläche aus. Kameras hinter dem Schirm registrieren dieses durch verhinderte Totalreflexion austretende Licht – und somit die berührte Stelle. Die Kameras können zahlreiche solcher Lichtlecks gleichzeitig verfolgen. Bald entdeckte Han, dass die Acrylscheibe auch als Diffusionsschirm dienen kann; ein mit einem Computer verbundener Projektor wirft auf die Scheibe von hinten Bilder, die auf die andere Seite hindurchdiffundieren. Der Schirm dient darum zugleich als Output für Bilder und als Input für Berührungen dieser Bilder. Den exakten Ort der Finger aufzuspüren war nur das erste Problem. Als noch schwieriger erwies es sich, Software zu entwickeln, welche die Fingerbewegungen zu verfolgen und in Anweisungen für das Manipulieren der Bilder auf dem Schirm umzuwandeln vermag. Ein halbes Dutzend Programmierer musste zu-
Jeff Han demonstriert seinen Multi-Touch-Screen, der auf die Bewegungen mehrerer Finger oder Hände zu reagieren vermag. Hier vergrößert er gerade ein Bild.
Das iPhone von Apple machte mehrfach berührungsempfindliche Schirme populär; doch in Labors entstehen schon viel leistungsfähigere Systeme.
Corbis / EPA / Apple
erste Vorarbeiten zu mehrfach berührungsempfindlichen Benutzeroberflächen schon Anfang der 1980er Jahre. Doch erst um das Jahr 2000 begann Han an der New York University, eine der größten Hürden zu überwinden: die Entwicklung hoch auflösender Sensoren für Fingerspitzen. Dies erforderte neuartige Hard- und Software. Als grundlegend erwies sich die verhinderte Totalreflexion ( frustrated total internal reflection, FTIR), ein optischer Effekt, der auch in Geräten zur Erkennung von Fingerabdrücken genutzt wird. Han wurde auf den Effekt aufmerksam, als er eines Tages durch ein volles Wasserglas blickte. Er bemerkte, wie deutlich sein Fingerabdruck auf der Außenseite des Glases erschien, wenn er ihn durch das Wasser hindurch betrachtete. Das brachte ihn auf die Idee, ein elektronisches System könnte Fingerspitzen auf der transparenten Oberfläche eines Computerbildschirms optisch verfolgen. Damit begann seine sechs Jahre lange Beschäftigung mit Multi-Touch-Elementen. Zunächst zog er eine sehr hoch auflösende Version der einfach berührungsempfindlichen Schirme in Betracht, die in Bank- und Fahrkartenautomaten verwendet werden; sie reagieren auf die elektrische Kapazität eines Fingers, der vordefinierte Punkte auf dem Schirm berührt. Doch das Verfolgen einer beliebigen Fingerspur hätte einen unsinnigen Aufwand an Verdrahtung hinter dem Schirm erfordert, was wiederum die Verwendbarkeit des
97
Multi-Touch-Screens
Leuchtdiode
Verfolgte Finger
druckempfindlicher Kunststoff
Die avanciertesten Multi-TouchScreens reagieren auf Bewegung und Druck mehrerer Finger. Im Perceptive-Pixel-Sys tem senden Projektoren Bilder durch einen transparenten Acrylschirm zu der Oberfläche vor dem Betrachter. Wenn Finger oder Stifte diese Fläche berühren, wird Infrarotlicht, das Leuchtdioden seitlich in die Acrylschicht einspeisen, von den Fingern zu Sensoren zurückgestreut. Software deutet die Daten als Fingerbewegungen. Durch Antippen des Schirms können Menüs aufgerufen werden.
zum Sensor gestreutes Licht
Sensor
Acrylschirm Projektor
Computer
Perceptive Pixel
projiziertes Bild Melissa Thomas
Leuchtdiode
John King, Moderator der US-Fernsehanstalt CNN, erklärt mit Hilfe eines Perceptive-PixelSchirms Detailergebnisse im Vorwahlkampf um die amerikanische Präsidentschaft.
98
Toaltreflexion
nächst Software schreiben, die als hoch leis tungsfähiges Grafikprogramm funktionierte, unter anderem, damit das Display wenig Trägheit aufwies und keine störenden Mehrfachbilder erzeugte, wenn Objekte schnell über den Schirm gezogen wurden. Dann galt es, den ungewöhnlichen, durch verhinderte Totalrefle xion erzeugten Lichtoutput des Schirms zu bewältigen, wenn Fingerspitzen in allen möglichen Richtungen über den Schirm wischten. Tief in der Architektur eines Betriebssys tems steckt die Annahme, dass die Eingaben des Nutzers entweder von einer Tastatur oder von einer Maus stammen. Tastenbefehle sind eindeutig: Ein »q« bedeutet »q«. Die Bewegung einer Maus wird in kartesischen Koordinaten ausgedrückt – durch Werte für x und y auf einem zweidimensionalen Gitter. Solche Methoden für die Darstellung von Inputs gehören zu den Aufgaben der grafischen Benutzeroberfläche ( graphical user interface, GUI). Bei Han erzeugt der Multi-Touch-Screen zehn oder mehr Ströme von x- und y-Koordinaten gleichzeitig, und »die herkömmlichen GUIs sind für so viel Gleichzeitigkeit wirklich nicht ausgelegt«, betont er. Die gängigen Betriebssysteme – Windows, Macintosh, Linux – wurden so stark auf nur einen Mauskursor ausgerichtet, dass »wir eine ganze Menge Installa tionen herausreißen mussten, um ein neues Multi-Touch-Grafiksystem herzustellen«. Wie Han dabei herausfand, lässt sich der Acrylschirm auch durch eine dünn aufgetragene Kunststoffschicht druckempfindlich machen, die mit mikroskopischen Graten versehen ist. Wenn ein Nutzer fester oder leichter
Um ein Signal zu erzeugen, fluten Leuchtdioden den Acrylschirm mit Licht, das darin durch Totalreflexion gefangen bleibt. Nur wenn ein Finger die Oberfläche berührt, wird Licht aus dem Schirm zu den Sensoren gestreut. Außerdem verbiegt sich eine druckempfindliche Kunststoffschicht mehr oder weniger stark. Der Computer interpretiert das dadurch stärkere oder schwächere Lichtsignal als mehr oder weniger Druck der Fingerspitze.
auf irgendeinen Punkt des Kunststoffs drückt, verbiegt dieser sich mehr oder weniger, das Gebiet des Fingerabdrucks wird größer oder kleiner, das gestreute Licht wird stärker oder schwächer – und das vermag die Kamera aufzuspüren. Indem der Nutzer fest auf ein virtuelles Objekt drückt, kann er es auf dem Schirm hinter ein benachbartes Objekt schieben. Das 2006 von Han gegründete PerceptivePixel-Team setzte all diese Elemente zusammen und führte das System im selben Jahr auf der TED-Konferenz (für technology, entertainment and design) einem begeisterten Publikum vor. Seither laufen immer mehr Bestellungen ein. Über den Preis schweigt die Firma.
Microsoft kratzt an der Oberfläche
Während Han sein System perfektionierte, verfolgten anderswo Techniker mit anderen Mitteln das gleiche Ziel. Der Softwaregigant Microsoft bringt gerade einen kleineren Multi-Touch-Computer namens Surface (Oberfläche) heraus. Im Jahr 2001 begannen Stevie Bathiche von Microsoft Hardware und Andy Wilson von Microsoft Research einen inter aktiven Computertisch zu entwickeln, der darauf platzierte physische Objekte zu erkennen vermochte. Die beiden Neuerer stellten sich vor, der Computertisch könnte als elektronischer Flipper, als Videopuzzle oder als Fotoalbum dienen. Nach mehr als 85 Prototypen präsentierten sie einen Tisch mit durchsichtiger Acrylfläche, unter der ein Projektor sitzt (siehe Bild rechts). Der Projektor wirft von unten Bilder auf den waagerechten, 75 mal 75 Zentimeter großen SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Auch Mitsubishi macht mit
Technisch interessant wirkt der DiamondTouch-Tisch der Start-up-Firma Circle Twelve in Framingham (Massachusetts), die sich kürzlich von den Mitsubishi-Forschungslaboratorien abgetrennt hat. Der ursprünglich bei Mitsubishi entwickelte Tisch ist so eingerichtet, dass Außenstehende darauf Software für eigene Zwecke schreiben können; mehrere Dutzend Tische sind bereits in den Händen von akademischen Forschern und kommerziellen Kunden. DiamondTouch bezweckt, »die Zusammenarbeit kleiner Gruppen zu unterstützen«, sagt Adam Bogue, Marketing-Vizepäsident bei Mitsubishi. Mehrere Personen sitzen rund um den Tisch und sind mit einem Computer darunter verbunden. Sobald ein Teilnehmer den Tisch berührt, sendet ein in den Schirm eingebettetes Antennenfeld extrem schwache Radiofrequenzen durch seinen Körper und den Stuhl zu einem Empfänger im Computer; das Prinzip ist als kapazitive Kopplung bekannt. Die jeweils gekoppelten Antennen zeigen den Punkt auf dem Schirm an, den die Person gerade berührt. SPEKTRUM DER WISSENSCHAFT · März 2009
Intelligenter Tisch
Infrarotkameras
Computer
Melissa Thomas
Schirm. Außerdem bestrahlt eine Leuchtdiode den Tisch von unten mit Infrarotlicht, das von Objekten an der Oberseite gestreut wird. Ein Windows-Vista-Computer besorgt die Datenverarbeitung. Microsoft liefert Surface-Computertische an vier Partner in der Freizeit-, Einzelhandelsund Unterhaltungsbranche, von denen die Firma annimmt, sie würden die Technik am ehesten anwenden. Zum Beispiel wird die Sheraton-Hotelkette versuchen, in ihren Lobbys Surface-Computer zu installieren, mit denen die Gäste im Internet surfen, Musik hören, digitale Fotos verschicken oder Essen und Trinken bestellen können. In amerikanischen TMobile-Läden werden Kunden in der Lage sein, verschiedene Handymodelle zu vergleichen, indem sie diese einfach auf einen Surface-Schirm legen; schwarz gepunktete Dominosymbole auf der Unterseite der Handys werden das System veranlassen, Preis, Leistung und Telefontarife darzustellen. Mit anderen Microsoft-Programmen wird es möglich sein, eine zu drahtloser Datenübertragung fähige Digitalkamera einfach auf einen Surface-Computer zu legen, um ihre Aufnahmen ohne Kabelverbindung auf den Computer zu laden. Surface-Systeme der ersten Generation kos ten 5000 bis 10 000 Dollar (3750 bis 7500 Euro). Mit steigendem Produktionsvolumen dürfte der Preis sinken. Microsoft zufolge sollen Surface-Computer in drei bis fünf Jahren zu den für Elektronikgeräte üblichen Marktpreisen erhältlich sein.
Projektor
Obwohl die Anordnung einschränkend anmutet, kann sie verfolgen, wer welche Inputs macht, und sie kann jedem, der den Schirm als Erster berührt, die Kontrolle überlassen. In diesem Fall ignoriert das System andere Berührungen, die es durch die Sitzordnung registriert, bis der erste Nutzer seine Eingaben abgeschlossen hat. Das System kann auch verfolgen, wer welche Anmerkungen zu Bildern macht, etwa zu Bauplänen. Parsons Brinckerhoff, eine weltweit agierende Firma für Infrastrukturtechnik mit Hauptsitz in New York, experimentiert mit den Tischen und hat vor, weitere zu kaufen. »Im Lauf eines Großprojekts führen wir Tausende von Meetings durch«, berichtet Timothy Case, zuständig für Visualisierung. »Wir könnten mehrere Tische an verschiedenen Orten haben, und jedermann kann sich dieselbe Sache ansehen.« Sowohl DiamondTouch als auch Perceptive Pixel bieten virtuelle Tastaturen, damit man auf dem Schirm Texte tippen kann. Doch für diese technisch simple Tätigkeit wurden die dynamischen Systeme nicht entwickelt. Die große Stärke des Multi-Touch-Prinzips ist, dass mehrere Menschen zusammen an einer komplexen Aufgabe arbeiten können. Wir erinnern uns kaum noch, wie befreiend die Maus erschien, als sie vor rund 25 Jahren das langwierige Klappern auf den Richtungstasten erübrigte. Bald könnten uns sensible Displays die allgegenwärtige Maus ersparen. »Nur sehr selten stößt man auf eine wirklich neue Benutzeroberfläche«, meint Han. »Wir stehen erst ganz am Anfang dieser Sache.«
Leuchtdiode
Im Surface-Computer von Microsoft sendet ein Projektor die Bilder aufwärts durch die waagerechte Acrylplatte. Eine Leuchtdiode bestrahlt den Tisch von unten mit Infrarotlicht, das von Objekten oder Fingern zu mehreren Infrarotkameras zurückreflektiert wird. Ein Computer berechnet daraus die Fingerbewe gungen oder identifiziert die Objekte.
Stuart F. Brown schreibt über technische Neuerungen. Er lebt in Irvington (US-Bundesstaat New York).
Eine detaillierte Geschichte von Multi-Touch-Systemen bietet http://www.billbuxton.com/ multitouchOverview.html Eine Videodemonstration des Perspective-Pixel-Systems finden Sie unter http://www. perceptivepixel.com
Weitere Weblinks zu diesem Thema finden Sie unter www.spektrum.de/ artikel/979760.
99
Wissenschaft & Karriere
»Von der Forschung bis zur Produktion«
Siemens AG
Martin Stetter, geboren 1964, studierte Physik an der Universität Regensburg. Nach seinem Diplom 1990 arbeitete er dort als EDV-Beauftragter und promovierte in Biophysik an der Fakultät für Biologie. Anschließend habilitierte Stetter sich am Institut für Informatik der Technischen Universität Berlin mit einer Computer simulation neuronaler Prozesse in der Großhirnrinde. Von 2000 bis 2008 forschte er im Grenzgebiet von Medizin, Informatik und Physik bei der Siemens AG in München und leitete bis 2007 das Team »Bioanalog Technologies and Solutions« mit etwa einem Dutzend Mitarbeitern. Ab dem Sommersemster 2009 hat Stetter eine Professur für Bioinformatik und Datenbanken an der Fachhochschule Weihenstephan inne. Sein Hobby: Seit seinem 18. Lebensjahr fährt Martin Stetter Motorrad.
100
Seit acht Jahren forscht Martin Stetter bei der Siemens Corporate Technology in München über wissensbasierte Medizin, künstliche Intelligenz und maschinelles Lernen. Demnächst wechseltder »Siemens-Forscher des Jahres 2008« an die Fachhochschule Weihenstephan.
Spektrum der Wissenschaft: Sie studierten Physik, Ihre ersten Schritte ins Berufsleben führten dann aber in eine andere Richtung. Warum? Martin Stetter: Als ich 1990 an der Universität von Regensburg mein Diplom machte, war der Arbeitsmarkt für Physiker ein Desaster. Deshalb bewarb ich mich in der Verwaltung der Regensburger Universitätsklinik um den Posten des EDV-Beauftragten. Von da an kümmerte ich mich um EDV-Management, Systemadministration, Medizintechnik und anderes mehr. Finanziell abgesichert, aber keineswegs ausgelastet promovierte ich in dieser Zeit in Biophysik an der Fakultät für Biologie. Damit begannen meine interdisziplinären Projekte im Bereich der Hirnforschung. Spektrum: Nach vier Jahren kehrten Sie in den Schoß der Universität zurück. Stetter: Der Job als EDV-Beauftragter hat mir großen Spaß gemacht, und diese erste Berufserfahrung außerhalb des akademischen Bereichs war sehr wichtig für mich. Aber ich wollte meine Projekte und Ziele wieder selbst bestimmen und zudem in der Hirnforschung vorankommen. Während meiner Doktorarbeit hatte ich bereits auf Kongressen Kontakte geknüpft. Daraus ergab sich nun an der TU Berlin das Angebot einer Post-DocStelle im Bereich Neuroinformatik. Das war eine gute Chance, weiter interdisziplinär zu arbeiten und mich dort auch zu habilitieren.
Spektrum: Was war denn Ihr Forschungsthema? Stetter: Es ging um die Funktion der Großhirnrinde, insbesondere die Signalverarbeitung im Prozess des Sehens. Dazu bildete ich mit Computermodellen die Funktionsweise von einzelnen Nervenzellen bis hin zu ganzen Konglomeraten nach. Spektrum: Und – erlebten Sie die grenzenlose Freiheit des Forschens? Stetter: Ja, schon. An der Universität konnte ich eigenverantwortlich arbeiten und musste mir lediglich die notwendigen Mittel beschaffen. Als Hemmschuh empfand ich nur den schwerfälligen Verwaltungsapparat. Um jeden Raum, um jede Hilfskraft wurde hartnäckig gekämpft. Da ging wertvolle Energie verloren. Außerdem hatte man früher als wissenschaftlicher Assistent viele Pflichten und wenig Rechte. Das hat sich inzwischen durch die Juniorprofessur verbessert. Sehr gut gefallen hat mir aber die Lehrtätigkeit. Deshalb unterrichte ich auch jetzt noch als Privatdozent an der Technischen Universität München. Spektrum: Nach vier Jahren hatten Sie Ihre Habilitation abgeschlossen und nahmen ein Angebot von Siemens an, in der konzernübergreifenden Forschungsabteilung zu arbeiten. Wie ticken Industrieforscher im Unterschied zur Universität? Stetter: An der Hochschule forscht man interessen-, in der Industrie problemgetrieben. Wenn der Konzern beschließt, SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Siemens AG
mit einer neuen Technologie Geschäftsfelder zu erschließen, gibt es genaue Vorgaben, wann welches Ziel zu erreichen ist. In der Vorfeldforschung muss man sich dann einiges überlegen: Gehen wir Ko operationen mit Instituten ein, die in der fraglichen Technologie bereits führend sind? Oder bauen wir selbst Kompetenzen auf? Wenn es dann ein marktfähiges Produkt gibt, welche Abteilung des Konzerns oder welcher Zulieferer kann es herstellen? In dieser Position benötigt man den Gesamtüberblick von der Forschung bis zur Produktion, was mir aber auch sehr liegt. Ein Forscher an der Universität hingegen konzentriert sich in der Regel ausschließlich auf die Grundlagenforschung und auf die Entwicklung neuer Technologien. Spektrum: Wie groß ist Ihr Freiraum, um eigene Vorstellungen zu verwirklichen? Stetter: Wenn man einmal das Management von einer Idee überzeugt hat, bekommt man auch schnell die erforderlichen Mittel. Wenn allerdings nicht rasch deutlich wird, dass die Idee zu einem Produkt oder zu einer Dienstleis tung führt, ist das Projekt möglicherweise auch bald wieder vom Tisch. Damit muss ich leben. Insgesamt überwiegen die Erfolgserlebnisse. Spektrum: Unterscheiden sich die von denen an der Universität? Stetter: Wenn man ein wissenschaftliches Problem akademisch löst, zieht man viel Befriedigung aus dem reinen Erkenntnisgewinn. Man hat die Welt wieder ein SPEKTRUM DER WISSENSCHAFT · März 2009
Stück weit enträtselt, was sich häufig allerdings nur in Form einer Fachpublikation manifestiert. In der Industrie münden Forschungsaufträge in konkrete Anwendungen. So habe ich mit meinem Team die Informatikplattform GeneSim entwickelt, die mittels künstlicher Intelligenz Gen- und Proteindaten sowie medizinische Fachliteratur auswertet, um die molekularen Wechselwirkungen in der Zelle zu erforschen und bessere Diagnosen zu ermöglichen. Spektrum: Die Erfüllung eines Industrieforschers schlägt sich also nicht unbedingt nur im materiellen Erfolg nieder? Stetter: Eine Entwicklung muss sich auf dem Markt durchsetzen, sonst ist sie für den Konzern langfristig uninteressant. Wenn sie gleichzeitig auch noch vielen Menschen hilft, ist das umso schöner. Das eine bedingt dabei das andere: Ein hoher Nutzen für die Kunden, in dem Fall Ärzte und Patienten, führt zu einer hohen Nachfrage und die wiederum zum geschäftlichen Erfolg. Wir haben beispielsweise einen molekularen Test mitentwickelt, der die Art des Tumors bei an Brustkrebs erkrankten Frauen in einem sehr frühen Stadium genau bestimmt. Das ist für die richtige Behandlung von großer Bedeutung. Spektrum: Können Sie sich vorstellen, wieder an die Universität zu wechseln? Stetter: Tatsächlich habe ich zum Sommersemester 2009 eine Professur an der Fachhochschule Weihenstephan ange-
Per Mausklick lässt sich bei GeneSim die Aktivität einzelner Gene variieren, mathematische Modelle überprüfen dann den Einfluss auf andere Gene. Das Programm liefert so wichtige Hinweise, an welchen Stellen neue Medikamente angreifen sollten. Ähnlich lassen sich Diagnostika entwickeln: Findet man mit GeneSim das für eine Erkrankung relevante Gen, kann man Marker kreieren, die daran andocken und es sichtbar machen.
nommen. Bei Siemens konnte ich mich sehr gut weiterentwickeln. Aber nun reizt mich die Aufgabe, junge Menschen in die Welt der Forschung und Entwicklung im Bereich der Lebenswissenschaften einzuführen. Es ist mir dabei wichtig, ihnen sowohl die Forschungs- als auch die Business-Sicht nahezubringen – nur so sind sie optimal für den Einsatz in der Industrie gerüstet. Die Professur für Bioinformatik und Datenbanken an der FH Weihenstephan bietet die dazu nötige Eigenständigkeit und Freiheit. Spektrum: Warum ausgerechnet eine FH und nicht die Universität? Stetter: Als langjähriger Industrieforscher war und ist mir wichtig, dass sich Forschungsarbeiten an der Anwendung orientieren. Das steht an der Universität naturgemäß meist nicht im Vordergrund. Auf der anderen Seite wird die Bedeutung von Fachhochschulen für den Nachwuchs der europäischen Industrie immer noch stark unterbewertet. Das soll sich jetzt ändern: Absolventen führen immer häufiger an ihren Fachhochschulen von der Industrie geförderte Forschungsprojekte durch. Außerdem sind diese FHs mit Universitäten vernetzt, so dass die jungen Forscher auch promovieren können. Der Aufbau solcher Strukturen in Weihenstephan ist ein wesentlicher Teil meiner neuen Aufgabe. Das Interview führte die Münchner Wissenschaftsjournalistin Katrin Nikolaus.
101
REZENSIONEN Astronomie
Gute Ideen, leider 2000 Jahre zu früh Erst als Kopernikus die Ideen des Aristarch von Samos aufgriff, entfalteten sie Wirkung.
E
s ist schon abenteuerlich, sich in die Tiefen der griechischen Antike zu begeben. Das eine ist das Abenteuer des Geistes, da von den Vorsokratikern über Aristoteles bis zu Ptolemäus viele der grundlegenden Ideen in die Welt gesetzt wurden, von denen wir noch heute zehren. Das andere ist das belletristische Abenteuer einer Zeitreise in eine Gesellschaft, die uns 23 Jahrhunderte später nur schwer zugänglich ist und vor allem nur fremd sein kann. Gerade über Aristarch von Samos, der von 310 bis 230 v. Chr. lebte, ist reichlich wenig bekannt. Allein sein Buch »Über die Größen und Entfernungen der Sonne und des Mondes« ist in einer Abschrift überliefert. Archimedes schreibt ihm in seinem Buch »Der Sandzähler« den Gedanken einer beweglichen und sich drehenden Erde in einer heliozentrierten Planetenwelt zu (Spektrum der Wissenschaft 2/2009, S. 42) – ein Sakrileg für alle Geozentristen und damit für den Rest der damaligen Welt. Dabei war neu, dass Aristarch als Erster sein Himmelsmodell astronomisch begründete. Koper nikus erwähnte sein Werk in frühen Fassungen seines Opus summum »De Revolu
tionibus«, ließ aber den Hinweis in späteren Versionen wieder fallen – warum auch immer. Thomas Bührke, selbst ausgebildeter Astronom und Fachjournalist, hat sich in seinem Wissenschaftsroman in beide Abenteuer gestürzt. Was das Buch so lesenswert macht, ist natürlich die Debatte um die frühen naturphilosophischen oder naturwissenschaftlichen Ideen. Da gerät etwa der Lehrer von Aristarch ins Bild: Straton von Lampsakos. Der Philosoph, auch »der Physiker« genannt, der einige Korrekturen an den Lehren des Aristoteles anbrachte, weilte zeitweise am Hof in Alexandria, als Erzieher des späteren Königs Ptolemaios II. Dort waren unter den Ptolemäern die weltgrößte Bibliothek und das Museion entstanden, eine Art Forschungsinstitut, das Wissenschaftler und Künstler versammelte, darunter Euklid. Wie der Autor selbst erläutert, ist unbekannt, wo Aristarch lebte und forschte. Gesichert ist, dass er die sphärische Sonnenuhr erfand und als erster Mensch die Entfernungen und Größen von Sonne und Mond mit einer astronomischen Messung am Halbmond bestimmte. Diese Beobachtung liefer-
Biophysik
Elektrische Schläge statt Küsse Der Biophysiker Roland Glaser vermittelt einen fundierten Einblick in den Bioelektromagnetismus.
»A
lzheimer durch Computer?«, »Gefahr aus der Steckdose«, »Wenn Strom krank macht«, »Mit dem Handy kam die Angst«. Solche Schlagzeilen zeigen, dass viele Menschen sich latent vor dem Einfluss von Sendemasten, Hochspannungsleitungen, Elektronikgeräten oder Mobiltelefonen fürchten. Das ist im Prinzip nachvollziehbar: All diese Konstrukte erzeugen um uns herum ein »Funkfeuer« von elektrischen und magnetischen Feldern, dem wir permanent ausgesetzt sind und das es in der natürlichen Umgebung nicht gibt. Die Frage drängt sich
102
geradezu auf, ob diese Felder unserer Gesundheit schaden. Roland Glaser, 30 Jahre lang Professor für Biophysik an der Humboldt-Universität zu Berlin und seit 2000 im Ruhestand, ist zweifellos sachkundig. Er hat zahlreiche Fach- und Lehrbücher zu Biophysik und Biologie verfasst und das Bundesamt für Strahlenschutz ebenso wie die Forschungs gemeinschaft Funk in Bonn als Experte für die Wirkung elektromagnetischer Felder auf den menschlichen Organismus beraten. Sein Buch behandelt die wissenschaftlichen
te ihm die Grundlage für die Abschätzung, dass die Sonne wesentlich größer sein müsse als die Erde. Diese Erkenntnis könnte der Anlass für seine These des heliozentrischen Weltbilds gewesen sein. Höhepunkt des Buchs ist aber zweifellos das fiktive Streitgespräch zwischen Aris tarch und Kleanthes, einem stoischen Philosophen aus Athen. Verbürgt daran ist die Notiz von Plutarch, dass Kleanthes gefordert habe, Aristarch wegen Gottlosigkeit anzuklagen; und zwar »dafür, dass er den Herd des Universums (die Erde) in Bewegung versetzt habe unter der Annahme, der Himmel befände sich in Ruhe und die Erde drehe sich in einem schiefen Kreis und rotiere dabei um ihre eigene Achse«. Der historische Streifzug durch das antike Alexandria liest sich angenehm – und führt einen kundig durch die physikalische und astronomische Gedankenwelt, die in manchem bereits so modern war wie vieles, was noch heute über die Natur gedacht wird. Reinhard Breuer Der Rezensent ist habilitierter Physiker und Chefredakteur von »Spektrum der Wissenschaft«. Thomas Bührke Die Sonne im Zentrum Aristarch von Samos Roman der antiken Astronomie C.H.Beck, München 2009. 267 Seiten, € 16,90
Grundlagen; es informiert über gesundheitli che Risiken und die Therapiemöglichkeiten elektromagnetischer Felder. Das Sortiment der Themen ist bunt gemischt: elektrische Felder in Zellen und Organismen, Methoden der Elektromedizin, Magnetsinn bei Tieren, elektrische Fische, atmosphärische Entladungen wie Blitze und Elmsfeuer, Risiken des Mobilfunks, elektrische Felder in der Biotechnologie, das Phänomen der Wünschelrutengänger. Auf die Frage, ob die immer wieder geschürte Angst vor »Elektrosmog« gerechtfertigt ist, antwortet der Autor mit einem klaren Nein. Wissenschaftlich gesehen sei eigentlich klar, dass unterhalb der geltenden Grenzwerte keine nachweisbaren Gefahren durch solche Felder lauern. Das Buch richtet sich an ein breites Publikum, ist fachkundig geschrieben, interessant und unterhaltsam. Es ist in kompak te, übersichtliche Kapitel gegliedert, die in SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Das Spektrum der elektromagnetischen Wellen im Überblick, vom langsamen Wechselstrom der Eisenbahn bis zur energiereichen radioaktiven Strahlung
die Kategorien »magnetisches Feld«, »elektrisches Feld« und »elektromagnetische Schwingungen und Pulse« eingeordnet sind. Zahlreiche Verweise auf die Fachliteratur belegen eine gründliche Recherche. Immer wieder präsentiert Glaser erstaunliche Forschungsergebnisse, etwa im Kapitel über elektrische Fische. Ein Hai
kann elektrische Felder von wenigen Mikrovolt pro Meter spüren. Das entspricht einer 1,5-Volt-Batterie, deren Pole tausend Kilometer voneinander entfernt ins Meer getaucht werden! »Gäbe es nicht … bestätigende Messungen, der Biophysiker könnte seine Zweifel nicht zurückhalten.« Der Text enthält viele geschichtliche Rückblicke sowie Zitate aus Literatur und Philosophie – für ein wissenschaftliches Buch ungewöhnlich, doch hier sehr nützlich. So beschreibt Glaser, wie Elektrizität und Magnetismus entdeckt wurden und welche geheimnisvollen Kräfte man ihnen zuschrieb. Noch Nikolaus Kopernikus und Johannes Kepler glaubten, der Magnetismus sei ein seelisches Prinzip, das alle Körper durchdringe und sogar das Planetensystem zusammenhalte. Solche Vorstellungen waren jahrhundertelang verbreitet und finden sich heute noch in esoterischen Heilmetho-
Mathematik
Mathe mal anders Vergessen Sie Ihre Vorurteile. Dieses Buch dürfte selbst den letzten Zweifler von Nutzen und Schönheit der Mathematik überzeugen.
D
ie Mathematik hat ein Imageproblem: Schon in der Schule vergraulen schwer verdauliche Formelsammlungen die Genies von morgen. Zu abstrakt, kaum inspirierend und nur wenigen Auserwählten verständlich – so lautet allzu oft das vernichtende Urteil. Und wozu all die stupide Rechnerei mal gut sein soll, bleibt den meisten zeitlebens ein Rätsel. Ein hoffnungsloser Fall? Mit ihrem Buch »Wie man den Jackpot knackt« beweisen Edward B. Burger und Michael Starbird das Gegenteil. So humorvoll, spannend und anschaulich bekommt man Mathematik höchst selten präsentiert! Starbird, Professor an der University of Texas in
Austin, erhielt für seine pädagogischen Leistungen bereits mehrere Auszeichnun gen; sein Fachkollege Burger vom Williams College in Williamstown (Massachusetts) versuchte sich schon als Stand-up-Comedian. So gestaltet sich die Lektüre ihres Werks, das vier Kapitel mit jeweils drei unabhängig
den wieder. Aus ihnen erklärt sich wohl zum Teil die Furcht vor »Elektrosmog« und »Störfeldern«. Der Rückblick fördert auch Amüsantes zu Tage. Ein beliebter Zeitvertreib im 18. Jahrhundert war die »Venus electrificata«, eine Dame, die elektrostatisch aufgeladen auf einer isolierenden Schaukel saß und verwegenen Kavalieren statt süßer Küsse elektrische Schläge erteilte. Hin und wieder erfordert der Text naturwissenschaftliche Vorkenntnisse, und an manchen Stellen vermisst man erläuternde Abbildungen. Insgesamt ist »Heilende Magnete – strahlende Handys« jedoch ein empfehlenswertes Buch. Frank Schubert Der Rezensent ist promovierter Biophysiker und Wissenschaftsjournalist in Heidelberg.
Roland Glaser Heilende Magnete – strahlende Handys Bioelektromagnetismus: Fakten und Legenden Wiley-VCH, Weinheim 2008. 350 Seiten, € 24,90
voneinander lesbaren Abschnitten umfasst, denn auch angenehm leicht und locker – trotz der vermeintlich schweren Kost. Aus den verschiedensten Teildisziplinen der Mathematik haben sich die Autoren die Leckerbissen herausgepickt. So beschreiben sie, was der Fortpflanzungserfolg von Kaninchen mit der geheimnisvollen Fibonacci-Folge zu tun hat. Oder wie die Mathematik Einzug in Kunst und Architektur hielt. Wie man mit Statistik lügt. Oder wie man aus einem einfachen Streifen Papier ein Möbiusband bastelt, jenes wundersam verschlungene Objekt mit nur einer Oberfläche und einer Kante. Würde eine Ameise darauf
Die aperiodische Windradparkettierung: Es gibt keine Parallelverschiebung, die dieses – im Prinzip unendlich ausgedehnte – Muster aus lauter gleichen Dreiecken mit sich selbst zur Deckung bringen könnte. SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
103
REZENSIONEN
gesetzt und wie auf Eschers berühmtem Bild auf diesem entlanglaufen, käme sie zwangsläufig zu ihrer Ausgangsposition zurück – allerdings kopfüber. Zu jedem Kapitel macht eine kurze Einführung Appetit auf vermeintlich abstrakte Themen wie n-dimensionale Räume oder die Erkundung der Unendlichkeit. Ein Beispiel: Jemand wirft zehn Tischtennisbälle in eine Tonne, nimmt einen davon anschließend sofort wieder heraus und wiederholt beides – Einwerfen und Herausnehmen – unendlich oft. Wie viele Bälle befinden sich hinterher noch im Behälter? Die überraschende Antwort: gar keiner! Burgers und Starbirds Reisen in die Unendlichkeit halten etliche derart kontraintuitive und deshalb umso erstaunlichere Ge-
schichten parat – wie etwa das von David Hilbert erdachte »Gasthaus zur Unendlichkeit« (Spektrum der Wissenschaft 4/2000, S. 112, und 5/2000, S. 112). Hilberts Hotel hat unendlich viele Zimmer. Ordentlich nummeriert bei eins beginnend, bieten sie bei Auswärtsfahrten sogar jener Baseballmannschaft Platz, die ihren Kader auf unendlich viele Spieler aufgebläht hat. Jeder Spieler bezieht das Zimmer, dessen Nummer der Zahl auf seinem Trikot entspricht. Findet sich nun noch ein Zimmer für den verspäteten Vereinspräsidenten, oder muss ihn der Wirt an der Tür abweisen? Mit einem Trick macht er Platz: Er bittet jeden Spieler, in das Zimmer mit der nächsthöheren Nummer umzuziehen. Am Ende des großen Umzugs hat jeder Spieler weiterhin einen
Mathematik
Kinderspiel mit Tiefgang Mit dem Satz des Thales oder dem Induktionsprinzip lassen sich erstaunliche Kunststücke anstellen.
N
a ja, genau genommen geht es nicht darum, den Jungen zu entlarven, der in der großen Pause seinem Klassenkameraden die Schokolade gemopst hat. Vielmehr soll derjenige, der die Tat be obachtet hat, den Übeltäter für den Bestohlenen erkennbar machen, ohne ihn beim Namen zu nennen. Das geht ganz einfach: Man sortiert alle Kinder in eine Tabelle (»Matrix«) und bezeichnet den Übeltäter durch Angabe von Zeile und Spalte – ein bisschen verschleiert, damit es nicht so auffällt. Die Mathematikerin und Physikerin Carla Cederbaum, Jahrgang 1980, illustriert jeden ihrer 25 Zaubertricks mit einer hübschen Geschichte, mit der sie die Neugier ihrer kindlichen Leser weckt. Dann erklärt sie im Einzelnen, wie der Trick auszuführen ist. Die Sache mit dem Schokoladendieb ist mathematisch sehr simpel und dennoch für Zuschauer sehr reizvoll. Andere sind anspruchsvoller; zur Orientierung ist das mathematische Niveau jedes Tricks am Anfang der Geschichte angegeben. In der bunten Mischung von einfachen und schwierigen Aufgaben ist für jedes Kind etwas dabei. Zu jedem Zaubertrick werden in einem dritten Teil die mathematischen Hintergründe erklärt. Wer das lesen und
104
verstehen kann, kommt spielerisch mit weit reichenden Zusammenhängen der Mathematik in Berührung. Das geht bis zur Intervallschachtelung, zum Induktionsbeweis und zu Begriffen der Zahlentheorie. Auch Kinder, denen diese teilweise recht komplizierten Erläuterungen zu anspruchsvoll sind, können die Tricks problemlos durchführen und mit Überzeugung dem Publikum vorstellen. Geübte Leser entwickeln den Ehrgeiz, ohne diese Hilfestellung auf die Lösung zu kommen, und finden sich hinterher beim Nachlesen freudig bestätigt. Dieses Buch eignet sich nicht nur zum Vorlesen und gemeinschaftlichen Einüben. Ältere Kinder können genauso gut eigenständig die Tricks erarbeiten und damit die ganze Familie und Freunde beeindrucken.
Alle rezensierten Bücher können Sie in unserem Science-Shop bestellen direkt bei: www.science-shop.de per E-Mail:
[email protected] telefonisch: 06221 9126-841 per Fax: 06221 9126-869
Raum, und der Vereinspräsident kommt bequem in Zimmer 1 unter. Offensichtlich nimmt die Größe einer unendlichen Menge durch Hinzufügung endlich vieler Elemente nicht zu! Die Autoren haben etliche solch anschaulicher Geschichten gesammelt und zu einem Gesamtbild zusammengefügt, das die ungeheure Vielfalt der Mathematik zeigt. Mitunter erinnert das Buch an eine Sammlung von Kuriositäten, die stets aufs Neue zum Staunen einladen. Formeln würden da nur stören, weshalb Burger und Starbird von vornherein auf sie verzichtet haben. Gewiss, für Kenner des Fachs dürften die meisten Geschichten längst alte Hüte sein. Und natürlich lassen sich spezielle mathematische Verfahren nicht auf wenigen Seiten in ihrer ganzen Tiefe abhandeln. Aber das ist nicht weiter schlimm, richtet sich das Buch doch in erster Linie an interessierte Laien, denen die Autoren so zumindest eine Idee vermitteln. Zu den Themen zählen auch solche mit praktischer Bedeutung, wie die Kryptografie mit veröffentlichtem Schlüssel (public key cryptography), mit der Zahlungsverkehrsdaten und andere empfindliche Informationen vor unbefugten Augen und insbesondere vor Verfälschung geschützt werden (Spektrum der Wissenschaft 5/1995, S. 46, und Spezial 2/2008 »Ist Mathematik die Sprache der Natur?«, S. 21). Schritt für Schritt veranschaulichen die Autoren das zugehörige RSA-Verfahren und spornen dazu an, auch mal selbst zum Taschenrechner zu greifen. Ein empfehlenswertes Buch, das allen Mathe-Muffeln ans Herz zu legen ist, die ihr Trauma aus der Schulzeit endlich überwinden wollen.
Maud Hettinger Die Rezensentin ist Referendarin für das Lehramt in Mathematik in Luxemburg.
Christoph Marty Der Rezensent studiert Wissenschaftsjournalismus mit Schwerpunkt Biometrie und arbeitet als freier Redakteur in Dortmund.
Carla Cederbaum Wie man einen Schokoladendieb entlarvt … und andere mathematische Zaubertricks
Edward B. Burger, Michael Starbird Wie man den Jackpot knackt Zufall, Wahrscheinlichkeit und all der Zauber mit Zahlen
Herder, Freiburg 2008. 159 Seiten, € 14,95
Aus dem Englischen von Hubert Mania. Rowohlt Taschenbuch Verlag, Hamburg 2007. 374 Seiten, € 9,90
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Vermischtes
Und täglich grüßt die Glosse Das »Murmeltier-Buch« trägt Berichte aus der Forschung in und um Braunschweig zusammen – die Stadt der Wissenschaft 2007.
A
ls Braunschweig sich im Jahr 2007 mit dem Titel »Stadt der Wissenschaft« schmücken durfte, schrieben eine 15-köpfige Redaktion sowie einige andere Autoren Tag für Tag eine Glosse über den Forschungsalltag der gesamten Region im Internet und in einer lokalen Zeitung. Vom Projektnamen »Und täglich grüßt die Wissenschaft« zum Murmeltier war es dann nur noch ein Katzensprung, schreibt der Redakteur Jens Simon. Alle 304 Kolumnen lassen sich nun mitsamt einem eher sachlichen Begleittext in eben diesem Murmeltier-Buch nachlesen. Neben Universitäten und Museen sorgen beispielsweise auch die Deutsche Sammlung von Mikroorganismen und Zellkulturen, die Hochschule für Bildende Künste oder das Luftfahrt-Bundesamt für Inhalte. Entsprechend vielfältig sind die Geschichten. Quadratische Bakterien tummeln
sich in »einem Ambiente mit dem Salzgehalt von Sojasauce«. Haloquadratum ist platt wie eine Briefmarke und ebenso eckig: 40 mal 40 Mikrometer, schildert die Autorin. Eingebaute Gasbläschen lassen den Exoten willenlos an der Oberfläche der Lauge umhertreiben. In der Bundesforschungsanstalt für Landwirtschaft kann ein neu entwickelter Kuh-Dolmetscher immerhin schon zwischen sieben Rufen unterscheiden – darunter Anliegen wie Hunger, prall gefülltes Euter oder Empfängnisbereitschaft. Den Forschern der Physikalisch-Technischen Bundesanstalt gelingt es, mittels optischer Verfahren (Interferometer) Krümmungen von Flächen mit einer Genauigkeit von unter einem Nanometer zu messen. Leider ist das ganze Buch der Handlung des Murmeltier-Films – täglich die gleiche langweilige Geschichte – näher, als ihm lieb
sein kann. In Braunschweig ist 2007 durchaus wissenschaftlich Interessantes passiert – aber eben nicht, um jeden Tag eine Glosse zu füllen. Für die Zusammenstellung im Buch hätten die Herausgeber die Hinweise auf längst vergangene Ausstellungen und Vorträge, die versteckte Reklame für lokale Forschungseinrichtungen oder die Experimentierlandschaft »phaeno« in Wolfsburg sowie etliche mühsam auf das Thema hingequälte Glossen besser weggelassen. Dann wäre vielleicht auch Platz gewesen für eine etwas detailliertere Beschreibung, die man bei einigen Themen vermisst. Auf der Internetseite www.braunschweig. de/murmeltier können Sie alle Glossen kostenlos nachlesen. Maike Pollmann Die Rezensentin ist Diplomphysikerin und freie Wissenschaftsjournalistin in Heidelberg.
Sylvia Borchardt, Erika Schow, Jens Simon (Hg.) Das Murmeltier-Buch »Und täglich grüßt die Wissenschaft« Glossen (und mehr) aus Leben, Technik, Kultur Johann Heinrich Meyer, Braunschweig 2008. 352 Seiten, € 14,80
IHRE VORTEILE ALS ABONNEN T V VON Als Abonnent erhalten Sie Spektrum der Wissenschaft zum Vorzugspreis spreeis von nur u h haben € 79,20 (ermäßigt auf Nachweis € 66,60) inkl. Versandkosten Inlaand und Zugriff auf das Archiv des Magazins. Unter www.spektrum.de/plus finden Sie weitere Vorteile:
• Ihren persönlichen Mitgliedsausweis zum Herunterladen mit zahlreichen Vergünstigungen bei vielen wissenschaftlichen Einrichtungen, Museen und Filmtheatern,
• einen monatlichen Bonusartikel und den Zugriff auf das Archiv mit allen bisher erschienenen Bonusartikeln,
• kostenlose Downloads verschiedener Hefte der Spektrum der Wissenschaft Verlagsgesellschaft mbH,
• das spektrumdirekt-Premiumabo zum Vorteilspreis und natürlich • ein vergünstigtes Produkt des Monats
Wissen aus erster Hand
www.spektrum.de/plus