JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Wissenschaftsjahr 2006: Jahr der Informatik „Der Computer der Zukunft wiegt viellei...
115 downloads
1306 Views
16MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Wissenschaftsjahr 2006: Jahr der Informatik „Der Computer der Zukunft wiegt vielleicht nicht mehr als 1,5 Tonnen“ – als diese Prognose 1949 in dem Magazin „Popular Mechanics“ erschien, waren Computer gigantische, 30 Tonnen schwere und ganze Räume füllende Rechenmaschinen. Zehntausende von Vakuumröhren und hunderte von Kabelkilometern benötigte allein der 1946 gebaute ENIAC, um eine für damalige Zeit unerhörte Rechenleistung zu erreichen: Er konnte zwei zehnstellige Zahlen innerhalb von drei Millisekunden multiplizieren. Dass diese Rechenleistung einmal von Computern in der Größe eines Fingernagels um ein Vielfaches übertroffen werden würde, erschien damals noch wie reine Utopie. Doch auch fast 30 Jahre später, als die Rechner dank Transistortechnologie und Mikrochip begannen, immer kleiner und leistungsfähiger zu werden, zweifelten selbst die Großen der Computerbranche noch ernsthaft an den universellen Einsatzmöglichkeiten ihrer Produkte: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollen sollte“, verkündete noch 1977 Ken Olson, Gründer der Computerfirma Digital Equipment. Und auch Bill Gates war 1981 noch der Ansicht: „640 Kilobyte sollten für jeden genug sein.“ Die Wirklichkeit hat diese Vorstellungen längst überholt. Computer aller Art haben unseren Alltag erobert, aus vielen Bereichen sind sie schlicht nicht mehr wegzudenken. Ob auf unserem Schreibtisch, in den Schaltzentralen der Industrie oder auch ganz klein und verborgen in Alltagsgeräten wie Handys, Autos oder der Spülmaschine: Chips, Schaltkreise und Computer steuern, messen, regeln und schalten fast überall. Sie bilden das Herz unserer modernen „Informationsgesellschaft“. Schüler entwickeln Mikrochips 1: Arbeit am IBM 650 (1956) 2: Röhren im Inneren eines Univac I, des ersten kommerziellen Computers der USA 3: RFID-Chip 4: 11,8 Teraflop Supercomputer © Lawrence Livermore National Laboratory (1,2) Pacific Northwest National Laboratory (3,4)
2
Wie und wo Computer in den Bereichen Mobilität, Sicherheit, Kommunikation, Gesundheit, Sport, Wohnen und Kultur & Entertainment unseren Alltag prägen und auch verbessern, war das Thema der zahlreichen Aktionen des Informatikjahres. Veranstaltungen wie der Wissenschaftssommer vom 15. bis 21. Juli 2006 in München, die Woche der Informatik vom 3. bis 10. Oktober 2006 in Dresden oder Jugendwettbewerbe wie „Invent a Chip 2006“ und „Einstieg Informatik“
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
3
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Die Wissenschaftsjahre Den Austausch zwischen Wissenschaft und Öffentlichkeit fördern – dies ist eines der Hauptziele der vom Bundesministerium für Bildung und Forschung (BMBF) initiierten Wissenschaftsjahre. Im Jahr 2000 machte das Jahr der Physik den Anfang, gefolgt von Lebenswissenschaften 2001, Geowissenschaften 2002, Chemie 2003, Technik 2004, dem Einsteinjahr 2005 und dem Jahr der Informatik im Jahr 2006. 2007 stehen die Geisteswissenschaften im Mittelpunkt.
machten die Technik „hinter den Dingen“ greifbar und erlebbar. „Invent a Chip“ war eine bundesweite Initiative des Bundesbildungsministeriums (BMBF) und des Verbands der Deutschen Elektrowirtschaft (VDE), die Schüler der Jahrgangsstufen 9 bis13 an die wichtigen Zukunftstechnologien der Mikro- und Nanoelektronik heranführen sollte. Aufgabe der Jugendlichen war es, 20 Fragen aus der Welt der Informatik zu beantworten und eine eigene Chipidee zu entwickeln und einzureichen. Den drei Siegerteams des Wettbewerbs „Invent a Chip 2006“ winkte ein besonderer Preis: Sie durften ihr Chipdesign, gemeinsam mit Informatikern, tatsächlich verwirklichen. Robo-Kicker besser als Klinsmanns Elf
Einer der Höhepunkte des Informatikjahres war jedoch der RoboCup 2006. Die 10. Weltmeisterschaft im Roboter-Fußball war mit über 2.600 Teilnehmern aus 36 Ländern das größte Ereignis der internationalen Robotik. Fünf Tage lang, vom 14. bis zum 20. September, wurde in Bremen gekickt, gefoult und gerettet, dann standen sie fest: die Fußball-Weltmeister der Roboter. Während sich die Fußballer der deutschen Nationalmannschaft bei der WM mit Platz drei begnügen mussten, waren ihre Kollegen aus Stahl und Silizium im RoboCup deutlich erfolgreicher: Elf der insgesamt 33 vergebenen Weltmeistertitel gingen am Ende an deutsche Teams. Am zweitstärksten schnitt China mit neun Goldmedaillen ab – Platz drei im Medaillenspiegel ging an Japan mit sechs Medaillen, Platz vier an den Iran. Bundesforschungsministerin Annette Schavan sah in dem erfolgreichen Abschneiden der deutschen Teams bei der internationalen Roboter-Fußball WM einen Beleg für technologische Spitzenleistungen. „Die deutschen Weltmeister in der Roboter-Fußball WM sind das Vorbild für Klinsmanns Elf“, erklärte die Ministerin. „Die deutschen Roboter waren im fairen Wettstreit spielerisch überzeugend und taktisch überlegen.“
Roboter der HumanoidenLiga beim RoboCup 2006 © Messe Bremen
4
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
2006: Das UN-Jahr der Wüsten
Oben: Das Death Valley in den USA © Kerstin Fels
Wer Wüste hört, denkt an viel Sand, Trockenheit und wenig Leben. Doch dieses Bild stimmt nur zum Teil, denn Wüsten können durchaus stabile und wertvolle Ökosysteme darstellen. Die Desertifikation dagegen ist eine weltweite Bedrohung: Es ist die Ausbreitung wüstenähnlicher Verhältnisse in Gebiete hinein, in denen sie eigentlich nicht existieren sollten. Es sind Flächen, die austrocknen und unfruchtbar werden, es ist die Zerstörung der natürlichen Ressourcen Boden, Wasser und Vegetation, und es ist meist der Mensch, der die Probleme auslöst oder zumindest verstärkt. Rund eine halbe Million Hektar Land gehen jährlich durch die Wüstenbildung verloren – eine Fläche doppelt so groß wie das Saarland. Mehr als eine Milliarde Menschen in über hundert Ländern sind dadurch in ihrer Lebensgrundlage bedroht, schätzen die Vereinten
5
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI
Im Namib-Naukluft Nationalpark türmt der Wind einige der höchsten Sandünen der Erde auf. © USGS EROS Data Center Satellite Systems
Ephedra-Strauch in der Großen Sandsee, Ägypten. Darunter: Düne im Oberlauf des Wadi el Bakht, Ägypten. © Pachur & Altmann (Die Ostsahara im Spätquartär, 2006)
Nationen. Die damit verbundenen Ernteausfälle schlagen mit 42 Milliarden Dollar jährlich zu Buche. Besonders die Entwicklungsländer leiden unter der Zerstörung von Land und Ressourcen: Allein in Afrika leben 40 Prozent der Bevölkerung in Gebieten, die akut von Desertifikation bedroht sind, in Asien 39 Prozent, in Südamerika immerhin noch knapp ein Drittel. Die Auswirkungen reichen dabei weit über die unmittelbar betroffenen Länder hinaus. Hunger und Armut nehmen weiter zu, Konflikte um Weideland und Wasser eskalieren und eine wachsende Zahl von Menschen verlässt auf der Flucht vor diesen Zuständen ihre angestammte Heimat. Nach Ansicht von Wissenschaftlern wird es in fünf Jahren 50 Millionen dieser Umweltflüchtlinge geben. Viele von ihnen werden sich auch nach Europa orientieren. Obwohl das Problem schon lange bekannt ist, gehen die internationalen Anstrengungen, es zu bekämpfen, offenbar noch nicht weit genug. Aus diesem Anlass hat die Vollversammlung der Vereinten Nationen (UN) das Jahr 2006 zum „International Year of Deserts and Desertification“ (IYDD) erklärt. In allen 191 Mitgliedsstaaten, so auch in Deutschland, fanden anlässlich des Wüstenjahres verschiedenste Veranstaltungen statt. Ziel war es dabei, über die Ursachen und gravierenden Folgen, aber auch über die Möglichkeiten zu informieren, wie Desertifikation wirksam bekämpft werden kann. Wüsten als bedrohtes Ökosystem
Es erscheint nahezu paradox: Weltweit schreitet die Desertifikation voran, und doch ist die Wüste als Ökosystem bedroht. Aber die Daten, die der Bericht „Global Deserts Outlook“ des UN-Umweltprogramms UNEP am 5. Juni 2006 präsentierte, sind eindeutig: Den Wüsten der Erde stehen dramatische Veränderungen bevor. Entgegen landläufiger Annahme sind viele Wüstengebiete der Erde durchaus nicht lebensfeindlich, sondern bieten einer Vielzahl von speziell angepassten Tier- und Pflanzenarten ein wertvolles Refugium. Die Wüstenrandgebiete, bewohnt von Millionen von Menschen, profitieren – noch – von den Wasserreservoirs der Gebirge, Gletscher sorgen durch ihr Schmelzwasser für das überlebenswichtige Nass. Doch das oft über Jahrtausende erreichte Gleichgewicht dieser sensiblen Ökosysteme ist in Gefahr. Klimawandel, steigender Wasserverbrauch, sinkende Niederschläge, Übernutzung und Versalzung bedrohen den ohnehin kargen Lebensraum.
6
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
Rot markiert sind die von der UN im Jahr 2006 als Wüsten eingestufte Gebiete der Erde. © UNEP
Ökonomische Verluste durch Desertifikation Die Desertifikation hat für die Bewohner der betroffenen Gebiete unmittelbare wirtschaftliche Folgen: Auf den versalzten Böden sinken die Erträge, das Vieh findet immer weniger zu fressen und die Menge wild wachsender, nutzbarer Pflanzen nimmt ab. Diese Verluste machen sich schleichend, aber in ständig wachsendem Maße bemerkbar. Das Familieneinkommen einer Kleinbauernfamilie beispielsweise in den Trockengebieten Chinas schrumpft von Jahr zu Jahr, wenn sie von den Naturressourcen als einziger Einkommensquelle abhängig ist. Plötzlich auftretende Extremereignisse wie Sandstürme oder Überschwemmungen verstärken die schleichende Wüstenbildung. Bereits erodierter Boden ist dabei viel anfälliger für starke Regenfälle und Stürme – es kommt zu Erdrutschen, Verschlammung und Abtragung des Mutterbodens. Die ökonomischen Verluste sowohl für die direkt betroffenen Menschen als auch für die Staatshaushalte sind beträchtlich: In den 1980er-Jahren gingen China allein als Folge von Bodenerosion jährlich mehr als 700 Millionen US-Dollar verloren.
Projekte gegen Wüstenbildung – ein Beispiel China hat inzwischen mit deutscher Beteiligung umfangreiche Aufforstungsvorhaben gestartet – nur eines von zahlreichen internationalen Beispielen zur Desertifikationsbekämpfung. Oberstes Ziel dieser Projekte ist es, in den betroffenen Gebieten die natürlichen Ressourcen zu sichern und die Armut der ländlichen Bevölkerung zu mindern. Die durch Wüstenausbreitung (Nordchina) oder Wassererosion (Südchina) bedrohten und bereits stark degradierten Flächen können durch Aufforstung und Naturverjüngung stabilisiert oder sogar wieder in einen ökologisch „gesunden“ Zustand zurückgeführt werden. Die dort ansässigen Bauern steigern ihr Einkommen durch bezahlte Umweltdienstleistungen, durch die Erträge der Obstbäume und die Verwertung des Holzes. Darüber hinaus umfassen die Projektmaßnahmen den biologischen und mechanischen Erosionsschutz, den Ausbau der Infrastruktur, die Beschaffung von Projektausrüstungen sowie Beratung zu Forsttechnik, IT und Management – die Wissenschaftler bezeichnen das als „Capacity Development“.
7
11 / 2005 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
11
01.11. 1952 Erste Wasserstoffbombe gezündet 04.11. 1922 Das Grab von Tutanchamun wird entdeckt 03.11. 1957 „Laika“ ist das erste Lebewesen im All
07.11. 1867 Geburtstag der Chemikerin Marie Curie 07.11. 1903 Verhaltensforscher Konrad Lorenz geboren
02.11. Klima
Sturmflut am Meer © IMSI Master Clips
08.11. 1895 W. C. Röntgen entdeckt die Röntgenstrahlung
Klimawandel lässt Sturmflutpegel steigen Durch den Klimawandel könnten Sturmfluten an der Nordsee in Zukunft noch gefährlicher werden als bisher. Neue Berechnungen ergaben, dass zwischen 2070 und 2100 ein Anstieg der maximalen Wasserstände von 80 Zentimetern entlang der gesamten deutschen Nordseeküste wahrscheinlich ist. Auslöser dafür sind stärkere Stürme sowie die temperaturbedingte thermische Ausdehnung des Meerwassers und schmelzende Eiskappen. Nach Schätzungen der Experten wird der bestehende Küstenschutz bis 2030 ausreichend sein, danach könnten weitere Schutzmaßnahmen nötig werden. (J. of Climate)
09.11. 1991 Die erste kontrollierte Kernfusion auf der Erde gelingt für zwei Sekunden
11.11.1493 Naturforscher Paracelsus geboren 13.11. 1971 Mariner 8 erreicht als erste Raumsonde einen fremden Planeten, den Mars
04.11. Bildung PISA: Erfolge oder Bankrotterklärung? Die Schülerstudie Pisa 2003-E hat vor allem in Mathematik und den Naturwissenschaften bessere Ergebnisse geliefert als die erste Pisa-Untersuchung im Jahr 2000. Trotzdem liegt Deutschland im Vergleich mit anderen Ländern nur im Mittelfeld. Nach wie vor entscheidet hierzulande die soziale Herkunft der Kinder stark über den Schulerfolg. Akademikerkinder haben eine viermal so große Chance wie Kinder aus sozial schwachen Familien das Abitur zu machen. Auch zwischen den Bundesländern gibt es noch immer starke Unterschiede in der Leistungsfähigkeit der 15-Jährigen – auch wenn die ostdeutschen Länder aufgeholt haben. (OECD)
04.11. Quantenphysik
Laseraufbau für Qantenexperiment © MPI für Quantenoptik
8
Chaos unter Quanten Bei der Ionisation von Atomen haben Wissenschaftler erstmals auch in der Quantenwelt chaotisches Verhalten nachgewiesen. Mittels Laserlicht lösten sie Elektronen in starken elektromagnetischen Feldern aus einzelnen Rubidiumatomen. Die chaotische Bewegung der Elektronen zeigte sich als Schwankung im Elektronenstrom, der so genannten Ericson-Fluktuation. Die Stärke des elektrischen und magnetischen Feldes bestimmte, wie chaotisch sich das System nach den Regeln der makroskopischen Physik verhielt. (Physical Review Letters)
04.11. Archäologie Römerinnen in die Cremedose geschaut Die Gesichtscreme der vornehmen Römerin bestand aus Tierfett und Stärke, mit einer Zinnoxidbeimischung als weißem Pigment. Das zeigt die Analyse des Inhalts einer kleinen Zinndose aus dem 2. Jahrhundert nach Christus, die bei Ausgrabungen eines römischen Tempels in London gefunden wurde. Britische Chemiker bestimmten die genaue Zusammensetzung der enthaltenen Masse und stellten sogar eine Kopie der OriginalCreme her. Während das Tierfett die Creme nach dem Auftrag zunächst fettig machte,
AUGUS UGUSTSEPTEMBER B OKTOBER OB NOVEMBERDEZEMBER B 16.11. 1869 Bau des Suezkanals abgeschlossen
21.11.1953 Der „PiltdownMensch“ wird als Betrug entlarvt 17.11.1970 Erstes Roboterfahrzeug auf dem Mond
24.11.1859 Charles Darwin veröffentlicht „Die Entstehung der Arten“ 23.11. 1969 Erste Isolierung eines einzelnen Gens
verlieh die Stärke ihr ein pudriges Gefühl auf der Haut – ein Effekt der heute noch bei der Herstellung von Kosmetika ausgenutzt wird. (Nature)
10.11. Astronomie Löste Sonne die Klimakapriolen der letzten Eiszeit aus? Während der letzten Eiszeit, die vor 120.000 Jahren begann, gab es mindestens 20 drastische und abrupte Klimawechsel. Forscher erklären diese so genannten Dansgaard-Oeschger-Ereignisse mit einer Instabilität der eiszeitlichen Meeresströmungen. Doch warum diese Ereignisse in einem nahezu regelmäßigen Abstand von 1.470 Jahren auftraten, blieb bisher rätselhaft. Deutsche Wissenschaftler haben jetzt mithilfe von Computersimulationen gezeigt, dass kleine Schwankungen der SonneneinInfrarotsicht der Sonne strahlung, ausgelöst © NASA/ESA/SOHO durch die Überlagerung von zwei solaren Zyklen – regelmäßigen Schwankungen der Sonnenaktivität – die labilen eiszeitlichen Ozeanzirkulationen störten. Diese mit Perioden von etwa 87 und 210 Jahren auftretenden Störungen lösten die Klimawechsel aus. (Nature)
24.11.1639 J.Horrocks bestimmt die Umlaufbahn der Venus
27.11.1895 Der Industrielle Alfred Nobel stiftet den Nobelpreis
27.11.1985 Der Halleysche Komet erhält Besuch von Raumsonden
CHRONIK
29.12.1912 Erster Flug eines Flugzeugs über den Südpol
28.11.1983 Ulf Merbold fliegt als erster deutscher Astronaut ins All
11.11. Medizin Windchaos auf dem Jupiter enträtselt Ein deutsch-amerikanisches Forscherteam hat ein neues Computermodell entwickelt, das die Entstehung der gigantischen Gasstürme auf dem Planeten Jupiter erklärt. Die Winde reichen danach bis zu 7.000 Kilometer in die Planetenatmosphäre hinein und werden von kleinräumigen turbulenten Strömungen angetrieben, die durch Planetenkrümmung und Rotation in Bändern organisiert werden. Darüber hinaus gibt es zwei Klassen von Stürmen auf dem Jupiter: starke, breite Jetwinde in Äquatornähe und schmale, schwächere Windgürtel in höheren Breiten. Bestimmend ist der Druck in den inneren Gasschichten, der Wasserstoffmoleküle zu einem metallischen, leitfähigen Zustand zusammenpresst. Diese Schicht wiederum beeinflusst die Windverteilung. (Nature)
Windsströmungen auf dem Jupiter © MPI für Sonnensystemforschung
11.11. Medizin Milzbrand bald heilbar? Anthrax-Bakterien können beim Menschen gefährlichen Milzbrand auslösen. Warum jedoch ist Hautmilzbrand viel harmloser als Lungenmilzbrand? Forscher haben herausgefunden, dass dafür bestimmte weiße Blutkörperchen, die so genannten Neutrophilen Granulozyten, verantwortlich sind. Diese Abwehrzellen wandern bei einer AnthraxInfektion in die Haut ein und produzieren
Ein Neutrophiler Granulozyt nimmt eine Kette von Anthrax-Bakterien auf. © MPI für Infektionsbiologie
9
11 / 2005
JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI hier ein für Milzbrand-Bakterien tödliches Protein, das alpha-Defensin. In der Lunge greift dieser Mechanismus nicht. Hier sind die neutrophilen Granulozyten zu selten und die inhalierten Sporen können ungehindert auskeimen. (PloS Pathogen)
11.11. Geowissen
Atmosphäre der Erde © NASA
Wie bildet sich Sauerstoff in der Erdatmosphäre? Neue Erkenntnisse über die SauerstoffBildung im Rahmen der Photosynthese haben Forscher der Freien Universität Berlin bei Röntgenexperimenten am europäischen Synchrotron in Grenoble gewonnen. Mit einer Zeitauflösung von nur zehn Millionstel Sekunden konnten sie den Vorgang erstmals auf atomarer Ebene verfolgen und fanden dabei einen bisher unbekannten Zwischenschritt: Dem Mangankomplex des Photosystems – dem Ort der photolytischen Wasserspaltung – werden nach der Absorption des Lichts nicht nur Elektronen sondern auch Protonen gezielt entzogen. Wohlorganisierte Protonenbewegungen ermöglichen demnach die Sauerstoffbildung von Pflanzen, Algen oder Cyanobakterien. (Science)
Knochen und Zähne – untersucht. In dieser nur über die mütterliche Linie vererbten Erbsubstanz fanden die Forscher einen DNATyp, der bei heutigen Europäern äußerst selten vorkommt. Computersimulationen bestätigten, dass die ersten Bauern auf unseren heutigen Genpool nur einen begrenzten Einfluss gehabt haben können. (Science)
14.11. Technik Deutscher Zukunftspreis für Piezo-Einspritztechnik Geringerer Spritverbrauch, weniger Schadstoffe und Feinstaubpartikel und leisere Autos: Dies sind nur einige der Vorteile der Direkteinspritztechnik von Diesel- und Benzinmotoren, bei der eine Pumpe den Kraftstoff zunächst auf einen hohen Druck bringt und ihn dann über eine Düse zum richtigen Zeitpunkt in die Brennkammer des Zylinders einschießt. Besonders präzise arbeiten so genannte Piezo-Injektoren, die von Forschern der Unternehmen Bosch und Siemens unabhängig voneinander entwickelt wurden. Die Ingenieure Friedrich Boecking, Klaus Egger und Professor Hans Meixner erhielten für ihre Erfindung den mit 250.000 Euro dotierten Deutschen Zukunftspreis 2005.
14.11. Paläontologie 17.11. Pflanzenphysiologie
Statue eines Steinzeitmenschen mit Faustkeil © Harald Frater
Steinzeitjäger Ahnen der heutigen Europäer Die Vorfahren der heutigen Europäer sind nicht wie bisher angenommen Ackerbauern, die vor etwa 7.500 Jahren nach Europa einwanderten, sondern wahrscheinlich steinzeitliche Jäger, die schon seit 40.000 Jahren in Europa ansässig waren. Das ist das Ergebnis einer Studie von deutschen und englischen Forschern. Bei 16 Skelettfunden aus einer der ältesten bäuerlichen Kulturen der Jungsteinzeit haben sie die DNA aus den Mitochondrien – aus Zellbestandteilen der
Auch Pflanzen haben eine doppelte Abwehrkette Die dauerhafte Resistenz vieler Pflanzen gegen Pilze beruht auf einer mindestens zweistufigen Abwehrkette und zeigt damit Parallelen zum Immunsystem von Tieren. Dies hat ein deutsch-amerikanisches Forscherteam herausgefunden. So genannte PEN (penetration)-Gene und das dadurch kodierte Blätter – gut geschützt vor Pilzen © IMSI MasterClips
10
AUGUS UGUSTSEPTEMBER B OKTOBER OB NOVEMBERDEZEMBER B Enzym kurbeln zunächst in der angegriffenen Pflanzenzelle die Produktion von Fungiziden an. Wenn dieser Schutzmechanismus versagt, sorgen unterschiedliche Zellproteine für die zweite Abwehrstrategie: Sie lassen die attackierte Zelle mitsamt dem Angreifer absterben. Das benachbarte Pflanzengewebe wird so vor einer Infektion geschützt. (Science)
CHRONIK
Annahmen widerspricht. So verändert sich diese unbekannte Form der Energie nicht, wenn das Universum expandiert. Zudem hat sich die Ausdehnung des Universums – angetrieben von der Dunklen Materie – im Vergleich zur Vergangenheit offenbar deutlich beschleunigt. (Astronomy and Astrophysics)
28.11. Materialforschung 21.11. Mikrobiologie Rätsel um Magnetsinn von Bakterien gelöst Auch einfache Lebewesen wie die Bakterien nutzen das Magnetfeld der Erde, um „oben“ und „unten“ zu unterscheiden. Zur Orientierung besitzen sie einen Minikompass, der aus einer Kette von Magnetitkristallen besteht. Forscher haben jetzt gezeigt, dass diese Magnetosomenkette von Genen und ihren Produkten, den Proteinen, reguliert Blick in ein Magnetbak- wird. Erst das Protein terium © MPG MamJ richtet die Magnetosomen entlang einer bisher unbekannten linearen Zellskelettstruktur aus. Fehlt es, klumpen die Magnetosomen zusammen und verlieren ihre „Kompasswirkung“. Der Nanokompass zeigt, dass Zellskelettstrukturen von Bakterien komplexe Funktionen übernehmen können. (Nature)
24.11. Physik Einsteins kosmologische Konstante rehabilitiert Im Rahmen des Projekts Supernova Legacy Survey (SNLS) haben Forscher festgestellt, dass sich die Dunkle Energie im Universum mit einer Abweichung von nur zehn Prozent genau so verhält, wie von Einsteins kosmologischer Konstante vorhergesagt – dafür aber einigen bisherigen theoretischen
Schnappschüsse an der atomaren Grenze Die Leiterbahnen von modernen Computerchips sind heute nur noch einige Dutzend Nanometer breit. Für ihre Herstellung sind Prozesse entscheidend, die sich an der Grenze zwischen flüssigen und festen Materialien abspielen. Wissenschaftler haben nun erstmals diese atomaren Wechselwirkungen am Übergang zwischen flüssigem Aluminium und festem Aluminiumoxid beobachtet. Dabei wiesen sie nach, dass Kristalle selbst bei hohen Temperaturen die Atome in benachbarten flüssigen Metallen ordnen können. Diese Erkenntnisse sind wichtig, wenn etwa Oberflächen mit Flüssigkeiten benetzt werden sollen – wie beim „Löten“ nanometerkleiner Kontaktstellen. (Science)
Übergang zwischen flüssigem Aluminium und festem Aluminiumoxid © MPI für Metallforschung
30.11. Astronomie Spiralring um den Saturn entdeckt Einer der Ringe des Planeten Saturn tanzt aus der Reihe – das zeigen neue Bilder der Raumsonde Cassini. Wie Astrophysiker entdeckt haben, bilden die Untereinheiten des F-Rings, einem der sieben Hauptringe des Saturn, eine mindestens drei Mal um sich selbst gewundene Spirale. Ausgelöst hat die Verformung wahrscheinlich eine Kollision zwischen dem aus dichten Gesteinsbrocken bestehenden „Kern“ des Rings und einem kleinen Mond. Diese Erkenntnisse geben wertvolle Einsichten in die Mechanismen der Planeten- und Mondentstehung. (Science)
Die Ringe des Saturn, ganz außen der dünne F-Ring © NASA
11
12 / 2005 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
12
01.12. 1946 Erste Herstellung von Penicillin in Deutschland
07.12. 1993 Reparatur des Weltraumteleskops Hubble
03.12. 1967 Erste Herztransplantation
02.12. 1942 Erste kontrollierte nukleare Kettenreaktion
09.12. 1868 Der Chemiker Fritz Haber wird geboren
02.12. Chemie
Kolloid-Kristall vor (links) und nach Ionenätzung (rechts). © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
Goldschicht macht Farben temperatursensitiv Wissenschaftler des Max-Planck-Instituts für Kolloid- und Grenzflächenforschung haben eine neue Familie von Partikeln hergestellt, deren Bindungsverhalten sich chemisch maßschneidern lässt. Ihr Trick: Sie nutzten die durch Ionenbeschuss veränderbare Anordnung und Größe einer Teilchenschicht, so genannte Kolloide, als Schablone für eine Goldbedampfung. Dieses Verfahren könnte beispielsweise neue Lacke hervorbringen, die ihre Farbe je nach Temperatur verändern. Zugleich trägt es aber auch dazu bei, die Dynamik von Festkörpern und Molekülen besser zu erforschen. (Angewandte Chemie)
12.12.1901 Erste Telegrafenmeldung über den Atlantik 14.12.1962 9 Sonde „Mariner M e II“ umkreist re die ie Venus 14.12.1911 Roald Amundsen 11.12.1997 erreicht den Südpol Klimaschutz-Protokoll von Kyoto beschlossen
11.12.1843 Geburt des TuberkelEntdeckers Robert Koch
05.12. Informatik Immunsystem für virengefährdete Rechner Rechner könnten sich zukünftig durch eine Art Selbsthilfe gegen schädliche Computerviren schützen. Ein dafür neu entwickeltes System nutzt spezielle, mit Virenerkennungssoftware ausgerüstete Computer, so genannte Honeypots, als Virenfallen. Werden sie angegriffen, analysieren sie das Virus blitzschnell und selbstständig. Dann schicken sie seine Signatur und Informationen zur Abwehr an alle im Netzwerk angeschlossenen Rechner. So könnte sich das Antivirenprogramm sogar schneller im Internet verbreiten als das Virus selbst. (Nature online)
06.12. Physik 05.12. Neurobiologie
Das Gehirn filtert, was uns ans Ohr dringt © SXC
12
Arbeitsteilung beim Lauschangriff Spezielle Zellen im Gehirn von Säugetieren sorgen dafür, dass neue Geräusche im Umgebungslärm sofort erkannt und herausgefiltert werden. Das entdeckten Wissenschaftler bei der Untersuchung der Hirnrinde von Ratten. Die bei allen Säugern – und wahrscheinlich auch beim Menschen – existierenden Zellen reagieren immer dann, wenn Änderungen in der Tonhöhe, Lautstärke oder Länge bekannter Töne auftreten. Die Zellen liegen unterhalb der Großhirnrinde im Mittelhirn und fungieren als „Torwächter“ für akustische Reize. (European Journal of Neuroscience)
Ein Kristall aus Löchern Ein Kristall, der nur aus Löchern besteht, erscheint auf den ersten Blick unmöglich. Doch genau diesen ungewöhnlichen Materiezustand hat ein internationales Wissenschaftlerteam erstmals nachgewiesen. Abbildung des LochMithilfe von aufwänkristalls © Michael digen ComputersiBonitz /Universität Kiel mulationen gelang den Forschern die Bestätigung dieses exotischen Effekts, der nur in Halbleitern mit einer ganz bestimmten Struktur auftritt. Der „LochKristall“ besitzt Eigenschaften, die denen von
AUGUSTSEPTEMBERROKTOBERNOVEMBERDEZEMBER 20.12.1910 Erster Nachweis des Atomkerns durch Ernest Rutherford
16.12.1967 Erste Herstellung der Erbsubstanz DNA im Labor
17.12.1903 Erste Motorflüge der Gebrüder Wright
22.12.1948 Erfindung des Transistors 21.12.1968 Erste Fernseh-Übertragung aus dem All
Plasma- oder Ionenkristallen gleichen, ähnelt aber auch astrophysikalischen Phänomenen wie den Weißen Zwergen. (Physical Review Letters)
06.12. Klima Wie stabil ist der Nordatlantikstrom? Wie viel Süßwasser muss durch die Eisschmelze in den Atlantik fließen, damit der für das Klima in Europa wichtige Teil des Nordatlantikstroms zum Erliegen kommt? Dies hat ein internationales Forscherteam im Rahmen einer Temperaturbild des Golfstroms © NOAA umfangreichen Vergleichsstudie an Klimamodellen untersucht. Ergebnis: Ab einem bestimmten Schwellenwert – einem Süßwasserzustrom von durchschnittlich 0,2 Millionen Kubikmeter pro Sekunde – bricht die so genannte thermohaline Zirkulation des Atlantiks zusammen. Unsicher ist aber, wie weit das gegenwärtige Klima von diesem Schwellenwert entfernt ist. (Geophysical
22.12.1938 Erste UranKernspaltung durch Otto Hahn und Fritz Straßmann
27.12.1982 Der Computer wird vom „TimeMagazine“ zum „Mann des Jahres“ gewählt
26.12.1898 Marie und Pierre Curie entdecken das Radium
26.12.2004 Katastrophaler Tsunami vor der indonesischen Küste
CHRONIK
27.12.1949 Albert Einstein veröffentlicht seine Gravitationstheorie
den Raum hinaus schleudert. Nach Meinung von Forschern des Bildauswertungsteams der Cassini-Mission am Weltraumforschungsinstitut in Boulder, Colorado, kommen wärmere Risse in der kalten Oberfläche des Mondes – Tigerstreifen genannt – als Quelle dieser Fontänen in Frage. (NASA)
Saturnmond Enceladus schleudert eine Eisfontäne © NASA
08.12. Medizin Tumore schicken Vorhut Krebstumore bilden nicht einfach irgendwo im Körper Metastasen, sondern schicken Proteine und Stammzellen aus dem Knochenmark als Kundschafter vorweg. Die Proteine bewirken zunächst im Zielgebiet die Bildung eines Haftproteins. Die anschließend durch die Eiweiße angelockten Knochenstammzellen assistieren dann den nachfolgenden Tumorzellen bei der Anlagerung und Vermehrung. Diesen bisher unbekannten Mechanismus entdeckten Forscher der amerikanischen Cornell Universität bei Versuchen an Mäusen. (Nature)
Krebszellen © National Cancer Institute
Research Letters)
08.12. Nanoforschung
07.12. Astronomie Kalter Mond speit Fontänen Der Saturnmond Enceladus ist keine tote Eiswelt, wie bisher angenommen, sondern geologisch offenbar äußerst aktiv: Neueste Aufnahmen der Raumsonde Cassini zeigen, dass er Fontänen feiner Eispartikel in
Auch Nanoschichten können knicken Nicht nur Strohhalme und Strommasten können knicken, sondern auch Nanoschichten, wie ein internationales Wissenschaftlerteam herausfand. Die Forscher setzten Hightech-Karbonfasern unter Druck und tasteten dann mit einem Röntgenstrahl von nur
13
12 / 2005 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 100 Nanometer Breite die Stauchungszonen ab. Dabei stellten sie fest, dass fehlende Querverbindungen zwischen den einzelnen Kohlenstoffschichten für das Knicken verantwortlich waren. (Physical Review Letters)
08.12. Genetik
Genbanden in Elektrophorese-Gel © Pacific Northwest National Laboratory
Hundegenom entschlüsselt In einer weltweiten Kooperation haben Wissenschaftler die Gensequenz des Hundes entschlüsselt. Als Sequenzierungsobjekt diente ein Boxer. Die neuen Erkenntnisse könnten dazu beitragen, Gene, die sowohl beim Menschen als auch beim Hund Krankheiten auslösen, besser aufzuspüren und zu untersuchen. Große Fortschritte erwarten sich die Wissenschaftler unter anderem bei Krebs, Herzkrankheiten, Epilepsie, Taubheit oder auch dem grauen Star. Die Identifikation ihrer genetischen Ursachen ist wegen der geringeren genetischen Variationsbreite beim Hund meist einfacher als im menschlichen Genom. (Nature) 12.12. Geowissen 12.12.
Gletscher im Norden Kanadas © NOAA
14
Helium verrät Gletschererosion Gletscher prägen nicht nur die Landschaft vieler polarer Regionen, sie haben diese stellenweise sogar stärker geformt als andere Naturgewalten. Das stellten Wissenschaftler mithilfe einer neuen Methode fest. Sie nutzen die Ausgasung des Edelgases Helium aus dem unter dem Eis liegenden Gestein als Gradmesser für die Veränderungen, denen dieses Gestein durch den Gletschereinfluss unterworfen war. Im Küstengebirge von British Columbia ergab sich daraus sogar eine bis zu sechs Mal schnellere Erosion durch Eis als durch Flüsse und Erdrutsche. (Science)
15.12. Astronomie Blitz verrät kosmischen Kannibalen Ein kurzer, aber extrem heftiger Gammastrahlenausbruch aus einer nahe gelegenen elliptischen Galaxie gab einem internationalen Team von Astronomen einen entscheidenden Hinweis: Denn sein Ursprung war ein Schwarzes Loch, das gerade einen Neutronenstern verschlang. Damit bestätigte sich die Theorie, dass solche kurzen Energiefreisetzungen durch Kollisionen extrem massereicher Himmelskörper verursacht werden. Langanhaltende Gammastrahlenausbrüche dagegen gehen offenbar auf Explosionen solcher Sterne zurück. (Nature)
16.12. Paläontologie Dinosaurier wuchs umweltab Der Dinosaurier Plateosau gelhardti konnte seine Wachstu geschwindigkeit je nach Umweltbedingungen variieren. Das widerspricht allerdings bisherigen Vorstellun- Plateosaurus © historisch gen über ein säugerartiges, schnelles Wachstum der Urzeitechsen. Stattdessen enthüllten Knochenanalysen eine Jahresring-ähnliche Abfolge schneller und langsamer Wachstumsphasen. Ob Plateosaurus damit eine Ausnahme unter allen anderen bisher bekannten Dinosauriern ist oder ob bisherige Funde falsch interpretiert wurden, ist noch unklar. (Science)
16.12. Physik Ein Experiment genügt Metalle sind Stoffe mit komplexen Eigenschaften und Verhalten. Doch um sie zu charakterisieren, genügt theoretisch schon eine einzige Größe: die mittlere Stoßzeit ihrer Elektronen. Das postuliert das so genannte Dru-
AUGUSTSEPTEMBERROKTOBERNOVEMBERDEZEMBER de-Modell. Mithilfe einer neuartigen Mikrowellenapparatur konnten Physiker der Universität Stuttgart jetzt dieses Modell erstmals experimentell bestätigen und untermauerten damit – mehr als 100 Jahre nach ihrer Formulierung – eine der wichtigsten Theorien der Festkörperphysik. (Nature)
16.12. Genetik Gen bestimmt Hautfarbe Eine Genmutation beim Zebrafisch hat Forschern zu neuem Wissen über die Entstehung der menschlichen Hautfarben verholfen. Das veränderte Gen steuert beim Fisch die Streifenfarbe. Beim Menschen findet sich ebenfalls eine Version dieses Gens – die sich jedoch bei Menschengruppen mit verschiedener Hautfarbe wie Afrikanern und Ostasiaten voneinander unterscheidet. Forscher gehen davon aus, dass das Gen eine Rolle bei der Regulation der Hautfarbe spielt. (Science)
20.12. Physik Wasserstoff gibt quantenmechanische Geheimnisse preis Zum ersten Mal hat ein internationales Wissenschaftlerteam eine quantenmechanische Lösung für eine scheinbar einfache Verbindung, das Wasserstoffmolekül H2, ermittelt. Dazu beschossen sie das Molekül zunächst mit Lichtteilchen (Photonen) und lösten so Elektronen aus dem Atomverband. Aus der Flugweite der herausgeschleuderten Elektronen konnten die Forscher den Abstand und die genaue Lage der übrig bleibenden Wasserstoff-Protonen mithilfe eines Computermodells errechnen. (Science)
21.12. Physik Milchkaffee theoretisch „entmischbar“ Werden zwei Flüssigkeiten gemischt,
CHRONIK
ist dies normalerweise irreversibel, ein „Entrühren“ gibt es nicht. Doch Forscher fanden heraus, dass sich solche Gemische unter bestimmten Voraussetzungen sehr wohl trennen lassen. In einem Experiment entmischten sie Mikrometer große Kunststoffkugeln in einer zähen Flüssigkeit durch Rühren in die entgegengesetzte Richtung. Dies funktionierte aber nur dann, wenn zuvor beim Mischen sowohl Konzentration als auch Rührzeit so niedrig waren, dass die Kügelchen dabei nicht zusammenstießen. (Nature)
22.12. Pflanzenforschung Gen-Quartett steuert Stammzellzahl Pflanzen können dank ihrer Stammzellen lebenslang neue Organe bilden. Allerdings war bisher unbekannt, wie sie dafür sorgen, dass diese weder verkümmern noch krebsartig wuchern. Wissenschaftler des Max-PlanckInstituts für Entwicklungsbiologie haben nun einen solchen Steuermechanismus entschlüsselt. Vier Gene dienen dabei als Verbindung zwischen einem wachstumsfördernden Hormon und genetischen Steuerungselementen im Bildungsgewebe. (Nature)
Arabidopsis-Keimlinge mit Genmuster im Hintergrund © MPG
23.12. Paläontologie Blick ins Mammut-Genom Eine internationale Gruppe von Wissenschaftlern hat Teile des Erbguts eines Mammuts entschlüsselt. Die Basis dafür bildeten 27.000 Jahre alte Knochen aus dem Dauerfrostboden Sibiriens. Erstmals wurde dabei mithilfe einer neuen Technik DNA aus dem Zellkern und nicht aus den Mitochondrien analysiert. Die 13 Millionen identifizierbaren Basenpaare des Wollhaarmammuts stimmten zu 98,55 Prozent mit dem Erbgut des Afrikanischen Elefanten überein und deuten damit auf einen gemeinsamen Vorfahren vor fünf bis sechs Millionen Jahren hin. (Science)
Mammut © historische Zeichnung
15
01 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
01
04.01.1634 09.01.1906 Geburt des Der deutsche Geologe und 03.01.1977 Physikers Isaac Paläontologe Karl von Steven Jobs und Newton Fritsch stirbt 11.01.1922 11. 1. Stephen WozniErstee EErs ak gründen die 08.01.1942 Behandlung BBeh a Firma Apple Geburt des Physikers eines eein in s Diabetess 01.01.1801 07.01. 1610 Stephen Hawking Patienten Pa PPat e mit Entdeckung des ersGalileo Galilei 10.01.1946 IInsulin ns l ten Kleinplaneten, entdeckt mehrere Erste UNCeres Monde des Jupiter Vollversammlung
01.01.1867 Alfred Nobel erfindet das Dynamit
05.01. Astronomie
ESA-Satellit INTEGRAL misst kosmische Strahlung © ESA
Aluminium-Isotop verrät Supernova-Häufigkeit Supernova-Explosionen liefern eine wesentliche Triebkraft für die Entstehung neuer Galaxien. Doch wie häufig diese Explosionen massereicher Sterne stattfinden, konnte bisher nur indirekt geschätzt werden. Ein internationales Astronomenteam hat jetzt mithilfe des ESA-Satelliten INTEGRAL die vom radioaktiven Aluminium 26Al ausgehende Strahlung in der Milchstraße untersucht. Den Messungen zufolge gibt es allein von diesem sehr seltenen Isotop dort etwa das Dreifache der Sonnenmasse. Um eine solche Menge zu erzeugen, müssen sich in unserer Galaxis im Durchschnitt zwei Supernova-Explosionen pro Jahrhundert ereignet haben. (Nature)
05.01. Infektionsbiologie
Ebola-Virus © CDC, Cynthia Goldsmith
16
Flughunde – Wirte des tödlichen Virus? Flughunde könnten das gefürchtete Ebolavirus auf Primaten und möglicherweise auch auf Menschen übertragen haben. Zu diesem Ergebnis kommen Wissenschaftler des Institut de Recherche pour le Développement. Im Gabun untersuchten sie Kleinsäuger, die nahe den Leichnamen von infizierten Primaten gefangen wurden. Dabei entdeckten die Forscher in Leber und Milz von drei selbst nicht infizierten Flughundearten Ebola spezifische Antikörper sowie Fragmente vira-
len Genoms. Aus Beobachtungen folgern die Wissenschaftler, dass die Primaten – Schimpansen und Gorillas – sich wahrscheinlich über den direkten Kontakt mit den Flughunden infizierten. (Nature)
06.01. Neurobiologie Polizei des Immunsystems entdeckt Magdeburger Wissenschaftler haben aufgedeckt, dass so genannte Endocannabinoide das Immunsystem im Gehirn kontrollieren. Diese werden bei Entzündungen in großen Mengen freigesetzt und schlagen dann Alarm: Sie locken Mikrogliazellen an, die am Ort der Schädigung helfend eingreifen. Anschließend halten die Endocannabinoide die Mikrogliazellen in Schach und verhindern so eine gefährliche Überreaktion des Immunsystems im Nervengewebe. Die neuen Ergebnisse könnten für die Entwicklung verbesserter Therapien, etwa gegen Multiple Sklerose, eine wichtige Rolle spielen. (Neuron)
12.01. Pflanzenforschung Auch Pflanzen produzieren Methan Auch Pflanzen produzieren Methan und setzen das Treibhausgas anschließend in die Atmosphäre frei. Diese überraschende Entdeckung machten Wissenschaftler des MaxPlanck-Instituts für Kernphysik. Die Methanerzeugung erTropischer Regenwald in Surinam © Max-Planck-Institut für Kernphysik, B. Scheeren
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 13.01.1986 Entdeckung der Uranus-Monde Desdemona, Rosalind und Belinda
15.01.1971 Einweihung des Assuan Staudammes
14.01.2005 Raumsonde Huygens landet auf dem Saturnmond Titan
19.01.1915 Der französische Physiker Georges Claude erhält Patent auf die Neonröhre
folgt dabei erstaunlicherweise sogar in ganz normaler sauerstoffreicher Umgebung. Bisher galt, dass biogenes Methan grundsätzlich durch Mikroorganismen und unter Ausschluss von Sauerstoff, also anaerob, gebildet wird. Die Methan-Produktion in Höhe von schätzungsweise 60 bis 240 Millionen Tonnen pro Jahr verschärft jedoch nicht das Klimaproblem, da die Pflanzen das Methan schon immer freigesetzt haben. (Nature)
12.01. Chemie Flüssige Kohle statt Öl? Forscher des Max-Planck-Instituts für Kohlenforschung haben jetzt ein neues Verfahren entwickelt, mit dem erstmals auch die so genannte Magerkohle – Steinkohle mit nur geringem Gehalt an flüchtigen Bestandteilen – verarbeitet werden kann. Dieser Kohletyp kam bisher ausschließlich in Verbrennungs- und Vergasungsprozessen zum Einsatz. Dadurch wird die Technik der Kohleverflüssigung wieder wirtschaftlich interessant, so etwa für die Produktion von Pkw-Kraftstoffen und chemischen Rohstoffen. (Angewandte Chemie)
13.01. Bionik Antihaft-Beschichtung lässt Insekten keine Chance Fleischfressende Kannenpflanzen arbeiten in ihren Fallen mit einem raffinierten
23.01.1960 Tauchboot „Trieste“ taucht in den Marianengraben hinab
28.01.1986 US-Raumfähre „Challenger“ explodiert kurz nach dem Start
27.01.1967 Unterzeichnung des Vertrags zur friedlichen Nutzung des Weltraums
Zweischicht-System, um Insekten zu fangen. Wie Wissenschaftler des Max-Planck-Instituts für Metallforschung und der Universität Hohenheim herausfanden, sind die Kannen bei der tropischen Art Nepenthes gleich doppelt mit Wachs beschichtet. Während die Kristalle der oberen Wachsschicht die Haftorgane der Insekten verschmutzen, reduziert die untere Wachsschicht die Haftfläche für die Insektenfüße: Die Beutetiere rutschen in die Falle und werden dort verdaut. Die Forschungsergebnisse könnten Hinweise für die Entwicklung von neuen Materialien wie Antihaftfolien liefern. (The Journal of Experimental Biology)
CHRONIK
29.01.1886 Carl Benz erhält das Patent für das erste Benzin-Auto
29.01.1991 Erster Einsatz von gentechnisch veränderten Körperzellen gegen Krebs
Gleitfalle der Kannenpflanze Nepenthes alata © Max-Planck-Institut für Metallforschung
16.01. Zoologie Auch Ameisen gehen zur Schule Lehrer und Schüler gibt es nicht nur bei Menschen, sondern auch bei Ameisen. Das haben Wissenschaftler der Universität von Bristol am Beispiel des „Tandemlaufens“ bestimmter Arten gefunden. Dabei dirigiert eine Ameise eine Nestkollegin zu einer neu entdeckten Nahrungsquelle. Im Zuge dieses Verhaltens zeigen die Tiere alle wichtigen Kriterien des formalen Lehrens wie deutliches, wechselseitiges Feedback und gegenseitige Beeinflussung. So konnten die Wissenschaftler anhand der Ameisen zeigen, dass für die Entwicklung eines Lehrverhaltens im Tierreich weniger die Gehirngröße entscheidend ist, als vielmehr der Wert der Information für die entsprechende Population. (Nature)
Lehrverhalten bei Ameisen © USDA / Peggy Greb
17
01 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 19.01. Kognitionswissenschaften
Eintracht oder Missgunst? © Max-Planck-Institut für evolutionäre Anthropologie
Missgunst gibt es nur beim Menschen Menschen haben den stark ausgeprägten Wunsch einander zu helfen – aber teilen wir diesen Altruismus auch mit unseren nächsten Verwandten, den Schimpansen? Forscher des Max-Planck-Instituts für evolutionäre Anthropologie sagen Nein: Zumindest bei Fütterungs-Experimenten verhielten sich die Menschenaffen weder selbstlos noch missgünstig. Beide Antriebe scheinen daher ausschließlich menschliche Eigenschaften zu sein, die sich vermutlich in den vergangenen sechs Millionen Jahren herausbildeten seit die stammesgeschichtlichen Wege von Mensch und Schimpanse getrennt verlaufen. (PNAS)
20.01. Klima
Elefantenfußgletscher in der Arktis © AlfredWegener-Institut / H. Oerter
Berggletscher schmelzen schneller Bis zum Jahr 2100 wird der Meeresspiegel aufgrund abschmelzender Eiskappen nicht so schnell ansteigen wie befürchtet. Dafür schrumpfen jedoch die Hochgebirgsgletscher im selben Zeitraum deutlich stärker als bisher angenommen. Das belegt die Studie eines internationalen Forscherteams, in der erstmals Prognosen aus globalen Klimamodellen mit Vorhersagen zur Veränderung der Eismassen kombiniert wurden. Das beschleunigte Abschmelzen der Berggletscher könnte möglicherweise schon bald zu katastrophalen Überschwemmungen in Hochgebirgsregionen wie Nepal führen. (Nature)
23.01. Biotechnologie Tabakpflanze produziert Impfstoff Wissenschaftler aus Deutschland und Frankreich haben Tabakpflanzen gentechnisch so verändert, dass sie einen Impfstoff gegen die von Zecken übertragene Infektions-
18
krankheit Borreliose produzieren. Die manipulierten Tabakpflanzen sind dabei besonders effektiv, da die Konstruktionsanleitung für den Impfstoff nicht wie üblich in den Zellkern, sondern in die Chloroplasten eingebaut wurde, von denen jede grüne Pflanzenzelle rund hundert Stück in sich birgt. Sollte das Vakzin, das bisher nur an Mäusen getestet worden ist, auch beim Menschen Wirkung zeigen, wäre die Impfstoffforschung einen bedeutenden Schritt weiter. (Nature Biotechnology)
23.01. Geowissenschaften Glühende Strömung vom Erdkern reicht bis Hawaii Die Vulkane Hawaiis werden von heißen, eng umgrenzten Magmaströmungen gespeist, die aus dem tiefen Erdinnern stammen. Doch wo genau der Ursprung dieser so genannten Magmaplumes liegt, Lava auf Hawaii © USGS ließ sich bisher nicht ermitteln. Britische Geowissenschaftler stellten nun bei der Analyse der Gesteine mithilfe von neuen, leistungsfähigeren Massenspektrometern fest, dass die Lava der hawaiianischen Vulkane auch Material aus dem Erdkern enthält. Das geschmolzene Gestein stammt aus fast 3.000 Kilometern Tiefe – weitaus tiefer, als bisher angenommen. Die Ergebnisse zeigen auch, dass der Erdmantel nicht aus mehreren isolierten Schichten besteht. Vielmehr sorgt ein großes Konvektionssystem für ständige Umwälzungen – wie in einer Suppe, die kontinuierlich umgerührt wird. (Nature)
25.01. Neurobiologie Nervenfasern auf Abwegen Die Zusammenarbeit von Nervenfasern im Gehirn ist entscheidend für unsere Fähig-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER keit zu lernen und zu erinnern. Aber wie finden neu wachsende Nervenfasern zueinander, um das entsprechende Netzwerk zu bilden? Deutsche Wissenschaftler identifizierten jetzt ein Protein, das hier als Steuermann einspringt: Der so genannte Serum Response Factor (SRF) regelt nicht nur das Auswachsen der Nervenzellausläufer im Hippocampus, einem Bereich der Großhirnrinde, sondern führt die Fasern auch auf den richtigen Weg in andere Gehirnbereiche. Zudem sorgt SRF für die gezielte Verschaltung von Nervenzellen. (Nature Neuroscience)
26.01. Astronomie Großer Bruder des Pluto entdeckt Mithilfe eines internationalen Teleskopnetzwerks wurde ein extrasolarer Planet entdeckt, der der Erde mehr ähnelt als alle rund 170 bisher beobachteten Exoplaneten. OGLE2005-BLG-390Lb, so der offizielle Name des Himmelskörpers, ist nur fünfmal so massereich wie die Erde, und seine Oberfläche besteht wie beim Pluto höchstwahrscheinlich aus Eis und Gestein. Der Fund bestätigt die Annahme der Astronomen, dass kleine, gefrorene Exoplaneten weitaus häufiger sein müssen als ihre großen Brüder. Die Entdeckung markiert einen entscheidenden Schritt in der Suche nach erdähnlichen Planeten im Kosmos. (Nature)
26.01. Mathematik Geldscheine verraten Seuchenausbreitung Wie breiten sich Seuchen aus? Diese für die Bekämpfung von Infektionskrankheiten entscheidende Frage hat ein internationales Wissenschaftlerteam jetzt mit einem ungewöhnlichem Mittel erforscht: Die Forscher – unter anderem aus dem Max-Planck-Institut für Dynamik und Selbstorganisation – nutzten Geldscheine als Marker und analysierten
deren Weg durch die Welt. Dabei entdeckten sie universelle Gesetzmäßigkeiten im Reiseverhalten des Menschen. Die neue Theorie könnte zu konkreten mathematischen Modellen führen, mit denen sich die globale Ausbreitung von Seuchen, etwa einer Grippepandemie, erstmals realistisch berechnen und beschreiben lässt. (Nature)
30.01. Materialforschung
CHRONIK
Bewegung von Geldnoten in den USA © Max-Planck-Institut für Dynamik und Selbstorganisation
Exotisches Silberatom speit Doppelprotonen Silberatome mit ungewöhnlichen Eigenschaften hat eine internationale Gruppe von Forschern gewonnen: Sie bombardierten eine dünne Folie aus Nickel mit einem Strahl von Kalziumatomen. Danach zeigten einige der entstandenen zigarrenförmigen Atome eine neue Art des radioaktiven Zerfalls: Sie stießen zwei Protonen gleichzeitig aus. Die Ergebnisse bedeuten einen wichtigen Schritt hin zu einem besseren Verständnis der nuklearen Reaktionen, die die Grundlage aller Materie bilden. (Nature)
31.01. Genetik X-Chromosom ausgezählt Zellen eines weiblichen Organismus enthalten jeweils zwei X-Chromosomen, von denen jedoch stets eines inaktiviert ist. Im männlichen Organismus liegen die X-Gene ohnehin nur einfach vor. Ein internationales Forscherteam entschlüsselte jetzt einen Mechanismus, der an der Abschaltung des zweiten weiblichen X-Chromosoms entscheidend mitwirkt. Danach kommt es immer kurz vor der Inaktivierung zu einer vorübergehenden Pärchenbildung in einer bestimmten Region der X-Chromosomen, dem so genannten X inactivating center (Xic). Auf diese Weise scheint die Zelle festzustellen, ob sie mehr als ein XChromosom enthält. (Nature Cell Biology)
X-Chromosom © MMCD
19
02 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
02
03.02.1966 Erste unbemannte Mondlandung durch „Luna 9“
08.02.1834 Der Chemiker Dimitrij Mendelejew wird geboren
08.02.1865 Gregor Mendel veröffentlicht seine Vererbungslehre
15.02.1897 Erstes Experiment mit der Braun‘schen Röhre 15.02.1564 Geburt von Galileo Galilei
14.02.1876 Patent für Alexander G. Bells erstes Telefon
03.02. Genetik Knochenkristalle konservieren urzeitliche DNA Die Analyse und Extraktion von urzeitlicher DNA aus fossilen Knochen gelingt nur selten – denn oft ist das Erbmaterial längst zersetzt oder kontaminiert. Wissenschaftler aus Tel Aviv und Harvard entdeckten jedoch eine neue Quelle für relativ unversehrte DNA: Kristalline Klumpen im Knochengewebe. Sie schützten die in ihnen eingeschlossene DNA sogar gegen eine Behandlung mit Bleichlauge. Zudem enthielten sie längere, besser erhaltene Fragmente als Vergleichsextraktionen von freier DNA aus frischen Knochen. (PNAS)
06.02. Zoologie Taufliege mit Gedächtnis-Zellen für Bilder Die Taufliege Drosophila archiviert das Bild von ihrer Umwelt nicht wie einen fotografischen Schnappschuss im Gehirn – das atz kosten. Stattdesestimmte MerkmaNeigung von Kanten age zueinander, und in zwei klar voneinabgegrenzten Zellpen im Gehirn ab. anden Forscher mitvon Experimenten n einem FlugsimulaFruchtfliege Drosophila © University of Texas
20
18.02.1913 Der Begriff „Isotop“ wird geprägt
17.2.1962 Große Flutkatastrophe an der Nordsee
19.02.1855 Erster internationaler Wetterdienst
19.02.1986 Start der russischen Raumstation Mir
tor heraus, in dem sie die Tiere in einer künstlichen Umwelt aus verschiedenen Mustern und Farben fliegen ließen. (Nature)
09.02. Astrophysik Kosmos strahlt nicht überall gleich Astrophysiker des internationalen H.E.S.S.-Projekts haben nachgewiesen, dass die kosmische Gamma-Strahlung im Zentrum der Milchstraße nicht nur eine höhere Energie, sondern auch eine höhere DichMilchstraßenzentrum te aufweist als in unim Gammastrahlenbild serem Sonnensys© H.E.S.S. tem. Eine mögliche Erklärung für dieses überraschende Phänomen könnte eine frühere Supernova-Explosion sein. Möglich wäre aber auch eine starke Beschleunigung von Teilchen durch das supermassive Schwarze Loch im Zentrum unserer Galaxie. (Nature)
09.02. Evolution Kratersee als Artenschmiede Neue Tierarten können auch ohne die geografische Isolation zweier Tiergruppen entstehen. Das zeigt eine Fischart, die Forscher der Universität Konstanz in einem kleinen Kratersee Nicaraguas neu entdeckten. Amphilophus zaliosus, so der Name der neuen Art, entwickelte sich innerhalb von weni-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 23.02.1987 Sternen-Explosion in der Großen Magellanschen Wolke
20.02.1962 John Glenn als erster USAmerikaner im All
22.02.1828 Friedrich Wöhler synthetisiert Harnstoff
23.02.1893 Erstes Patent für Dieselmotor 26.02.1948 Gründung der Max22.02.1960 Planck-Gesellschaft Das Tauchboot zur Förderung der „Challenger“ erreicht den Wissenschaften tiefsten Punkt der Erde
ger als 10.000 Jahren aus der ursprünglichen Spezies Amphilophus citrinellus – für evolutionsbiologische Verhältnisse geradezu rasant. Diese so genannte sympatrische Artbildung wurde schon von Darwin postuliert, war aber bisher immer umstritten und kaum empirisch belegt. (Nature)
10.02. Neurobiologie Grammatik ist Teamarbeit fürs Gehirn Im menschlichen Gehirn sind zwei unterschiedliche Areale für die Grammatik der Sprache zuständig. Das konnten Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften mittels der funktionellen Magnetresonanztomografie nachweisen. Einfache Sprachstrukturen werden in einer evolutionär älteren, auch bei Affen vorhandenen Gehirnregion verarbeitet. Komplizierte Strukturen übernimmt dagegen das entwicklungsgeschichtlich jüngere BrocaAreal, das nur der Mensch besitzt. Beide Areale zusammen sorgen für ein umfassendes Verstehen der Sprache. (PNAS)
10.02. Klima Vulkanausbrüche bremsen Klimawandel Ohne die Aschenwolken und Aerosole aus den Vulkanausbrüchen des vergangenen Jahrhunderts wären die globalen Meerestemperaturen und der Meeresspiegel noch stärker angestiegen als ohnehin schon. Das zeig-
26.02.1966 Erster Flug einer unbemannten ApolloKapsel
CHRONIK
28.2.1958 Werner Heisenberg präsentiert die „Einheitliche Theorie der Elementarteilchen“
27.02.1932 James Chadwick entdeckt das Neutron
te sich, als ein internationales Forscherteam testete, wie die großen vulkanischen Eruptionen des 20. Jahrhunderts sich auf zwölf aktuelle Klimamodelle auswirkten. Die Wissenschaftler verglichen die Ergebnisse für den Zeitraum von 1880 bis 2000 mit tatsächlichen Beobachtungen und stellten fest, dass die vulkanischen Aerosole einen großen Teil des Sonnenlichts blockierten. Das sorgte für eine Abkühlung der Meeresoberfläche, die sich bis in tiefere Wasserschichten fortsetzte. (Nature)
10.02. Paläontologie Ältester Cousin des T. rex entdeckt In China aufgefundene Dinosaurierskelette entpuppten sich bei der Analyse der Knochen als Relikte des ältesten jemals entdeckten Verwandten des Tyrannosaurus rex. Das neue Familienmitglied wurde Guanlong wucaii getauft –„der gekrönte fünffarbige Drache“. Der nur gut drei Meter lange Dinosaurier ist 160 Millionen Jahre alt und steht damit zeitlich an der Basis dieser Verwandtschaftsgruppe. Der Fund gibt wertvolle neue Einblicke in die Evolution der Tyrannosauriden und ihrer Vorfahren. (Nature)
Lavaströme am Mauna Loa auf Hawaii © US Geological Survey
Rhesusaffen © SXC
10.02. Genetik Genom des Rhesusaffen entschlüsselt Nach dem Schimpansen entschlüsselten Wissenschaftler verschiedener amerikanischer Forschungsinstitute nun auch das Ge-
21
02 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI nom des Rhesusaffen und veröffentlichten die Sequenz in einer Datenbank. Ihr Ergebnis: Der häufig in der medizinischen Forschung eingesetzte Rhesus-Affe teilt rund 92 bis 95 Prozent seiner Gene mit dem Menschen und 98 Prozent mit dem Schimpansen. Gezielte Genvergleiche zwischen beiden könnten in Zukunft die Erforschung von Immunreaktionen bei Mensch und Affe erleichtern. (NHGRI)
13.02. Strömungsphysik
Strömung verwirbelt Polystyrol-Kugeln © Max-Planck-Institut für Dynamik und Selbstorganisation
Teilchen fliegen anders als gedacht Wie breiten sich Teilchen in starken Turbulenzen aus? Zu dieser Frage existierten bisher zwei unterschiedliche, jeweils 20 Jahre alte Theorien. In einem Experiment testete ein internationales Wissenschaftlerteam nun deren Gültigkeit. Das eigens entwickelte System von Hochgeschwindigkeitskameras zeigte, dass sich die Teilchen bei Turbulenzen insgesamt langsamer auseinander bewegten als angenommen. Damit erwies sich nur die Theorie des Australiers George Batchelor als allgemein gültig. Zukünftig lassen sich mit ihr der Transport und die Ausbreitung etwa von Chemikalien oder biologischen Substanzen besser vorhersagen. (Science)
14.02. Medizin
Kind mit Sauerstoffmaske © SXC
22
Atemkontrolle für den Notfall Schuld am plötzlichen Kindstod könnte der Ausfall einer Gruppe Nervenzellen im Gehirn sein, die als Notfallprogramm nur bei akutem Sauerstoffmangel in Aktion treten. Britische Wissenschaftler identifizierten erstmals diese Zellen und entdeckten ein Schlüsselprotein in ihrer Hülle. Dieses löst bei Atemnot normalerweise einen Natriumeinstrom in das Zellinnere aus, durch den sich die Atemmuskeln ruckartig zusammenziehen. Ist das Protein aber defekt, wird damit auch die „Notatmung“ blockiert. (Nature Neuroscience)
15.02. Physik Raubkopie im Quantenreich Im Gegensatz zu bisherigen Annahmen können auch Quanten kopiert werden. Japanischen Forschern gelang es erstmals, die Eigenschaften eines Photons nicht nur auf ein, sondern auf gleich zwei Teilchen zu übertragen. Dieses „Teleklonen“, die neuartige Kombination der Quantenteleportation mit dem Kopieren eines Photons, könnte damit auch in der vermeintlich abhörsicheren Quantenkryptographie für die illegale Aufzeichnung übermittelter Nachrichten eingesetzt werden. (Physical Review Letters)
17.02. Medizin Malariaverlauf steckt in den Genen Bestimmte Genmutationen erhöhen das Risiko für einen schweren oder sogar tödlichen Verlauf der Malaria bei Kindern im tropischen Afrika. Untersuchungen zeigen, dass bei den Betroffenen bestimmte Rezeptoren des Immunsystems verändert sind. Die Folge: Der Rezeptor erkennt den Erreger schlechter und der Aedes aegypti © CDC Körper kann ihn daher weniger wirksam bekämpfen. Diese nicht in Europa vorkommende Genänderung könnte auch Auswirkungen auf eine Malariaimpfung haben: Diese regt normalerweise die Antikörperproduktion an, indem sie ebenfalls an den betroffenen Rezeptoren andockt. (PNAS)
17.02. Chemie Mehr Saft für Elektroautos Lithium-Ionen-Akkus benötigen lange Ladezeiten, sind teuer und daher bisher nicht für Elektroautos geeignet. Doch Wissenschaftler aus dem Massachusetts Institu-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER of Technology haben un neuartige Lithiumatterien entwickelt, e trotz hoher Leistung ur zehn Minuten zum aden brauchen. Ihr Schichtaufbau der Li- Trick: Eine besondere, thiumbatterie © MIT baumkuchenartige chemische Anordnung der Metallionen Lithium, Nickel und Mangan. (Science)
den Phasengehalt, die Textur und die Grenzflächen von Materialien in drei Dimensionen untersuchen kann, haben Wissenschaftler am Max-Planck-Institut für Eisenforschung in Betrieb genommen. Damit sind erstmals direkte Einblicke in die dreidimensionale Mikrostruktur von Nanomaterialien, biologischen Werkstoffen oder auch von höchstfesten Stählen möglich. (MPG)
CHRONIK
3D-Gradienten der kristallographischen Orientierung in einem intermetallischen EisenAluminium-Kristall © Max-Planck-Institut für Eisenforschung
24.02. Paläontologie 17.02. Medizin Vogelgrippe-Alarm in Deutschland Der auch für den Menschen gefährliche Vogelgrippe-Virus H5N1 erreicht nach Österreich, Italien, Griechenland und dem Balkan auch Deutschland: Im Nordwesten der Insel Rügen werden tote, mit der Tierseuche infizierte Schwäne und Gänse gefunden. Zum Schutz der Nutztierbestände verhängt die Bundesregierung bundesweit eine sofortige Stallpflicht für alle Geflügelbetriebe. (RKI)
21.02. Klima Eisverlust in Grönland verdoppelt Das Eis Grönlands schmilzt immer schneller: Von 96 Kubikkilometern im Jahr 1996 stieg der Eisverlust auf 220 Kubikkilometer im Jahr 2005. Gleichzeitig dehnte sich auch das betroffene Gebiet weiter nach Norden bis zum 70. Breitengrad aus. Hält diese durch den Klimawandel verursachte Entwicklung an, könnte das auch zum Anstieg der Meeresspiegel beitragen. Das ergaben Analysen der Eiswanderungsbewegungen, des Schneefalls und der Schmelze. (Science)
22.02. Nanotechnologie Nanostrukturen erstmals in 3D Das weltweit erste Elektronenmikroskop, mit dem man gleichzeitig und automatisiert
Ur-Biber erstaunlich modern Wissenschaftler der Universität von Nanjing entdeckten in China die 164 Millionen Jahre alten fossilen Überreste eines Ur-Bibers. Der Zeitgenosse der Dinosaurier war seinen modernen Nachfahren sehr ähnlich und damit weitaus höher entwickelt, als man zuvor für Säuger der damaligen Zeit für möglich gehalten hatte. Der Fund ist zudem das größte Säugerfossil aus dieser Ära. Castorocauda hat einen breiten schuppigen Schwanz und Hinterläufe wie ein Biber, seine Vorderbeine erinnern eher an die eines Schnabeltiers. (Science)
28.02. Sozialwissenschaften Guter Ruf als „Köder“ Öffentliche Anerkennung kann ebenso motivieren wie finanzieller Gewinn – das fanden Max-Planck-Forscher in einem Spiel-Experiment heraus. Ihre Versuchspersonen sollten entscheiden, ob sie Geld für eine Zeitungsanzeige spenden oder das Geld behalten wollten. In der Anzeige sollten der Öffentlichkeit die Folgen klimaschädlichen Verhaltens und einfache Regeln zum Klimaerhalt aufgezeigt werden. Das Ergebnis überraschte: Alle Mitspieler spendeten Geld für die Anzeige. Die größte Bereitschaft zeigten die über den Klimawandel bereits informierten Spieler – aber nur dann, wenn sie wussten, dass ihre gute Tat öffentlich gemacht wurde. (PNAS)
Guter Ruf ist Geld wert © SXC
23
03 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI
03
02.03.1949 Erster NonstopFlug um die Erde
03.03.1910 Erstes Medikament gegen Syphilis zugelassen
03.03.1995 Entdeckung des Top-Quarks
07.03.1986 Erstes Kunstherz in Deutschland
04.03.1979 „Voyager 1“ erreicht den Jupiter
03.03. Physik
Protonen (rot) in einem Atomkern © MMCD
Laserpulse fangen Protonenbewegung ein Protonen sind Elementarteilchen, die bei chemischen Reaktionen mit enormer Geschwindigkeit ausgetauscht und umgelagert werden. Daher war ihre Beobachtung bisher kaum möglich. Britische Forscher entwickelten nun eine neue Lasertechnik, die auf extrem kurzen Lichtpulsen basiert und die schnelle Bewegung der Protonen messbar macht. Die Methode eröffnet nicht nur neue Einblicke in fundamentale Prozesse der Chemie und Biologie, sondern bietet auch viele Anwendungsmöglichkeiten wie bei der Nanofabrikation von Materialien. (Science)
06.03. Astronomie
Leuchtende Wasserstoffwolken in „Stephans Quintett“ © NASA / JPL / Caltech
Überschallknall im All In der Galaxiengruppe Stephans Quintett, dem Schauplatz einer gewaltigen kosmischen Kollision, haben Astronomen eine Schockwelle aufgespürt, die größer ist als unsere Milchstraße. Den wichtigsten Hinweis lieferte eine starke Infrarotstrahlung, die das NASA-Teleskop Spitzer gemessen hat. Sie stammt von Wasserstoffmolekülen, die bei der Kollision von Materie zum Leuchten angeregt werden. Die Entdeckung der Schockwelle liefert Astronomen neue Einblicke in die Anfänge des Universums, als Verschmelzungen und Zusammenstöße von Galaxien noch an der „Tagesordnung“ waren. (Astrophysical Journal)
24
09.03.1931 Ernst Ruska entwickelt das erste Elektronenmikroskop 10.03.1814 Joseph Fraunhofer entdeckt die ersten Spektrallinien
12.03.1933 Erste Synthese des Kunststoffs Polyethylen 13.03.1930 Entdeckung des Planeten Pluto
06.03. Zellbiologie Architektur der „Fettsäure-Fabrik“ enträtselt Fettsäuren sind an einer Vielzahl biologischer Prozesse beteiligt. So dienen sie unter anderem als Energiespeichersubstanzen und als zelluläre Botenstoffe. Die Struktur der Enzyme, die für die Bildung von Fettsäuren in höheren Organismen verantwortlich sind, haben jetzt erstmals Schweizer Forscher identifiziert. Diese so genannten Fettsäure-Synthasen zählen zu den komplexesten biologischen Synthese-Maschinen überhaupt. Die Wissenschaftler wollen mit ihrer Hilfe neue Medikamente gegen verschiedene Krebsformen, krankhaftes Übergewicht oder Pilzinfektionen entwickeln. (Science)
09.03. Ökologie Wimmelndes Leben in salziger Tiefsee In 3.300 Metern Tiefe entdeckte ein europäisches Wissenschaftlerteam im Mittelmeer ein komplexes Ökosystem mit zahlreichen bisher unbekannten Bakterien. Einige der Arten, die sich in einem nur zweieinhalb Meter breiten Grenzbereich zwischen salzarmen und salzreichen Wasserschichten aufhalten, zeigten so wenig Verwandtschaft zu anderen Lebensformen, dass die Forscher vier neue Klassen von Bakterien definieren konnten. Die Entschlüsselung ihrer komplexen Stoffwechselkreisläufe könnte möglicherwei-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 14.03.1879 Geburt des Physikers Albert Einstein
22.03.1974 OstseeSchutzkonvention verabschiedet 16.03.1926 Die erste Rakete fliegt – immerhin 56 Meter weit
23.03.1912 Geburt des Physikers und Raketenpioniers Wernher von Braun
se neue Anwendungen in Industrie und Medizin nach sich ziehen. (Nature)
10.03. Neurobiologie Duftkombinationen bringen Gehirn „in Schwung“ Gerüche, die sich aus vielen unterschiedlichen Duftstoffen zusammensetzen, aktivieren im Riechzentrum des Gehirns andere und mehr Neuronen als einzelne Duftnoten. Bei Versuchen an Mäusen identifizierten Wissenschaftler vom Fred Hutchinson Cancer Research Center in Seattle sogar Gruppen von Nervenzellen, die ausschließlich auf Mischgerüche reagierten. Übertragen auf den Menschen könnten diese Ergebnisse erstmals erklären, warum Duftkombinationen völlig andere Geruchswahrnehmungen erzeugen, als man aufgrund der Einzelnoten vermuten würde. (Science)
10.03. Paläontologie Neu entdeckter Säuger ist lebendes Fossil Die kleinen, an Eichhörnchen erinnernden Tiere, die amerikanische Wissenschaftler im Jahr 2005 in Südostasien aufgespürt haben, gehören nicht zu einer neuen Säugetierfamilie, sondern sind „lebende Fossilien“. Skelett- und Zahnvergleiche durch Forscher des CarnegieMuseum für NaturNeu entdeckte Art Laonasthes aenigmamus über Fossil seines ausgestorbenen Verwandten stehend. © Mark A. Klingler, CMNH
CHRONIK
27.03.1845 Wilhelm Conrad Röntgen wird geboren
24.03.1882 Robert Koch entdeckt den Tuberkelbazillus
24.03.1989 Der Öltanker „Exxon Valdez“ verunglückt vor Alaska
29.03.1912 Polarforscher Robert Scott stirbt auf dem Rückweg vom Südpol
geschichte in Pittsburgh ergaben eine Zugehörigkeit zur Nagergruppe der Diatomyidae, die angeblich vor mehr als zehn Millionen Jahren ausgestorben war. Kha-Nyou, so der Name des Tieres, könnte möglicherweise neue Einblicke in die Entwicklung der Biodiversität Südostasiens liefern. (Science)
14.03. Mathematik Härte eines Kristalls „entlarvt“ Wie hart ist ein bestimmter Kristall? Um dies herauszufinden, mussten bisher aufwändige Ritz-Versuche mit Diamantspitzen durchgeführt werden. Forscher von der Tschechischen Akademie der Wissenschaften haben nun mithilfe der Mathematik eine einfachere Lösung für dieses Problem gefunden: Sie entwickelten eine Formel, mit der sich die Härte eines Kristalls theoretisch berechnen lässt. Die Formel ermittelt die Stärke der Bindungen im Gitter und damit die mechanische Widerstandsfähigkeit des Kristalls gegen Beschädigungen. (Physical Review Letters)
15.03. Nanotechnologie
Diamant – das härteste Material der Erde © US Geological Survey
Nanomotor in Bewegung © Universität Groningen
Licht treibt Nanomotor an Kann man einen Motor mithilfe von Licht antreiben? In der Nanowelt schon. Wissenschaftler aus Groningen und Eindhoven haben einen leistungsfähigen Antrieb konstruiert, der aus mehreren hantelförmigen Molekülen besteht, die bei der Bestrahlung mit
25
03 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI UV-Licht ihre Struktur verändern. Die beweglichen Moleküle sind zu diesem Zweck von einem dünnen Flüssigkristallfilm umgeben, auf dem ein Glasstäbchen liegt. Die Lichtblitze führen zu Konformationsänderungen der Motor-Moleküle und verdrehen dadurch den Film, sodass auch das eingebettete Glasstäbchen in Rotation gerät. (Nature)
16.03. Astrophysik
Vela-Pulsar mit durch leuchtende Gase sichtbaren Schockwellen und Jets. © NASA/PSU/ G.Pavlov et al.
Dunkle Materie als „Sternenanzünder“? Die rätselhafte Dunkle Materie im Kosmos besteht vermutlich aus so genannten „sterilen Neutrinos“, die durch ihren Zerfall die ersten Sterne nach dem Urknall zum Leuchten gebracht haben. Die Gesamtanzahl dieser Teilchen im Universum ist zwar nicht bekannt. Doch wenn ein solches Neutrino auch nur einige Millionstel der Masse eines Wasserstoff-Atoms besitzt, so ein deutschamerikanisches Forscherteam, wäre damit der bisher fehlende Masseanteil im Universum zu erklären. Diese Theorie könnte auch bisher rätselhafte Beobachtungsergebnisse wie die hohen Eigengeschwindigkeiten von Pulsaren und das Fehlen von Antimaterie im Universum erklären helfen. (Physical Review Letters)
16.03. Paläontologie
Das Skelett-Fossil von Juravenator starki. © Jura Museum Eichstätt / G. Janssen, Paläontologisches Museum München
26
„Jurassic Park“ bekommt Zuwachs Im rund 150 Millionen Jahre alten Plattenkalk der Fränkischen Alb entdeckte ein deutsch-amerikanisches WissenschaftlerTeam das Fossil einer neuen, nur hühnergroßen Dinosaurierart. Der Juravenator gehört zu einer Gruppe von Fleischfressern, den Theropoden, die in der Jurazeit Europas äußerst selten war. Ein Hautabdruck am Schwanz des Fossils zeigt zudem, dass das Tier, anders als nahe verwandte Arten wie der Archaeopteryx, vermutlich nicht befiedert war. Dieser Fund
wirft ein neues Licht auf die Evolution von Federn: Sie könnten entweder mehr als einmal unabhängig voneinander entstanden oder bei bestimmten Arten, wie dem Juravenator, im Lauf der Evolution wieder verloren gegangen sein. (Nature)
17.03. Materialforschung Brennstoffzelle lässt Muskeln zucken Künstliche Muskeln für Roboter und andere Maschinen könnten zukünftig auch ohne Batterieantrieb funktionieren. Dank integrierter Brennstoffzelle treiben stattdessen Wasserstoff, Methanol oder Ameisensäure die beweglichen Apparaturen an. Forscher der Universität von Texas konstruierten gleich zwei Varianten solcher Kunstmuskeln. Einer davon setzte sich aus Kohlenstoff-Nanoröhrchen zusammen und wurde mit Sauerstoff und Wasserstoff betrieben. Der zweite bestand aus einem hitzesensiblen Metall, das sich zusammenzog, sobald Methanol oder Ameisensäure in der Brennstoffzelle zu Wärme umgewandelt wurden. (Science)
17.03. Medizin Waffenarsenal der Antibiotika erschöpft? Ein deutsches Forscherteam hat erstmals die Proteine identifiziert, die an den Stoffwechselwegen der Salmonellen im Verlauf einer Infektion beteiligt sind. Sie entdeckten dabei zwar neue Angriffspunkte für die Entwicklung dringend benötigter Antibiotika gegen die Krankheitserreger – allerdings weniger als bislang gehofft. Die Analysen zeigten, dass Salmonellen erstaunlich unempfindlich gegen die Blockade einer Reihe zentraler Stoffwechselwege sind. Ursache dafür sind Ersatzenzyme, die die Rolle inaktiver Enzyme übernehmen können, sowie ein breites Nährstoffangebot des Wirtes, das den Salmonellen weitgehende Unabhängigkeit von eigenen
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B Biosynthese-Fähigkeiten verleiht. Für die Forschung bedeutet das, dass sie wirkungslose Antibiotika durch neue Substanzen mit ähnlichem, aber nicht identischem Wirkprinzip ersetzen muss. (Nature)
17.03. Neurobiologie Plaques unschuldig an Alzheimer Nicht die im Mikroskop gut sichtbaren Eiweiß-Plaques im Gehirn von Alzheimer-Patienten sind für die typischen Gedächtnislücken verantwortlich, sondern vermutlich winzig kleine Protein-Komplexe, die in erster Linie aus so genannten Abeta-Peptiden bestehen. Wie Wissenschaftler der Universität von Minnesota im Tierversuch herausfanden, treten diese Strukturen viel früher auf als die Plaques und zwar genau dann, wenn die ersten Erinnerungslücken einsetzen. Sollten sich die Ergebnisse auch beim Menschen bestätigen, könnte die Demenzkrankheit in Zukunft viel früher erkannt und vielleicht sogar mit einer vorbeugenden Therapie behandelt werden. (Nature)
CHRONIK
fluenzavirus von 1918, der 50 Millionen Menschen weltweit tötete. (Science)
24.03. Klima Eiszeitlicher „Staubfänger“ Antarktis In den Kaltzeiten der letzten 740.000 Jahre war die Antarktis von sehr viel mehr Meereis umgeben als in Warmzeiten. Gleichzeitig transportierte der Wind mehr Staub aus dem trockenen Süden Südamerikas in die Antarktis. Dies ergab die Untersuchung von Aerosolpartikeln in einem drei Kilometer langen Eiskern. Der Kern deckt mehr als acht aufeinander folgende Wechsel von Eis- und Warmzeiten ab und ist damit das längste kontinuierliche Eiskernarchiv, das jemals gewonnen wurde. Er zeigt eine ähnliche Abfolge von Änderungsprozessen bei jedem Wechsel zwischen warmen und kalten Klimabedingungen. Die Forscher schließen daraus, dass die Erde im Verlauf von Klimaänderungen bestimmten Regeln folgt. Ein besseres Verständnis dieser Regeln könnte zu einer Verbesserung der Klimamodelle und damit auch der Klimaprognosen führen. (Nature)
Das Eis der Antarktis ist ein wertvolles Klimaarchiv. © NOAA
20.03. Genetik H5N1 – durch kleine Mutation zum Menschenvirus? Noch ist die Vogelgrippe in erster Linie eine Tierseuche. Doch schon kleine Mutationen beim aggressiven Virus H5N1 könnten ausreichen, um seine Bindungsstellen zu verändern. Dadurch könnte er statt des Verdauungstrakts von Vögeln die Atemwege von Menschen befallen, wie Mikrobiologen des Scripps Research Instituts bei der Untersuchung des besonders gefährlichen H5N1Stammes Viet04 feststellten. Mithilfe der Mikroarray-Technik untersuchten sie eine spezielle Struktur auf der Virenoberfläche, das Glycoprotein Hämagglutinin. Schon jetzt ähnelt diese Struktur von H5N1 sehr stark der des In-
28.03. Bildung Sozial aktive Senioren sind geistig fitter Ältere Menschen, die viele Bekannte haben, an kulturellen Veranstaltungen teilnehmen oder Tanzen gehen, bleiben geistig fitter als andere. Dies belegen Beobachtungen der persönlichen Entwicklung bei 516 Personen im Alter von 70-100 Jahren über einen Zeitraum von bis zu acht Jahren durch Psychologen des Max-Planck-Instituts für Bildungsforschung. Danach bremst ein sozial aktiver Lebensstil den Rückgang der intellektuellen Leistungsfähigkeit von Senioren deutlich. Die Forscher lieferten damit erstmals einen direkten Beleg für den Beitrag sozialer Faktoren zur Intelligenzentwicklung im Alter. (MPG)
Sozial aktiver Lebensstil bremst den Rückgang intellektueller Leistung im Alter. © SXC
27
04 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI
04
01.04.1867 Eröffnung der Weltausstellung in Paris
05.04.1951 Erste Operation am offenen Herzen
05.04.1722 „Entdeckung“ der Osterinsel durch die Niederländer
07.04.1948 Gründung der Weltgesundheitsorganisation WHO
06.04.1909 Robert Peary erreicht als erster Mensch den Nordpol
05.04. Genetik
Große Kältetoleranz: der Kabeljau © NOAA
Gefrierschutz-Protein aus ”Junk-DNA” Ein Protein schützt Kabeljau vor extremer Kälte. Wissenschaftler der Universität Illinois entdeckten ein Gen aus der „Junk-DNA“ des Fisches, welches dieses spezielle Gefrierschutz-Protein kodiert. Bislang galten die vielfach wiederholten Sequenzen der „JunkDNA“ als genetisch funktionslos. Die Forscher erhoffen sich nun neue Erkenntnisse über Mechanismen der Gen-Entwicklung. (Society for Experimental Biology)
06.04. Physik
Tropfen schwebt auf Dampfpolster © Stout, Dow-Hygelund, Aleman, Schweickert
28
Wassertropfen fließen aufwärts Normalerweise fließt Wasser immer bergab. Doch beim so genannten „Leidenfrost-Effekt“ bleiben Tropfen auf einem Kissen aus Wasserdampf in der Schwebe und gleiten in alle möglichen Richtungen. Genau dies lässt sich auch auf einer heißen Herdplatte beobachten. Wissenschaftler der Universität von Oregon haben den Effekt modifiziert: Auf einer sägezahnartig eingekerbten Oberfläche wird der Dampf so umgeleitet, dass er eine Kraft erzeugt, die die Tropfen in eine bestimmte Richtung lenkt. Sie wandern bis zu einem Meter weit und überwinden sogar Steigungen. Dieses Phänomen ließe sich bei der Kühlung von Computerprozessoren einsetzen. (Physical Review Letters)
09.04.1906 Größte Eruption des Vesuv seit Pompeji
07.04.1795 Frankreich legt das Urmeter als Referenz für Längeneinheiten fest
12.04.1961 Gagarin umrundet als erster Mensch die Erde
13.04.1955 Zulassung des ersten Polio-Impfstoffs
07.04. Sozialwissenschaften Warum Strafen notwendig sind Normen prägen in einer Gruppe den Einzelnen stärker als das Streben nach maximalem persönlichen Gewinn. Das gilt selbst dann, wenn diese Normen persönliche Einbußen nach sich ziehen, hat ein Team aus deutschen und britischen Forschern in einer Studie mit zwei konkurrierenden Gruppen nachgewiesen. In der einen Gruppe konnte jedes Mitglied egoistisches Verhalten bei den anderen bestrafen, was allerdings mit persönlichen Kosten verbunden war. In dieser Gruppe etablierte sich eine stabile, erfolgreich zusammenarbeitende Gesellschaft. In der anderen, in der unkooperatives Verhalten nicht geahndet werden konnte, brach die Gruppenstruktur dagegen bereits nach relativ kurzer Zeit zusammen. (Science)
10.04. Zoologie Evolution der Säugetiere präzisiert Der Mensch ist mit dem Hund nicht näher verwandt als mit der Maus. Das fanden Wissenschaftler der Universität Münster heraus, als sie „springende Gene“, so genannte Transposons, verschiedener Säuger miteinander vergliHörnchen: Genauso chen. Diese zumeist nahe verwandt wie funktionsneutralen Hund © Hemera
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 14.04.1912 Untergang der Titanic
23.04.1858 Max Planck, , Begründer der Quantentheorie, wird geboren
22.04.1957 Erster Testlauf des Wankelmotors
24.04.1990 Weltraum-Teleskop „Hubble“ in der Erdumlaufbahn
24.04.1923 Sigmund Freuds Werk „Das Ich und das Es“ erscheint
Abschnitte können weitgehend unverändert sehr lange Zeiträume in den Chromosomen überstehen und erlaubten daher, die Abstammungsverhältnisse genauer als zuvor zu rekonstruieren. Der Mensch bildet demnach im Stammbaum der Säugetiere einen gemeinsamen Ast mit Spitzhörnchen, Pelzflatterern, Nagetieren und Hasenartigen, den so genannten Supraprimaten. (PloS Biology)
11.04. Medizin Glückshormon heilt Leber Eine bisher unbeannte Funktion des Horerotonin entdeckte eine europäische Wissenschaftlergruppe unter Beteiligung des Max-Planck-Instituts für molekulare Genetik. In Versuchen an Mäusen stellten sie fest, dass das in Blutplättchen enthaltene Hormon entscheidend an der Regeneration des Lebergewebes mitwirkt. Ohne Serotonin im Blut heilte das verletzte Gewebe nicht aus. Eine Behandlung mit einer Serotonin-Vorstufe konnte jedoch die Regeneration wieder anregen. Diese Entdeckung könnte zukünftig die Behandlung nach Lebertransplantationen verbessern. (Scin)
26.04.1986 Unfall im weißrussischen Kernkraftwerk Tschernobyl
27.04.1521 Tod des Weltumseglers Ferdinand Magellan auf der Philippinen-Insel Mactan 30.04.1904 Ein Vorläufer des Radars wird patentiert
bacter crescentus könnte der stärkste jemals in der Natur nachgewiesene Klebstoff sein. Er ist sogar zwei bis drei Mal haltbarer als handelsüblicher Superkleber und haftet auch unter Wasser, wie Forscher von der Indiana Universität und der Brown Universität in USA herausfanden. Wenn es gelänge, das neue Material in Massenproduktion herzustellen, könnte es in Medizin, Meerestechnologie und zahlreichen weiteren Anwendungsgebieten gute Dienste leisten. (PNAS)
30.04.1777 Geburt des Mathematikers und Physikers Carl Friedrich Gauß
Caulobacter crescentus © Yves V. Brun, Indiana University
12.04. Paläontologie Ameisen älter als gedacht Ameisen bevölkern unsere Erde schon seit 140 bis 168 Millionen Jahren – damit sind sie älter als bislang angenommen. Forscher der amerikanischen Harvard Universität rekonstruierten Stammbaum und Alter der Ameisen, indem sie die DNA von sechs Genen aus 139 repräsentativen Arten untersuchten. 19 von 20 Ameisenfamilien weltweit wurden so abgedeckt. Die Forscher schätzen, dass die Aufspaltung der Ameisen in verschiedene Arten wahrscheinlich vor rund 100 Millionen Jahren begann, gemeinsam mit dem Aufstieg der Blütenpflanzen. (Science)
15.04. Nanotechnologie
12.04. Chemie Bakterien-Superkleber entdeckt Der Kleber der winzigen Bakterie Caulo-
CHRONIK
Blattschneiderameisen können das Vielfache ihre Körpergewichts tragen. © USDA
„Nanoauto“ mit Lichtmotor Aus nur einem einzigen Molekül besteht ein von amerikanischen Nanoforschern kon-
29
04 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI struiertes Auto, das durch Licht angetrieben wird und so tatsächlich fährt. Das nur vier Millionstel Millimeter große Fahrzeug besteht aus genau 169 Atomen. Das Chassis bilden fünf Ringe, die Achsen bestehen aus drei drehbaren Kohlenstoffverbindungen. Der Motor ist ein seitlich angebrachtes Molekül, das sich bei Anregung durch UV-Licht dreht und so das „Nano-Auto“ über die Oberfläche schiebt. (Organic Letters) Das Nanoauto wird durch Lichtenergie angetrieben. © Rice University
18.04. Physik Laser steuert Elektronen Ultrakurze Laserimpulse im Femtosekunden-Bereich können chemische Reaktionen in Atomen auslösen. Unter dem Einfluss der Lichtpulse ändern die Elektronen ihren Quantenzustand. Dadurch werden chemische Bindungen aufgebrochen oder neu gebildet. Diese Entdeckung könnte zu einer weiteren Miniaturisierung von Bauelementen der molekularen Elektronik führen oder der Steuerung von Elektronen-Transferprozessen in DNA-Basenpaaren dienen. (Science)
18.04. Chemie
Silica-Kegel in Reih‘ und Glied © Max-Planck-Institut für Kohlenforschung
30
Lakritzschnecken im Reagenzglas Regelmäßige Muster statt zufallsverteilter Reaktionsprodukte – das zu ereichen ist in der Chemie nicht einfach. Forschern vom Max-Planck-Institut für Kohlenforschung gelang dies, indem sie Silica- oder KieselsäureTeilchen aus einer Lösung so auf einem Träger wachsen ließen, dass ein Muster winziger Kegel entstand. Jeder Kegel besteht dabei aus übereinander geschichteten Spiralen – so als würde man Hariboschnecken stapeln. Jede Spirale besteht wiederum aus Röhren, in denen sich das Silica um lange organische Moleküle gruppiert. Solche hierarchischen Strukturen, die im Kleinen wie im Großen definiert sind, kannten Wissenschaftler bislang
nur aus der Natur: von Knochen, Holz oder Muscheln. Dass sie sich jetzt im Reagenzglas herstellen lassen, könnte helfen, optische und elektronische Bauteile zu verkleinern. (Advanced Materials)
20.04. Materialforschung Silizium aus der Sprühdose Eine bestechend einfache Methode zur Herstellung hochreiner Siliziumoberflächen haben japanische Forscher entwickelt: Sie sprühten eine siliziumhaltige Flüssigkeit in Form von Leiterbahnen auf eine Oberfläche und erhitzen sie auf 500 Grad Celsius. Dabei kristallisierten die Strukturen zu hochreinem Silizium aus und bildeten so elektronische Schaltkreise. Für mikroelektronische Anwendungen ist das Verfahren nicht klein genug, es könnte sich aber zur billigen Herstellung großflächiger, zusammenrollbarer Bildschirme eignen. (Nature)
25.04. Astrophysik Das kosmische Glimmen – schwächer als gedacht Das kosmische Hintergrundleuchten gilt als Überrest des gesamten, jemals im Universum ausgestrahlten Lichts – doch es ist weitaus schwächer als bislang angenommen. Das fanden Wissenschaftler des Max-Planck-Instituts für Kernphysik mithilfe der H.E.S.S.Teleskope in Namibia heraus. Sie zeichneDas H.E.S.S. besteht aus ten die Gammaspekvier gekoppelten Spiegeltren zweier Quasateleskopen. © H.E.S.S. re auf und untersuchten, wie stark diese durch die Kollision mit Lichtteilchen des Hintergrundleuchtens abgeschwächt wurden. Erwartet wurde eine Rötung des ursprünglichen Gammaspektrums. Tatsächlich reichte die Intensität des Hinter-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B grundleuchtens jedoch nicht aus, um die ausgesandten Gammastrahlen in den roten Wellenbereich zu verschieben. (Nature)
25.04. Neurobiologie „Süß-Geschmack“ enträtselt Nach dem Genuss von hoch dosiertem Süßstoff schmeckt dieser zunächst bitter, normales Wasser dagegen süß. Warum ist das so? Des Rätsels Lösung: Die Süßstoffe Saccharin und Azesulfam K verändern in hoher Dosierung die Struktur von Süßrezeptoren auf der Mundschleimhaut und schalten damit den „Süß-Sinn“ aus. Erst wenn das Wasser die Hemmstoffe wieder wegspült, funktionieren die Rezeptoren wieder und gaukeln so eine Süße des Wassers vor. Diese Ergebnisse eines deutsch-amerikanischen Forscherteams könnten für die Entwicklung neuer Zuckeraustauschstoffe hilfreich sein und auch dazu beitragen, bekannte Süßstoffe wirksamer einzusetzen. (Nature)
26.04. Klima Deutschland wird heißer Das Klima in Deutschland wird bis zum Jahr 2100 spürbar wärmer. Die Jahresmitteltemperaturen in Deutschland steigen zukünftig um 2,5 bis 3,5 Grad Celsius, im Südosten des Landes könnten es sogar mehr als vier Grad werden. Zudem werden die Sommer besonders im Nordosten trockener, die Winter bundesweit feuchter. Dies hat ein neues Modell des Max-Planck-Instituts für Meteorologie ergeben, das erstmals flächendeckend aktuelle und hoch aufgelöste Aussagen zu
CHRONIK
künftigen Klimaentwicklungen ermöglicht. Die neuen Daten bieten sowohl eine Basis für aktuelle Klimaschutzmaßnahmen als auch für die Entwicklung von zukünftigen Anpassungsstrategien an die Auswirkungen der Klimaerwärmung. (MPG/UBA)
27.04. Astrophysik Sternenbeben enthüllt NeutronensternAufbau Die Kruste von Neutronensternen ist nur 1,5 Kilometer dick, aber so dicht gepackt, dass ein Teelöffel dieser Materie auf der Erde zehn Millionen Tonnen wiegen würde. Das entdeckte eine internationale Forschergruppe, als sie eine starke Explosion auf dem Neutronenstern SGR 1806-20 nutzte, um mithilfe der „Sternbeben-Seismologie“ das Sterneninnere zu analysieren. Mittels eines speziellen Spektrometers registrierten die Forscher Unterschiede in den Frequenzen der quer durch die Sternenkruste und längs dazu laufenden Wellen. Diese Messungen erlaubten den Rückschluss auf Dichteunterschiede und damit auch die Dicke der Kruste. (MPG/Jahrestagung
Neutronenstern speit leuchtendes Plasma. © NASA/CXC/SAO
der American Physical Society)
28.04. Materialforschung Insektenaugen aus Kunststoff Das erste künstliche Auge nach dem Vorbild der Facettenaugen von Insekten haben amerikanische Bioingenieure entwickelt. Die Halbkugel mit nur 2,5 Millimetern Durchmesser besteht aus rund 8.700 kleinen Kunststofflinsen. Unter dem Einfluss von UV-Licht bildet sich im Kunststoffharz jeweils ein Licht leitender Kanal. Kombiniert mit Photozellen könnten die künstlichen Augen als winzige Überwachungskameras oder Endoskope eingesetzt werden. (Science)
Temperaturänderung gegenüber 19611990. Die Spannbreite reicht von 1,5°C (orange) bis 4°C (dunkelrot) © MaxPlanck-Institut für Meteorologie
31
05 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
05
02.05. 1856 Fund des ersten Neandertalers in einer Höhle bei Mettmann 02.05.1800 Entdeckung der Elektrolyse
05.05.1981 Das erste Sonnenkraftwerk Europas geht ans Netz
09.05.1960 Die „Pille“ wird zur Empfängnisverhütung zugelassen 09.05.1876 Erster Test des Otto-Motors
09.05. Archäologie
Wissenschaftlerin prüft gereinigtes Probefeld in der Grabkammer. © Neferhotep
Laser als „Putzfrau“ für Denkmäler Zur Reinigung von stark verschmutzten Kunstdenkmälern haben Forscher der Fraunhofer-Gesellschaft erstmalig auch Laserlicht eingesetzt. Hierbei werden zunächst auf kleinen Testfeldern die Auswirkungen der hochenergetischen Strahlung auf den Untergrund wie Putz, Mörtel oder Stein geprüft. Nach der individuellen Anpassung von Frequenz, Pulsenergie und Pulsdauer lässt sich dann der Schmutz mit dem Laser präzise beseitigen. (Fraunhofer-Gesellschaft)
15.05. Physik
Laserlicht © Harald Frater
32
Licht im „Rückwärtsgang” Schon seit einigen Jahren können Wissenschaftler das Licht verlangsamen und beschleunigen. Jetzt ist es amerikanischen Forschern gelungen, noch einen Schritt weiter zu gehen: Sie gaben dem Licht eine negative Geschwindigkeit und zwangen es, rückwärts zu laufen. Dazu spalteten sie einen Laserstrahl in zwei Teile – der eine ging als Laserpuls durch eine optische Faser, der zweite lief parallel dazu als Referenzstrahl. Der Peak des Lichtpulses trat überraschend am Ende der Faser aus, bevor er ihren Anfang erreicht hatte – ein scheinbares Paradox, das aber durch ein „Rückwärtslaufen“ innerhalb der Faser erklärt werden kann. Diese noch rätselhafte Beobachtung deutet darauf hin, dass das Licht theoretisch schneller als mit Lichtgeschwin-
12.05.1941 Der deutsche Ingenieur Konrad Zuse nimmt den weltweit ersten Computer, den Z3, in Betrieb
14.05.1973 Das erste Weltraumlabor „Skylab“ startet in den Orbit 14.05.1796 Edward Jenner führt die erste PockenImpfung durch
digkeit unterwegs ist. Die Forscher vergleichen den Effekt mit dem Verhalten eines Spiegelbilds in einem Zerrspiegel: An einem bestimmten Punkt der Bewegung springt die Reflektion und erreicht das Spiegelende noch vor dem gespiegelten Original. (Science)
16.05. Bildung „Mangelhaft“ für die schulische Integration von Migranten-Kindern Der Vergleich von Mathematikleistungen sowie Aussagen zum sozialen Status und zur Lernmotivation bringt Erschreckendes zutage: Deutschland gehört zu den Staaten, in denen die Leistungsunterschiede zwischen einheimischen Schülerinnen und Schülern und denjenigen mit Migrationshintergrund am stärksMigranten © IMSI MasterClips ten ausgeprägt sind. Zu diesem Schluss kommt die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die auf Grundlage der PISADaten aus dem Jahr 2003 in 17 Staaten eine Vergleichsstudie durchgeführt hatte. (OECD)
16.05. Geowissenschaften Rätsel um die Erdölentstehung gelüftet Bislang ging man davon aus, dass Erdöl vor allem durch Mikroorganismen entsteht, die die Kohlenstoff-Doppelbindungen des to-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 15.05.1859 Geburt des Chemikers und Mitentdeckers des Radiums, Pierre Curie 19.05.1910 Die Erde durchquert den Schweif des Halleyschen Kometen
21.05.1927 Charles Lindbergh gelingt der erste Nonstop-Flug über den Atlantik
23.05.1707 Der schwedische Arzt und Naturforscher Carl von Linné wird geboren
24.05.1844 Das erste Telegramm wird verschickt
ten organischen Materials relativ schnell in gesättigte Verbindungen ohne Doppelbindungen umwandeln. Jetzt hat ein französisch-schweizerisches Forscherteam einen wichtigen geochemischen Prozess entdeckt, der organisches Material nach dem Absterben in Sedimenten stabilisiert und so den ersten Schritt der Erdölbildung einleitet – und zwar unabhängig von Mikroorganismen. Dabei findet das Aufbrechen der Doppelbindungen an beliebigen Stellen entlang der Kohlenstoffketten statt. Voraussetzungen sind Temperaturen von 50 bis 90 Grad Celsius und die Anwesenheit von Schwefelwasserstoff. (Science Express)
18.05. Physik Zwei Qubits lösen Algorithmus Wenn eine Münze auf dem Tisch liegt, sehen wir nur eine ihrer zwei Seiten. Um die andere Seite zu sehen, müssen wir die Münze umdrehen oder von unten betrachten. Doch in der Welt der kleinsten Teilchen, der Quanten, reicht ein „Blick“, um beide Seiten der Münze zu erkennen. Berliner Forscher belegten dies jetzt in einem Experiment, in dem zwei Qubits, die Grundbausteine eines zukünftigen Quantencomputers, auf diese Weise eine unbekannte Funktion ermittelten – durch nur einen Funktionsaufruf. (Physical Review Letters)
30.05.1873 Der deutsche Archäologe Heinrich Schliemann entdeckt die Überreste von Troja 24.05.1543 Der Astronom Nikolaus Kopernikus stirbt
CHRONIK
31.05.1879 Die erste elektrische Lokomotive beginnt ihre Fahrt
31.05.1975 Die Europäische Raumfahrtagentur ESA wird gegründet
18.05. Mikrobiologie „Resozialisierung“ für betrügerische Bakterien Auch bei Bakterien gibt es Betrüger – Stämme, die die Ressourcen anderer ausnutzen, und diesen dabei schaden. Oft geht dies so weit, dass dann die gesamte Population, Kooperative wie Betrüger gleichermaßen, ausstirbt. Nicht so bei Myxococcus xanthus: Diese Mikroben vermehren sich zwar auf Kosten ihrer kooperativeren Verwandten, schalten aber auf eine sozialere Lebensform um, bevor sie ihre eigene Existenz gefährden. Wie Tübinger Entwicklungsbiologen herausfanden, reicht dabei eine einzige Genveränderung aus, um aus den Betrügern einen neuen, „resozialisierten“ Mikrobenstamm werden zu lassen. (Nature)
Fruchtkörper von Myxococcus xanthus © Max-Planck-Institut für Entwicklungsbiologie, Jürgen Berger, Supriya Kadam
19.05. Kognitionswissenschaften Mentale Karte steuert Sozialverhalten Mithilfe der funktionellen Magnetresonanztomografie haben amerikanische Forscher eine Region im Gehirn lokalisiert, in der sich die Bildung von Vertrauen sowie die Unterscheidung zwischen dem eigenen Ich und Anderen manifestieren. Die Untersuchungen enthüllten eine neue Art von mentaler Karte im Gehirn – einem Abbild der sozialen Beziehungen zur Umwelt, das festhält, wer während einer sozialen Interaktion zwischen zwei Partnern die Initiative übernimmt. Die For-
Auch diese Beziehung ist im Gehirn festgehalten. © SXC
33
05 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI scher lokalisierten diese Karte im mittleren Bereich der Hirnrinde, im so genannten cingulaten Kortex, der eine wichtige Rolle für Bindungen und soziale Interaktionen spielt. (Science)
19.05. Genetik
Fluoreszenzmarkierte Hefezellen © CDC
Die Aufnahme zeigt drei Hautzellen, in denen sich das CyldProtein (grün) um die Zellkerne (blau) lagert und verhindert, dass das Onkogen Bcl-3 in diese eindringen kann. Die rote Struktur ist das Zytoskelett der Zellen.© Max-PlanckInstitut für Biochemie
34
Inventur der Proteine Mit modernsten Methoden gelang es Forschern erstmals, den gesamten Bestand an aktiven Proteinen in den Zellorganellen zu einem bestimmten Moment zu erfassen. Sie erhalten damit wesentliche neue Erkenntnisse zum Einsatz von Proteinen in der Zelle. Von den 1.400 verschiedenen Proteinen, die sie den einzelnen Zellorganellen eindeutig zuordnen konnten, kommen rund 40 Prozent auch in anderen Zellorganellen vor. Vergleiche mit Studien an Hefezellen zeigten, dass die Proteine „ihrer“ Zellorganelle im Laufe der Evolution treu geblieben waren, und ihre Lokalisation über Millionen von Jahren der Entwicklung von einfachen Organismen bis hin zu Säugetieren offensichtlich stabil beibehalten haben. Für die Zellbiologie bedeuten diese neuen Forschungsresultate einen Meilenstein. (Cell)
20.05. Zellbiologie Eiweiß hält Krebsgene in Schach Gene können das Wachstum von Tumoren und damit Krebs auslösen. So auch das Onkogen Bcl-3, das beim Menschen unter anderem Leukämie verursacht. Im Tierversuch konnten Wissenschaftler vom Max-Planck-Institut für Biochemie den vermutlich wichtigsten körpereigenen Gegenspieler dieses Tumorgens identifizieren: das Protein Cyld. Zugleich entdeckten sie den zellulären Signalweg, der bei einem Defekt des Cyld-Gens das unkontrollierte Zellwachstum auslöst. Dies könnte neue Wege in der Entwicklung von
spezifischen Tumorsuppressoren eröffnen, in denen das Onkogen Bcl-3 eine wichtige Rolle spielt. (Cell)
24.05. Astronomie Neuer Doppelstern strahlt „anders“ Mithilfe des internationalen MAGIC-Projektes (Major Atmospheric Gamma-ray Imaging Cherenkov) wurde erstmals ein Mikroquasar entdeckt, der seine extrem energiereiche Gammastrahlung nicht gleichmäßig, sondern stark schwankend abgibt. In dem Doppelsternsystem LSI +61 303 umkreisen sich vermutlich ein gewöhnlicher masMikroquasar sereicher Stern sowie (Illustration) © Maxein Neutronenstern Planck-Institut für Physik oder ein Schwarzes Loch. Kommen sich beide ausreichend nahe, wird Materie übertragen und Gravitationsenergie entlang der Rotationsachse in so genannten „Jets“ abgestrahlt. Die nun entdeckten Schwankungen könnten helfen zu verstehen, auf welche Weise die hochenergetische Gammastrahlung in Mikroquasaren und in Jets erzeugt und absorbiert wird. (Science)
25.05. Genetik RNA stellt Vererbung auf den Kopf Die RNA ist weitaus mehr als nur eine kurzlebige Transportform der Erbinformation DNA. Stattdessen kann sie die Expression bestimmter Gene und damit auch die von ihnen kodierten Merkmale beeinflussen. Das zeigte sich in Versuchen an Mäusen, bei denen ein Gendefekt weiße Flecken in den Mäuseschwänzen hervorrief. Wurden diese Mäuse mit normalfarbigen Artgenossen gekreuzt, traten auch bei solchen Nachkommen gefleckte Schwänze auf, die von beiden Elternteilen eine intakte Genversion geerbt hatten.
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B Die Ursache: RNA-Kopien der fehlerhaften Gene wurden über die Spermien weitergegeben und blockierten nach der Befruchtung die Ablesung der intakten Gene des Zellkerns. (Nature)
26.05. Geowissenschaften Urzeitlicher Tsunami traf Schweden Vor 145 Millionen Jahren traf ein Tsunami Schwedens Küsten, der in seiner Heftigkeit die Flutwelle vom Dezember 2004 in Südostasien vermutlich noch übertraf. Spuren dieser urzeitlichen Katastrophe entdeckten schwedische Wissenschaftler in einer 30 Meter mächtigen Sedimentschicht in Schonen, Südschweden. In den gekippten Ablagerungen fanden sie eine Lage mit gehäuften Fossilien von Fischen, Muscheln und Schnecken gemischt mit den üblichen Landpflanzenresten. Als Auslöser des Tsunami gilt ein Meteoriteneinschlag, dessen gewaltiger Krater bereits 1996 am Grund der Barentssee gefunden worden war. (Natural Science)
26.05. Materialforschung Forscher entwickeln Tarnkappe Ein Umhang, der Personen oder sogar Gebäude unsichtbar werden lässt? Bisher gab es das nur im Reich der Märchen und Sagen. Doch nun haben amerikanische Forscher eine solche Tarnkappe entwickelt – zumindest theoretisch. Die Grundlage bilden so genannte Metamaterialien, exotische künstliche Komposite, die mit maßgeDavid R. Smith, einer schneiderten elektroder Entwickler der magnetischen Eigen„Tarnkappe“ schaften angefertigt © Duke University werden können. Der Clou: Licht wird vom Metamaterial so umgeleitet, dass es auf der anderen Seite ankommt, als habe es gerade ei-
CHRONIK
nen leeren Raum passiert. Wenn diese Technik auch in der Praxis funktioniert, könnte sie in der drahtlosen Kommunikation zur Überwindung von Hindernissen eingesetzt werden. (Science)
29.05. Medizin 3D-Blick auf Aidsvirus Hoch auflösende, dreidimensionale Bilder des Aids-Virus könnten die Impfstoffforschung einen großen Schritt voran bringen. Denn erstmals zeigen diese Aufnahmen deutlich die Art und Lage der HIV-1-Proteine an der Oberfläche des Erregers. Diese viralen „Spikes“ bilden das „Hauptwerkzeug“, mit dem das Aids-Virus an seine Wirtszellen bindet und in sie eindringt. Zwar ist die Bedeutung dieser Oberflächenproteine schon länger bekannt, doch erst mithilfe der Kryoelektronen-Mikroskopie-Tomografie konnte nun ihre komplexe Anordnung auf der Oberfläche durch ein Forscherteam der Florida State University aufgedeckt werden. (Nature)
3D Bild der Virenoberfläche mit Hüllproteinen © Kenneth Roux
31.05. Medizin Überlebensprotein für Tuberkulose-Erreger identifiziert Jedes Jahr fordert die Tuberkulose weltweit zwei Millionen Todesopfer, ein Drittel der Weltbevölkerung gilt als infiziert. Nun wurde ein weiterer Ansatzpunkt für die Entwicklung neuer Antibiotika gegen die zunehmend resistenten Stämme des Erregers Mycobacterium tuberculosis gefunden. Mithilfe hochenergetischer Synchrotronstrahlungsquellen erstellten Forscher eine atomare Karte der Struktur des LipB-Proteins. Dieses Protein brauchen die gefährlichen Bakterien, um in den menschlichen Zellen zu überleben. Die Strukturkarte könnte zur Entwicklung eines Wirkstoffes beitragen, der das Protein blockiert und somit das Bakterium abtötet. (PNAS)
Vereinfachte atomare Struktur des Proteins LipB © EMBL
35
06 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
06
01.06.1831 James Clark Ross entdeckt den magnetischen Nordpol 02.06.1992 Neutrinos erstmals experimentell nachgewiesen
05.06.1981 07.06.1982 AIDS wird als Weltweit erstes 03.06.1492 ImmunschwäAufwindkraftwerk Der Nürnberger che-Krankheit eingeweiht Kaufmann und erkannt Geograf Martin 06.06.1850 Behaim stellt den Der deutsche 10.06.1907 ersten realistischen Physiker Karl Die Gebrüder Lumière Weltglobus vor Ferdinand Braun stellen ein Verfahren für wird geboren Farbfotografien vor
01.06. Ökologie
Präriegras © Trulyfreestock
Artenreiche Ökosysteme sind stabiler Ökosysteme, die viele verschiedene Pflanzenarten enthalten, sind nicht nur produktiver als artenärmere Systeme, sie können auch besser widrigen Bedingungen wie Klimaextremen, Krankheiten und Schädlingen widerstehen. Das ist das Ergebnis einer amerikanischen Langzeitstudie an Präriepflanzen. Sie liefert erstmals genügend Daten, um die 50 Jahre dauernde Debatte, in wieweit Artenvielfalt Ökosysteme stabilisiert oder nicht, zu beenden. (Nature)
01.06. Chemie
Die Struktur der neuartigen Eisenverbindung © Max-Planck-Institut für bioanorganische Chemie, John F. Berry
36
Elektronenklau schafft „armes“ Eisen Wissenschaftler vom Max-Planck-Institut für bioanorganische Chemie haben jetzt eine Verbindung hergestellt, in deren Zentrum ein Eisenatom besonderer Art sitzt: Es hat sechs seiner acht äußeren Elektronen abgegeben – drei bis vier mehr als normalerweise bei diesem Element üblich. Seine Oxidationsstufe, die Zahl der Elektronen, die ein Atom in einer Verbindung an seine Partner abgibt, ist daher ungewöhnlich hoch. In der Leber baut ein Enzym mit einem Eisenkern organischen Müll ab, der sich im Körper gesammelt hat. Biochemiker vermuten, dass das Eisen in seinem Zentrum auch so ungewöhnlich hohe Oxidationsstufen annehmen kann. (Science)
06.06. Archäologie „Hobbit”-Mensch schlau genug für Werkzeuge? Die Entdeckung des Homo florensis, des „Hobbit“-Menschen auf der indonesischen Insel Flores im Jahr 2004, warf die Frage auf, ob es sich hierbei um eine eigenständige Menschenart handelt. Einige Wissenschaftler halten ihn aufgrund seiner geringen Gehirngröße nicht für intelligent genug, um die neben den fossilen Skeletten gefundenen Werkzeuge selber herzustellen. Die Entdeckung weiterer, mehr als 800.000 Jahre alter Werkzeuge auf Flores deuten jetzt aber darauf hin, dass der Homo florensis tatsächlich direkt aus der Frühmenschenart Homo erectus hervorgegangen sein könnte. Die Übereinstimmungen in der Art, wie die Klingen der Feuersteinwerkzeuge gefertigt sind, belegen nach Ansicht der Wissenschaftler, dass es auf der Insel eine eigenständige Tradition von Werkzeugherstellung gab – und das diese vermutlich direkt vom Homo erectus an den Homo florensis weitergegeben worden ist. (Nature)
07.06. Geowissenschaften Einzeller überlebten „Schneeball Erde“ Vor rund 2,3 Milliarden Jahren war die irdische Atmosphäre erstmals sauerstoffreich genug, um höheres Leben zu ermöglichen. Zur gleichen Zeit aber begann eine Eiszeit, die möglicherweise große Teile des Planeten
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 11.06.1910 Geburt des französischen Meeresforschers Jacques Cousteau
19.06.1922 Der spätere PhysikNobelpreisträger Niels Bohr wird geboren
16.06.1963 Die Kosmonautin Valentina Tereshkova ist die erste Frau im Weltall
mit einer bis zu 800 Meter dicken Eisschicht bedeckte. Eine Antwort auf die lange strittige Frage, ob sich Einzeller mit Zellkern vor oder nach dieser Vereisung entwickelten, hat ein australisch-amerikanisches Forscherteam jetzt gefunden. Sie analysierten im Gestein eingeschlossene fossile Öltröpfchen aus der Zeit 50 bis 100 Millionen Jahre vor der Vereisung und fanden tatsächlich Hinweise auf eukaryotische Einzeller. (Geology)
08.06. Paläontologie „Mini-Dinos“ im Harz entdeckt Einen rätselhaften Knochenfund in einem Steinbruch im Harz haben Paläontologen entschlüsselt: Entgegen bisherigen Vermutungen handelt es sich bei den ungewöhnlich kleinen Dinosaurierfossilien nicht um die Überreste von Jungtieren, sondern um ausgewachsene Exemplare – die kleinsten Riesendinosaurier, die je gefunden wurden. Mit einem geschätzten Maximalgewicht von einer Tonne waren sie vermutlich nur knapp ein Fünfzigstel so schwer wie ihre nächsten Verwandten, die Brachiosaurier. (Nature)
22.06.1633 Galileo Galilei widerruft sein heliozentrisches Weltbild vor dem Inquisitionsgericht
26.06.1824 Geburt des Physikers William Thomson, Lord Kelvin 28.06.1939 Start des ersten transatlantischen Linienflugs
dringen und wehrt sie ab. Dieser jetzt entdeckte Mechanismus liefert auch die Erklärung, warum gentechnisch veränderte Bakterien weniger Proteine produzieren als erwartet: Die künstlich eingepflanzten menschlichen Gene werden von den Mikroorganismen offenbar als fremd erkannt und teilweise blockiert. (Science)
29.06.1990 Internationales FCKW-Verbot ab dem Jahr 2000 beschlossen
Fluoreszenz-Aufnahme von Salmonellen © CDC
13.06. Astronomie Planeten im Gleichtakt Wenn zwei Planeten um einen sonnenähnlichen Stern kreisen, sind ihre Bahnen dann besonders stabil, wenn die Umlaufdauer beider im Verhältnis zweier ganzer Zahlen zueinander steht. In den bisher bekannten extrasolaren Planetensystemen treten jedoch Variationen dieser so genannten Resonanz auf, deren Ursachen Astronomen nur teilweise kennen. Ein Faktor dabei sind Wechselwirkungen zwischen den jungen Planeten und der protoplanetaren Staubscheibe, wie sich jetzt gezeigt hat. Dazu gehören beispielsweise Kollisionen mit anderen Objekten oder plötzliche Lücken in der Materiedichte der Scheibe. (Astronomy & Astrophysics)
08.06. Mikrobiologie 19.06. Medizin Bakterien besitzen Immunabwehr Auch Bakterien besitzen ein Immunsystem: Bei Salmonellen erkennt das spezielle Wächterprotein H-NS fremde DNA beim Versuch, die Zellwand der Bakterien zu durch-
CHRONIK
„Proteinklemme“ schützt Tollwutvirus Gegen die Tollwut gibt es bis heute kein Heilmittel. Auslöser der tödlichen Krankheit ist, wie bei Ebola und Masern auch, ein RNA-
Zwei Planeten bewegen sich in einer protoplanetaren Scheibe. © Institut für Astronomie und Astrophysik, Wilhelm Kley
37
06 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
Proteinschutzschild des Tollwutvirus © EMBL
Virus, dessen Erbinformation in einer aus nur einem Strang bestehenden RNA steckt. Französische Wissenschaftler haben jetzt ein detailliertes Strukturbild von einem Protein erstellt, dass es dem Virus ermöglicht, in den Zellen zu überleben und sich zu vermehren: Dieses Nucleoprotein umfasst den RNAStrang wie eine „Klemme” und macht ihn so unzugänglich für die angreifenden Enzyme des menschlichen Immunsystems. Um seine Vermehrung zu ermöglichen, muss jedoch die „Klemme“ geöffnet werden, damit das Replikationsenzym ansetzen kann. Gelänge es, dieses Öffnen zu blockieren und die „Proteinklemme“ in permanent geschlossenem Status zu halten, könnte die Replikation des Virus verhindert und so seine Ausbreitung gestoppt werden. (Science)
21.06. Neurobiologie
Elektronenmikroskopische Aufnahme eines photonischen Kristalls aus Polymerkugeln mit 260 Nanometer Durchmesser © TU Chemnitz
Töne als neuronales Mosaik Das Gehirn filtert, was wir hören. Dadurch können wir beispielsweise die Stimme eines Gesprächspartners trotz lauter Umgebung problemlos heraushören. Dem Gehirn gelingt dies, weil einzelne Gruppen seiner Neuronen nur auf bestimmte Frequenzen reagieren. Das zeigte sich, als Neurobiologen eine Frequenzkarte für Bereiche der Hörrinde mithilfe der funktionellen Kernspintomografie erstellten. Einige der neuronalen Felder „feuerten“ dabei nur bei Einzelfrequenzen, andere bei Frequenzgemischen. (PLoS Biology)
21.06. Physik Licht-Computer näher gerückt Das Innenleben von neuartigen Halbleitermaterialien, den so genannten photonischen Kristallen, haben Physiker jetzt erstmals direkt erkundet. Die komplexe dreidimensionale Struktur der lichtleitenden Kristalle verhinderte bisher einen genaueren Einblick.
38
Leuchtende Quantenpunkte dienten den Forschern als eine Art „Mini-Scheinwerfer“ und ermöglichten Aufnahmen der lokalen optischen Eigenschaften. Ihre Kenntnis ist die Voraussetzung für die Entwicklung von zukünftigen optischen Computern und Speichermodulen. (Physical Review Letters)
22.06. Physik Physik erklärt Artensterben Wenn Arten aussterben, geschieht dies oft gleichzeitig selbst in weit verstreuten Populationen. Indische Physiker haben dafür nun eine Erklärung gefunden: Mithilfe der nichtlinearen Dynamik konnten sie zeigen, dass ein externer Faktor – wie beispielsweise das Klima oder ein Räuber – dabei als Synchronisator wirkt. Vergleichbar ist dies mit zwei alten Standuhren mit Pendel, die in synchrone Schläge verfallen, weil winzige, über den Boden übertragene Vibrationen die Pendelschläge des einen zum anderen übertragen. Das erklärt, warum Arten in vorher gehenden Massenaussterben meist gleich global ausgerottet wurden und nährt nicht gerade die Hoffnung von Artenschützern, dass von bedrohten Arten vielleicht einige Gruppen überleben könnten. (Physical Review Letters)
23.06. Klima Südpolarmeer als Kohlenstoffpumpe Was verursachte die Schwankungen des atmosphärischen Kohlendioxids in der Erdgeschichte? Eine überraschende Antwort auf di l di k ti t F td kt Wi
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B einer der entscheidenden Regulatoren für den irdischen CO2-Haushalt zu sein. Dabei nimmt eine Richtung Süden fließende Meeresströmung das Treibhausgas aus der Luft auf und verfrachtet es für lange Zeit tief in die unteren Meeresschichten. (Nature)
26.06. Zellbiologie Zellkraftwerke ohne Kurzschlüsse Mitochondrien sind die Kraftwerke aller tierischen und menschlichen Zellen. Dafür müssen sie eine sehr große elektrische Spannung aufrechterhalten und Proteinmoleküle mit hohen Ladungsunterschieden transportieren. Deutsche Wissenschaftler fanden nun heraus, dass die innere Mitochondrienmembran Feldstärken von rund 1.000.000 Volt pro Zentimeter aufrechterhalten kann und dadurch elektrische Kurzschlüsse und Lecks verhindert. Diese Ergebnisse erlauben, ein sehr detailliertes Bild über den lebensnotwendigen Import von Proteinen in die Mitochondrien zu gewinnen und beispielsweise zu erklären, unter welchen Bedingungen der programmierte Zelltod eingeleitet wird. (Science)
27.06. Zellbiologie „Kinderstube“ der T-Zellen erneuerbar Der Thymus ist ein kleines, aber sehr wichtiges Organ unseres Immunsystems, denn er reguliert die Ausbildung der T-Zellen. In der Thymusumgebung „lernen“ diese Abwehrzellen unter anderem, zwischen fremden und körpereigenen Eiweißen zu unterscheiden. Ist diese Lernumgebung, das so gee Stroma, defekt oder fehlt sie, können mmunerkrankungen die Folge sein. Form Max-Planck-Institut für Immunbion Freiburg haben herausgefunden, dass ferzellen für das Stroma auch noch im s von Erwachsenen existieren. Mit eipeziellen genetischen Modell konnten
CHRONIK
sie zeigen, dass einzelne Vorläuferzellen auch nach der Geburt die Bildung eines vollständigen Thymus initiieren können. (Nature)
30.06. Astronomie Sternen-Kreißsaal kartiert Eine neue Radiokarte der Andromedagalaxie könnte neue Antworten auf die zentrale Frage der Astronomie liefern: Wie entstehen Sterne? Mehr als 800 Stunden lang beobachtete ein internationales Wissenschaftlerteam mithilfe der Millimeter-Radioastronomie die rund 2,5 Millionen Lichtjahre entfernte Nachbargalaxie. Die Karte zeigt unter anderem die Bewegung von kalten Gaswolken mit Temperaturen von unter minus 220 Grad Celsius, die als Baumaterial für die Entstehung neuer Sterne gelten. (Astronomy & Astrophysics)
Links: Verteilung des kalten Gases in der Andromedagalaxie M 31 als Radiobild, rechts: die Galaxie im sichtbaren Licht. © Nieten et al. (links), Tautenburg Observatorium (rechts)
30.06. Zoologie Wüstenameisen zählen Schritte Die Wüstenameisen der Art Cataglyphis fortis sind nicht nur schnell, sie haben auch ein extrem effektives Navigationssystem. Zur Orientierung im Gelände benutzen sie einerseits einen inneren Kompass, der anhand der für uns unsichtbaren Polarisationsmuster am Himmel die Richtung bestimmt. Zusätzlich aber misst Cataglyphis die Länge der zurückgelegten Strecke, indem sie die durchgeführten Schritte zählt. Die Wissenschaftler veränderten operativ die Beinlänge der Ameisen vor dem Zurücklaufen von einer Futterstelle zum Nest. Die Folge war, dass die derart manipulierten Tiere die Distanz über- beziehungsweise unterschätzten – und zwar genau um den Betrag, um den sich ihre Schrittlänge durch die Beinverkürzung verändert hatte. Als nächstes wollen die Autoren untersuchen, wie die Schrittzahl sinnesphysiologisch gemessen und neurophysiologisch verrechnet wird. (Science)
Navigationskünstler Wüstenameise © Universität Zürich
39
07 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
07
04.07.2005 06.07.1988 NASA-Sonde Deep 14.07.1965 01.07.1646 Explosion und Brand „Mariner 4“ Geburt des Philo- Impact beobachtet 11.07.1979 zerstören Ölbohrinsendet erste sophen und Uni- Aufschlag eines Absturz der ersten sel Piper Alpha in der Projektils auf dem genaue Bilder versalgelehrten amerikanischen Nordsee vom Mars Gottfried Wilhelm Kometen Tempel 1 Raumstation „Skylab“ Leibniz 10.07.1976 05.07.1996 02.07.1906 Größter Chemieunfall Klonschaf „Dolly“ Der Atomphysi12.07.1776 Europas in Seveso wird in Schottland ker und NobelpreisJames Cook auf letzter geboren träger Hans Bethe Entdeckungsfahrt wird geboren
04.07. Pflanzenforschung
Der grüne Blattfarbstoff Chlorophyll ist der Hauptakteur der Photosynthese.© IMSI MasterClips
Überraschung für Photosynthese-Forscher Die ersten Schritte der pflanzlichen Photosynthese – jener elementaren Reaktion, bei der mithilfe des Blattgrüns Chlorophyll aus Kohlendioxid, Sonnenlicht und Wasser Sauerstoff und der Glucose entstehen – laufen anders ab als bisher angenommen. Wie Bochumer Wissenschaftler zusammen mit ihren Kollegen vom Max-Planck-Institut für bioanorganische Chemie herausgefunden haben, wird der erste Reaktionsschritt im Zentrum des Photosystems II, die Wasserspaltung, nicht von einem Molekülpaar eingeleitet, sondern von einem einzelnen Chlorophyll, welches nach bisheriger Überzeugung gar nicht dafür eingeplant war. Damit haben die Wissenschaftler endlich auch eine Erklärung für die Fähigkeit des Photosystems II, sehr energieaufwändige chemische Oxidationen durchführen zu können, da die Oxidationskraft eines einzelnen Chlorophyllmoleküls größer ist als die eines Paares. (PNAS)
05.07. Chemie
Getreide als Rohstoff für Kunststoff? © USDA
40
Kunststoff aus Getreide? Aus dem Zucker von Apfelsaft oder Getreide Kunststoffe herzustellen, das haben jetzt Wissenschaftler der Universität von Wisconsin erfolgreich versucht. Sie entwickelten eine neue chemische Methode, mit der sie Fruktose in 5-Hydroxymethylfurfural (HMF)
umwandeln können. Dieses lässt sich für die Kunststoffproduktion nutzen und könnte beispielsweise Polyethylenterephthalat (PET) ersetzen. In einem nächsten Schritt soll eine erste Pilotanlage zur preiswerten industriellen HMF-Herstellung entstehen. Die Chemiker wollen aber auch Verfahren entwickeln, um andere Zucker in HMF umzusetzen. (Science)
05.07. Neurobiologie Neue Drähte im Gehirn Das Gehirn eines Erwachsenen ist vermutlich viel regenerationsfähiger als bisher angenommen. Wie Wissenschaftler im Tierversuch zeigen konnten, kommt es nach Schädigungen der Netzhaut innerhalb von einem Jahr zu einer weit reichenden Umorganisation der Sehrinde. Dabei werden nach und nach die „erblindeten“ Gehirnzellen mit anderen, gesunden Bereichen der Netzhaut „verdrahtet“ und so wieder aktiviert. Diese „Neuverdrahtung“ belegt eine erstaunliche Plastizität des erwachsenen Gehirns gegenüber bestimmten Ausfällen. (PNAS)
05.07. Medizin Minikapseln mit „Sesam-Öffne-Dich“Funktion Wie „schmuggelt“ man Wirkstoffe in Krebszellen hinein und setzt sie dann gezielt frei? Der Lösung dieses Problems sind deut-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 16.07.1945 Weltweit erste Atombombe gezündet
20.07.1976 Raumsonde Viking I landet auf dem Mars und sendet erste Farbbilder
18.07.1966 Start der amerikanischen Weltraummission Gemini 10
21.07.1970 Vollendung des Assuan-Staudamms in Ägypten
sche Wissenschaftler jetzt einen Schritt näher gekommen: Sie verpackten eine Substanz in winzige Kapseln, deren Wände aus mehreren Schichten geladener Polymere bestanden und die so die Zellwand der Tumorzellen ungehindert passieren konnten. Zusätzlich rüsteten die Forscher die Kapseln mit einer Art „Sesam-Öffne-Dich“ aus, indem sie geladene Metallteilchen unter die Wandmoleküle mischten. SoMikrokapseln in einer Zelle vor (a) und nach bald die Tumorzel(b) Laserbelichtung. len die Mikrokapseln Pfeil: Fokus des Lasers. © MPI für Kolloid- und aufgenommen hatGrenzflächenforschung ten, wurden sie mit einem Infrarotlaser bestrahlt. Die Metallionen gaben dabei die Wärme des Lichts an ihre Umgebung weiter und heizten so die Kapselwände auf. Dadurch brachen die Bindungen zwischen den Polymeren der Hülle und die Kapseln rissen auf – quasi wie auf Kommando. Eine Steuerung, die die Minikapseln gezielt zu den kranken Organen bringt, fehlt bisher noch. (Angewandte Chemie)
10.07. Paläontologie Genvariante machte Mammuts blond Mithilfe einer neuen Technik ist es Wissenschaftlern vom Max-Planck-Institut für evolutionäre Anthropologie erstmals gelungen, ein komplettes Mammut-Gen aus einer Vielzahl kleiner DNA-Bruchstücke zu re-
28.07.1976 Das folgenschwerste Erdbeben des 20. Jahrhunderts fordert in China 242.000 24.07.1911 Todesopfer Hiram Bingham 29.7.1958 entdeckt in Peru die Gründung der USInkastadt Machu Weltraumbehörde Picchu NASA
22.07.1925 Patentanmeldung zur Gewinnung von Benzin aus Kohle
konstruieren. Die Bruchstücke hatten die Paläogenetiker aus den Knochen eines vor ungefähr 43.000 Jahren gestorbenen Tieres isoliert. Bei der anschließenden Sequenzierung und Analyse des Erbguts fanden sie heraus, dass Mammuts, in denen dieses Gen verändert war, sehr wahrscheinlich ein blondes Fell hatten. Funde blonder Mammuthaare im sibirischen Permafrostgebiet unterstützen diese Vermutung. Möglicherweise haben sich die Mammuts mit ihrer hellen Fellfarbe an die Bedingungen der Eiszeit angepasst. (Science)
CHRONIK
30.07.1971 Apollo-15 landet auf dem Mond
Links: blonde Mammuthaare, rechts: normal gefärbte Haare © Staatliches Naturhistorisches Museum Braunschweig, Ulrich Joger
12.07. Palöontologie Dinos waren „heißblütig“ Forscher haben wichtige offene Fragen über den Stoffwechsel der Dinosaurier geklärt. Danach waren die Riesenechsen zwar wie die heutigen Reptilien wechselwarm, aber ihre Körpertemperatur lag trotzdem nahe an oder sogar über den Werten der heutigen Säugetiere. Wahrscheinlich sorgte die gewaltige Körpermasse dafür, dass Wärme nur langsam nach außen abgegeben wurde und sich der Körperkern stark aufheizte. Besonders „heißblütig“ war offenbar der rund 5,4 Tonnen schwere Sauroposeidon proteles mit rund 48°C. Für den Tyrannosaurus rex errechneten die Wissenschaftler immerhin Werte von circa 33°C. Die Ergebnisse deuten darauf hin, dass die Dinosaurier im Verhältnis zu ihrer extremen Größe doch sehr aktiv gewesen sein müssen. (PLoS Biology)
Triceratops: Eine höhere Körpertemperatur verhalf ihm zu einem aktiven Leben. © MMCD
41
07 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 13.07. Klima
Bis zu einem gewissen Grad kann sich die Atmosphäre selbst von Luftverschmutzung reinigen. © IMSI MasterClips
Sonne steuert Waschkraft der Atmosphäre Die Atmosphäre steuert ihre Selbstreinigung erheblich effizienter als bisher angenommen. Dabei bestimmt überraschenderweise die Intensität der Sonneneinstrahlung und nicht die Schadstoffmenge, wie viel „Waschmittel“ in Form des Hydroxyl-Radikals (OH-Radikal) in der Schutzhülle der Erde vorhanden ist. Das hochreaktive Molekül startet den Abbau der meisten gefährlichen Substanzen und wird dabei auch selbst verbraucht. Deutsche Wissenschaftler fanden in einer Langzeitstudie keinen Hinweis darauf, dass die Menge des OH-Radikals insgesamt abnimmt und die Atmosphäre die global steigende Luftverschmutzung daher nicht mehr verkraftet. (Nature)
14.07. Neurobiologie
Sandlawinen sind die Ursache für das „Singen“ mancher Dünen. © IMSI MasterClips
Gedankenkraft steuert Bewegungen Durch die Implantation eines winzigen Sensors direkt in das Gehirn haben Wissenschaftler einem Gelähmten zu völlig neuer Autonomie verholfen: Der Patient kann jetzt nur durch seine Gedanken einen Cursor auf dem Bildschirm steuern oder mit einem Roboterarm Gegenstände erreichen. Wie die Studie zeigte, ist das Abgreifen von neuronalen Signalen direkt im Gehirn mithilfe der in diesem Fall verwendeten neuromotorischen Prothese (NMP) deutlich effektiver als bisher eingesetzte, nicht-invasive Verfahren, bei denen Nervenreize nur von außen über die Kopfhaut registriert werden. (Nature)
18.07. Geowissenschaften Geheimnis der singenden Dünen gelüftet Schon vor vielen Jahrhunderten berichteten Weltreisende wie Marco Polo von Sandbergen, denen der Wind laute Geräusche ent-
42
lockte. Jetzt ist ein internationales Wissenschaftlerteam den Ursachen für die rätselhaften singenden Dünen auf den Grund gegangen: Danach bringen synchronisierte Bewegungen von Sandlawinen einer bestimmten Größe und Geschwindigkeit die Töne hervor und nicht – wie eine bisher lang gehegte Theorie behauptete – Vibrationen der gesamten Dünen. (Physical Review Letters)
20.07. Ökologie Biodiversitäts-Forscher warnen vor globaler Krise Mit der Warnung, dass sich die Erde am „Rande einer großen Biodiversitäts-Krise“ befindet, haben 19 der renommiertesten Forscher dieses Fachgebiets zu einer global koordinierten Aktion gegen das Artensterben aufgerufen. In ihrer Deklaration fordern sie, die Kluft zwischen der biologischen Forschung und dem politischen Handeln so schnell wie möglich zu schließen und schlagen deshalb die Einrichtung eines internationalen Gremiums vor. In den kommenden 18 Monaten wollen die Wissenschaftler gemeinsam Vorschläge ausarbeiten, wie ein solches „Kontrollorgan“ aussehen könnte. (Nature)
20.07. Materialforschung Graphit jetzt „scheibchenweise“ Graphit besteht aus einzelnen Kohlenstoffschichten mit starken chemischen Bindungen innerhalb der einzelnen Schichten, aber nur schwachen Bindungen zwischen ihnen. Die Einzelschicht – das Graphen – gilt als viel versprechendes Material für die Zukunft. Doch bisher war die Herstellung der hauchdünnen, nur ein Atom dicken Schichten aus Graphit extrem schwierig. Ein amerikanisches Wissenschaftler-Team hat nun eine Methode entwickelt, um das Ausgangsmaterial Graphit auf chemischem Wege in einzelne
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER Kohlenstoffschichten aufzuspalten. In ein Trägermaterial, wie beispielsweise ein Polymer, eingebettet, könnte aus ihnen so eine neue Klasse von Kompositmaterialien entstehen, die „graphenbasierten Materialien“. (Nature)
24.07. Physik Spin-Signale von Elektronen erstmals nutzbar In Halbleitern, wie sie heute in Computern eingesetzt werden, bildet der Fluss von Elektronen die Basis aller Funktionen. Doch auch bloße Eigenschaften von Elektronen, wie die als „Spin“ bezeichnete Eigendrehung, können im Halbleiter weitergegeben werden, ohne dass das Elektron selbst seine Position verändert. Physiker der Universität Elektronenspin Bochum haben erst© MMCD mals die Voraussetzungen dafür geschaffen, dass die Spinausrichtung der Elektronen gezielt manipulierbar wird und lange genug anhält, damit sie künftig in Bauelementen wie Transistoren zusätzlich zur Ladungseigenschaft technisch verwertet werden können. (Science)
25.07. Zellbiologie Wie Moleküle „auf Reisen“ gehen Moleküle werden meist über spezielle Kanäle oder Poren durch die Zellmembranen geschleust. Unklar war bislang, ob die Molekülbindungsstellen im Kanal den Transport unterstützen oder behindern. In einem einfachen theoretischen Modell konnte nun gezeigt werden, dass die anziehenden Kräfte einer „Andockstelle“ die Wanderung der Moleküle verstärken – aber nur bis zu einer gewissen Schwelle. Werden die Kräfte größer, wirken sie als Hindernis. Auf diese Weise wird der Stofftransport durch die Membranen steuer-
CHRONIK
bar. Das Modell verbessert nicht nur das Verständnis von Vorgängen in der Zelle, sondern könnte auch für die Nanotechnologie eine Rolle spielen. So ist vorstellbar, dass sich die „Drehzahl“ molekularer Motoren über die Stärke von Bindungsstellen steuern lässt. (PNAS)
27.07. Astronomie Regen auf Titan entdeckt Der Saturnmond Titan besitzt nicht nur eine der Urerde ähnliche Stickstoffatmosphäre, sondern es fällt sogar Regen aus seinen Wolken. Im Gegensatz zur Erde besteht dieser Niederschlag allerdings aus Methan und nicht aus Wasser. Dies hat ein internationales Forscherteam bei der Auswertung von Messdaten der europäischen Sonde Huygens entdeckt. Der Nieselregen erreicht sogar die Oberfläche des Saturntrabanten und speist dort vermutlich Flüsse und Seen. Damit konnte erstmals ein geschlossener „hydrologischer“ Kreislauf auf dem Titan nachgewiesen werden. (Nature)
Landung der Sonde Huygens auf dem Titan (Künstlerische Darstellung) © ESA, D. Ducros
27.07. Astronomie Heiße Pulsar-Pole enträtselt Pulsare gleichen Leuchttürmen, die mithilfe von komplexen Prozessen elektromagnetische Strahlung erzeugen. Wie diese kosmischen Kraftwerke aber funktionieren, war lange Zeit ein Rätsel. Zumindest eine Teilantwort haben nun deutsche Forscher mithilfe des Röntgenobservatoriums XMM-Newton entdeckt. Demnach stammt die Energie für die Entstehung der Millionen Grad heißen Polkappen jüngerer Pulsare überwiegend aus dem Innern der Sterne. Bisher hatte man angenommen, dass die Pulsar-Pole ausschließlich durch ein Bombardement hochenergetischer, geladener Teilchen aus der Magnetosphäre aufgeheizt werden. (Astrophysical Journal)
Leuchtende Magnetosphäre eines Pulsars © MPI für extraterrestrische Physik
43
08 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
08
03.08.1787 Eine Vermessung etabliert den Mont Blanc als höchsten Berg Europas 01.08.1744 Naturforscher Jean Baptiste de Monet Lamarck wird geboren
05.08.1963 Abkommen über den Stopp oberirdischer Atomwaffenversuche
01.08. Evolution
Embryo eines Katzenhais © University of Florida
Was haben Haiflossen und Beine gemeinsam? Ein wichtiger Schritt in der Evolution der Tiere war vor Jahrmillionen die Entstehung der paarigen Flossen und später der Beine. Denn sie ermöglichten ganz neue Arten der Bewegung. Jetzt haben Wissenschaftler nachgewiesen, dass die paarigen Extremitäten und die bei primitiven Wirbeltieren vorkommenden Mittelflossen mithilfe des gleichen entwicklungsphysiologischen Programms entstehen. Erstmals wird damit die seit dem 19. Jahrhundert postulierte, aber bisher nie belegte Hypothese unterstützt, dass alle Flossen und Beine aus diesen Mittelflossen hervorgegangen sind. (Nature)
02.08. Geowissenschaften
Untersuchung einer Sedimentprobe von einem hydrothermalen Schlot © University of Florida, Kristen Bartlett
08.08.2001 Das cholesterinsenkende Mittel Lipobay wird nach Todesfällen vom Markt genommen 09.08.1945 USA wirft 08.08.1709 Atombombe Erster flugfähiger über Nagasaki Heißluftballon startet ab
07.08.1912 Der Physiker Victor Franz Hess entdeckt die kosmische Strahlung
Mittelmeer-„Geysir“ spuckt australisches Blei Am unterseeischen Marsili-Vulkan im Mittelmeer haben amerikanische Forscher deutliche Belege für von Menschen gemachte Umweltveränderungen gefunden. In Sedimentproben entdeckten sie ungewöhnlich hohe Bleigehalte, die nach massenspektrometrischen Untersuchungen nicht aus europäischen Quellen stammen konnten. Stattdessen wies das Blei ähnliche Isotopen-Signaturen auf, wie das einer australischen Mine. Vermutlich wurde das Metall in Australien ab-
gebaut, mit dem Schiff nach Europa gebracht und dort als Benzin-Beimischung eingesetzt. Nach der Verbrennung im Automotor gelangte es über die Luft ins Meerwasser und von dort schließlich zum hydrothermalen Schlot. (Marine Geology)
03.08. Nanotechnologie Ein Schalter für Nanoröhrchen Die elektrische Leitfähigkeit von Kohlenstoff-Nanoröhrchen lässt sich offenbar über einen großen Bereich chemisch manipulieren. Amerikanische Forscher legten in einem Experiment eine elektrische Spannung an die ein solches Röhrchen umgebende Flüssigkeit an und lösten dadurch gezielt Redoxreaktionen aus. Diese Reaktionen veränderten den Elektronengehalt des Röhrchens und damit auch seine Leitfähigkeit. Da nach Ansicht der Forscher auch Biomoleküle solche Reaktionen auslösen könnten, sind biomedizinische Anwendungen, beispielsweise in Form von winzigen Sensoren, denkbar. (Physical Review Letters)
04.08. Zellbiologie Reißverschluss für Zellmembranen Um Informationen von einer Nervenzelle zur anderen weiterzugeben, werden an den Kontaktstellen zwischen den Zellen, den Synapsen, nach
Ein Vesikel dockt an der Membran der Nervenzelle an. © Max-Planck-Institut für biophysikalische Chemie
44
AUGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 16.08.1809 Gründung der HumboldtUniversität in Berlin 12.08.1887 Der Physiker Erwin Schrödinger wird geboren 15.08.1914 Panamakanal eröffnet
17.08.1978 Erste Atlantiküberquerung im Heißluftballon
Einlaufen eines Signals innerhalb von Millisekunden Botenstoffe aus winzigen membranumhüllten Vesikeln ausgeschüttet. Dabei verschmelzen diese Bläschen mit der synaptischen Membran. Noch nicht endgültig geklärt war, warum dieser Prozess so schnell ablaufen kann. Wissenschaftler haben jetzt Belege dafür gefunden, dass sich Proteine auf der Vesikelhülle und auf der Nervenzellmembran wie eine Art biochemischer Reißverschluss miteinander verzahnen. Dasselbe Prinzip könnte auch bei anderen Membranfusionen wirksam sein. (Science)
15.08. Physik Silberatom „mutiert“ zum Transistor Elektronische Bauteile werden immer kleiner. Einen Meilenstein in dieser Entwicklung setzten nun deutsche Forscher, denn sie entwickelten den weltweit ersten atomaren Transistor. Ein Silberatom übernimmt dabei die Funktion des Schalters: Auf zwei Metallelektroden, zwischen denen eine winzige Lücke existiert, wird so lange Silber abgeschieden, bis ein einzelnes Silberatom die beiden Pole verbindet. Dadurch wird der Stromkreis geschlossen und Strom fließt. Wird dieses Atom hin- und her geklappt, ist der Stromkreis entweder geöffnet oder geschlossen. Dieser neue Ansatz in der Transistorentwicklung bietet neue Perspektiven für die atomare Elektronik und maßgeschneiderte quantenelektronische Systeme. (Universität Karlsruhe)
18.08.1932 Der Physiker Auguste Piccard unternimmt den ersten Messflug in die Stratosphäre
24.08.79 Ein Ausbruch des Vesuv begräbt die Stadt Pompeji 25.08.1768 James Cook geht auf seine erste Weltreise
CHRONIK
27.08.1976 Herstellung des ersten künstlichen Gens als Kopie einer natürlichen Vorlage
17.08. Astronomie Blick in die Kinderstube des Universums gelungen Große Scheibengalaxien, die unserer Milchstraße ähneln und sich in vergleichsweise kurzer Zeit nach dem Urknall bildeten, hat ein internationales Astronomenteam entdeckt. Mithilfe des neuartigen Infrarot-Spektrometers SINFONI studierten sie am Very Large Telescope der Europäischen Südsternwarte die Anatomie einer dieser Galaxien mit einer Rekordauflösung. Dabei entstanden zum ersten Mal detailreiche Bilder der Gasbewegungen in einem elf Milliarden Lichtjahre entfernten Sternsystem. Die neuen Erkenntnisse könnten die Theorie der Galaxienbildung und -entwicklung weiter verbessern. (Nature)
Wasserstoff-Emission der rund elf Milliarden Lichtjahre entfernten Galaxie BzK-15504 © ESO, Genzel et. al.
18.08. Sozialwissenschaften USA bald „Darwin–freie Zone”? Ein Drittel aller Amerikaner glaubt nicht an die Evolution. Dies haben repräsentative Umfragen eines internationalen Forscherteams ergeben. In europäischen Ländern und Japan akzeptieren dagegen rund 80 Prozent die wissenschaftlich etablierte Evolutionstheorie als Erklärung für die Entstehung und Entwicklung des Lebens. Grund für die DarwinSkepsis der Amerikaner sind unter anderem der große Einfluss fundamentalistisch-christlicher Strömungen und mangelndes Wissen über genetische Grundlagen. (Science)
45
08 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI 21.08. Ökologie
Süßwasserfisch Prochilodus mariae © Brad Taylor
Schon eine Art macht den Unterschied Schon das Verschwinden einer einzigen Art kann empfindliche Störungen in einem Süßwasser-Ökosystem verursachen. Ökologen entfernten eine Fischart aus einem Flussabschnitt, die sich von organischen Abfällen ernährt und daher eine wichtige Rolle beim Abbau und Transport von Kohlenstoffverbindungen spielt. Dieser Eingriff veränderte den Kohlenstofffluss, ein wichtiges Maß für die Funktionsfähigkeit eines Ökosystems, erheblich. Ohne den Fisch sammelte sich der organische Kohlenstoff flussaufwärts und wurde dort von Bakterien abgebaut. Flussabwärts stand damit den Lebewesen kaum noch etwas davon zur Verfügung. Die neuen Ergebnisse widersprechen bisherigen Annahmen, nach denen andere Arten die Nische einer fehlenden Spezies schnell besetzen und diese somit ersetzen können. (Science)
23.08. Medizin
HI-Viren verlassen eine infizierte Körperzelle © CDC
46
HIV legt Schalter in T-Killerzellen um Einem grundlegenden Rätsel der AidsEpidemie könnte ein internationales Forscherteam auf die Spur gekommen sein. Danach ist ein molekularer Schalter in den T-Zellen dafür verantwortlich, dass das Immunsystem es nicht schafft, die HIV-Infektion zu kontrollieren. Das HI-Virus stellt diesen Schalter einfach auf „Aus“ und legt so die Abwehrzellen lahm. Bei Versuchen an Mäusen zeigte sich, dass die chronische Infektion die T-Zellen aktiv hemmt, indem sie das Zelltodprogramm PD-1 („Programmed Death-1“) aktiviert. In Laborversuchen konnten die Wissenschaftler den PD-1 Stoffwechselweg blockieren und so die deaktivierten T-Zellen wieder funktionstüchtig machen. Die Frage ist nun, ob man diesen Stoffwechselweg bei HIV-Infizierten gezielt manipulieren kann, um die
T-Zellen wieder anzuschalten, die für die Bekämpfung der HIV-Infektion entscheidend sind. Wirkstoffe um PD-1 zu blockieren sind bereits für die Krebstherapie entwickelt worden. (Nature)
23.08. Astronomie Abschied von Planet Pluto Unser Sonnensystem besteht ab jetzt nur noch aus acht Planeten: Denn Pluto wurde dieser Status auf der Vollversammlung der Internationalen Astronomischen Union aberkannt. Nach der dort erstmals festgelegten wissenschaftlichen Definition des Begriffs Planet zählt er nun, wie der Asteroid Ceres, zu den so genannten Zwergplaneten. „Echte“ Planeten dagegen sind nur die Himmelskörper, die in einer kreisnahen Bahn ein Zentralgestirn umrunden und ausreichend Masse haben, um durch ihre eigene Schwerkraft eine annähernd kugelförmige Gestalt anzunehmen. Darüber hinaus müssen sie während der Entwicklung unseres Sonnensystems ihre Umgebung von anderem kosmischen Material frei geräumt haben. Letzteres trifft auf Pluto, der jetzt „134340 Pluto“ heißt, nicht zu. (DLR)
29.08. Sozialwissenschaften Zu viele Männer sind nicht gut für die Gesellschaft Haben Gesellschaften einen deutlichen Männerüberschuss, kann dies nach neuen Erkenntnissen von Sozialwissenschaftlern zu schwerwiegenden Problemen führen. So werden unverheiratete Männer in Ländern wie Indien oder China, wo der Status stark von Ehe und Familie abhängt, schnell zu Außenseitern. Sie reagieren dann häufig mit Gewalt und erleben einen sozialen Abstieg. Nehmen unsoziale Verhaltensweisen überhand, können dadurch sogar Sicherheit und Stabilität
AUGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B der gesamten Gesellschaft ins Wanken geraten. (PNAS)
30.08. Paläontologie Vogel fraß Frühmensch Große Greifvögel könnten vor einigen Millionen Jahren Jagd auf die ersten Frühmenschen gemacht haben. Darauf deutet ein Vergleich von Affenschädeln aus den Nestern heutiger afrikanischer Kronenadler mit den fossilen Knochen des „Kinds von Taung“ hin. Diese sterblichen Überreste eines Australopithecus africanus wurden 1924 in einer südafrikanischen Höhle gefunden. Beide Funde zeigen dieselben eindeutigen Schnabel- und Krallenspuren. Anthropologen hatten für die Löcher und Kratzer im Schädel des Urmenschen bisher Raubtierattacken verantwortlich gemacht. Die Ergebnisse legen nahe, dass Greifvögel somit ein Selektionsfaktor in der Primatenevolution gewesen sind. (American Journal of Physical Anthropology)
31.08. Neurobiologie Forscher löschen Erinnerungen Das Molekül Proteinkinase M zeta ist der entscheidende Akteur bei der Speicherung von Langzeiterinnerungen. Dies haben amerikanische Forscher im Tierversuch entdeckt. Das Enzym verstärkt die synaptischen Verbindungen zwischen Nervenzellen im Hippocampus, einer der Hauptschaltstellen des Gehirns. Eine Blockade von Proteinkinase M zeta führte bei Ratten zum Verlust von Erinnerungen, die für einen Tag oder sogar einen Monat gespeichert worden waren. Die neuen Erkenntnisse könnten bei der Behandlung von Phantom- und anderen Nervenschmerzen helfen, die auf überstark ausgeprägte synaptische Verbindungen zurückzuführen sind. (Science)
CHRONIK
31.08. Ökologie „Stress and the City“ – Stadtvögel bleiben cool Wirbeltiere reagieren auf ungünstige Umweltbedingungen mit einer akuten, durch schnelle Hormonausschüttung gekennzeichneten Stress-Antwort. Unter anhaltendem Stress können chronisch erhöhte Stresshormone jedoch erhebliche gesundheitliche Folgen haben. Ökologen sind daher der Frage nachgegangen, ob Stadtamseln unter den negativen Folgen des sehr stressreichen Stadtlebens leiden oder ihre Reaktion angepasst haben. Tatsächlich zeigen Stadtamseln eine geringere hormonelle Antwort auf akuten Stress als waldlebende Amseln. Diese Ergebnisse belegen erstmals, dass das Stadtleben verhaltensphysiologische Mechanismen in Wildtieren deutlich verändert. Die Anpassung ist vermutlich genetisch bedingt und das Ergebnis der extremen Selektionsfaktoren in der Stadt. Einen Vorteil haben dabei die Individuen, die besser mit den „urbanen Stressfaktoren“ zurechtkommen. (Ecology)
Flügges Amsel-Junge © MPI für Ornithologie, Ingo Teich
31.08. Astronomie Todeskampf im Weltall Zum ersten Mal haben Astronomen in Echtzeit beobachtet, wie ein Stern in rund 440 Millionen Lichtjahren Entfernung zu einer Supernova wurde. Die gewaltige Explosion, die das Ende seines Lebenszyklus markiert, überstrahlte kurzzeitig sogar eine ganze Galaxie und löste einen Gammastrahlenausbruch aus. Das NASA Weltraumobservatorium Swift fing mit seinen Teleskopen die verschiedenen Stadien des stellaren Todeskampfes ein. Die Beobachtungen geben nicht nur Aufschluss über die frühe Entwicklung einer Supernova, sie zeigen auch, wie sich das bei der Explosion ausgeschleuderte Material über die nächsten Tage und Wochen entwickelt. (Nature)
Modell einer Supernova © NASA, Dana Berry
47
09 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
09
01.09.1985 Entdeckung des Titanic-Wracks vor Neufundland
04.09.1837 Samuel Morse stellt seinen elektromagnetischen Schreibtelegrafen vor
04.09.1802 Georg Friedrich Grotefend entschlüsselt die altpersische Keilschrift
08.09.1907 Papst Pius X. erlässt eine Enzyklika, in der er die moderne Wissenschaft verurteilt
01.09. Zellbiologie
Escherichia coli -1 Darmbakterien © CDC, Janice Carr
Helicobacter pylori (rötlich) infiziert Magenschleinhautzellen. © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
48
08.09.1522 Ende der ersten Weltumsegelung und damit Beweis für die Kugelform der Erde
Bakterien mit „Quetschpumpe“ gegen Antibiotika Viele Bakterien „wehren“ sich gegen Antibiotika, indem sie sie einfach aus ihren Zellen pumpen. Bisher war die Medizin dagegen machtlos. Jetzt haben Wissenschaftler den Bauplan einer solchen Pumpe aufgedeckt. Sie besteht aus einem Tunnelsystem, das zuerst nur an der zum Zellinneren gerichteten Seite geöffnet ist, um das Antibiotikum aus der Zelle zu fischen. Ist die Substanz im Tunnel gefangen, schließt sich die „Pforte“ und gleichzeitig öffnet sich der Kanal an der Außenseite der Zelle. Anschließend wird das Antibiotikum mithilfe der Peristaltik nach außen „gequetscht“. Die neuen Erkenntnisse könnten zur Entwicklung eines Hemmstoffs führen, der solche Pumpen blockiert und damit die Bildung von Antibiotika-Resistenzen verhindert. (Science)
06.09. Medizin Cholesterin hält Magen fit Das Magenschleimhautentzündungen und Magenkrebs auslösende Bakterium Helicobacter pylori benötigt Cholesterin für seinen Stoffwechsel – es kann den Stoff allerdings nicht selbst herstellen und saugt ihn deshalb aus den Membranen der Magenschleimhautzellen, wandelt den größten Teil leicht ab und baut die so veränderte Form
12.09.1909 Patentierung des ersten künstlichen Kautschuks 11.09.1822 Die katholische Kirche erkennt das heliozentrische Weltbild des Kopernikus an
in seine Zellhülle ein. Doch ein Zuviel dieser Substanz kann der Mikrobe auch schaden, wie jetzt deutsche Wissenschaftler herausfanden. Denn das Lipid macht die Bakterien sensibel gegenüber der körpereigenen Abwehr: So lässt ein Cholesterinüberschuss die so genannten Antigen präsentierenden Zellen besonders gut arbeiten. Diese nehmen den Erreger auf und präsentieren Teile von ihm auf ihrer Oberfläche. Auf diese Weise alarmieren sie T-Zellen, die eine spezifische Immunantwort gegen den Erreger einleiten. Wie genau Cholesterin jedoch die Antigen präsentierenden Zellen stimuliert, ist noch unklar. (Nature Medicine)
06.09. Nanotechnologie Nanoschalter aus Blattgrün Im Zuge der Miniaturisierung von Bauteilen müssen auch die Schalter immer kleiner werden. Jetzt haben Nanowissenschaftler einen nur molekülgroßen, komplexen biologischen Schalter aus dem grünen Farbstoff Chlorophyll erzeugt. Dafür injizierten sie ein einzelnes Elektron in das Molekül und manipulierten es so, dass es vier verschiedene Zustände einnahm. Das Chlorophyll verformte sich dabei von gerade zu gekrümmt in unterschiedlicher Geschwindigkeit. Die Studie ist für die Grundlagenforschung von Bedeutung, da die Konfiguration der Moleküle und Proteine wichtige biologische Prozesse reguliert. Gleichzeitig aber zeigt sie auch neue Schritte
AUGUS UGUSTSEPTEMBEROKTOBER OB RNOVEMBER O B DEZEMBER B 14.09.1769 Alexander von Humboldt wird geboren
14.09.1990 Erste erfolgreiche Gentherapie bei Erbkrankheit
14.09.1929 Die erste „Eiserne Lunge“ wird vorgestellt
23.09.1846 Der Astronom Gottfried Galle entdeckt den Planeten Neptun
16.09.1736 Todestag von Daniel Fahrenheit, dem Erfinder des QuecksilberThermometers
auf für die Erzeugung von logischen Schaltkreisen oder mechanischen Schaltern im Nanomaßstab. (PNAS)
07.09. Kognitionsforschung Wie dachten unsere Vorfahren? Wie verstanden unsere Urahnen ihre Welt? Welche Strategien benutzten sie zum Beispiel, um Nahrung wieder zu finden? Merkten sie sich den Standort oder nutzten sie die Merkmale eines Objekts? In Verhaltensexperimenten konnten Max-Planck-Wissenschaftler zeigen, dass alle vier Menschenaffenarten und einjährige Menschenkinder den Ort als Hinweis bevorzugten, um Verstecktes wieder zu finden. Offenbar ist diese Präferenz schon seit 15 Millionen Jahren Bestandteil unserer kognitiven Struktur. Dreijährige Kinder dagegen merkten sich im Versuch das Aussehen des Objekts, unter dem ein bestimmter Gegenstand versteckt war – unabhängig von seinem Platz. Da einjährigen Kindern und Menschenaffen die Fähigkeit für diese Strategie nicht fehlt, sondern sie lediglich den Einsatz der anderen Strategie bevorzugen, gehen die Wissenschaftler davon aus, dass die weitere kognitive Entwicklung beim Menschen dazu geführt hat, dass er diese Präferenzen neu wiegt. (Current Biology)
Orang-Utan im Experiment © Max-PlanckInstitut für evolutionäre Anthropologie, Knut Finstermeier
23.09.1949 Die UdSSR wird Atommacht und beendet damit das US Atom-Monopol
24.09.1852 Der erste Flug eines motorisierten Luftschiffes glückt 25.09.1820 Der Physiker André Marie Ampère entdeckt die Kraftwirkung zwischen zwei stromdurchflossenen Leitern
CHRONIK
29.09.1954 Das Forschungszentrum der Europäischen Organisation für Kernforschung, CERN, wird in Genf eröffnet
08.09. Materialforschung Halbleiter leuchtet und erzeugt Strom in einem Halbleiter sind Materialien, die unter bestimmten Bedingungen in ihrem Inneren Elektronen austauschen und so leitfähig werden. Sie dienen daher unter anderem als Grundbausteine für die Schaltkreise von Computern. Jetzt haben Wissenschaftler erstmals organische Halbleiter produziert, die statt der Elektronen Ionen, also geladene Atome und Moleküle, austauschen. Die Besonderheit dieser „Ionic Junction“: Sie könnte sowohl als Schalter als auch als Leuchtdiode eingesetzt werden, da sie je nach Lichteinfall Energie entweder in Form von Elektronen oder aber in Form von Licht abgibt. (Science)
13.09. Geowissenschaften Wie entsteht eine „Monsterwelle“? Zehn schwere Schiffsunglücke gehen jährlich auf so genannte „freak waves“ zurück. Wie diese bis zu 30 Meter hohen Riesenwellen entstehen, war bislang noch umstritten. Nun haben Forscher ein neues Modell zur Wellenberechnung entwickelt, dass dieses Phänomen erklärt: Treffen zwei Wellen in einem bestimmten, relativ kleinen Winkel aufeinander, können sie sich gegenseitig „aufschaukeln“ und die normalen, stabilisierenden physikalischen Effekte des Wassers außer Kraft setzen. Im Falle dieses nicht-linea-
Schiffsbug wird von „Monsterwelle“ überspült. © NOAA
49
09 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI ren Verhaltens entsteht eine neue Instabilität. Begünstigt durch starke Strömung und einen von vorne kommenden, starken Wind baut sich daraus dann die gigantische Welle auf. Die neuen Erkenntnisse könnten die Vorhersage und Frühwarnung von „freak waves“ verbessern. (Physical Review Letters)
wärmung hätte eine bis zu fünfmal stärkere Sonnenaktivität erfordert. Die Forscher schließen allerdings nicht aus, dass ultraviolette Sonnenstrahlung zum Klimawandel beiträgt – dazu existieren bislang aber noch keine zuverlässigen physikalischen Modelle. (Nature)
18.09. Physik 15.09. Pflanzenforschung
Balsampappel © Utah State University
Erste Baumart öffnet „Buch des Lebens“ Die Genome von etlichen Tieren, Pflanzen und Mikroorganismen und auch das des Menschen sind bereits seit einiger Zeit entschlüsselt. Ein internationales Wissenschaftlerteam hat jetzt erstmals auch die genaue Abfolge der Basenpaare in der DNA einer Baumart, der amerikanischen Balsampappel, ermittelt. Die Suche nach Genen, die speziell nur in Bäumen vorkommen, ist – auch nach Auswertung der Rohdaten – noch nicht zu Ende. Denn danach besitzen Bäume weder mehr Erbanlagen als krautige Pflanzen, noch gibt es rein auf Bäume beschränkte Gengruppen. Auch Erbgutbausteine zur Holzbildung finden sich in allen Pflanzen. Allerdings ist ihre Vielfalt im jetzt sequenzierten Pappelgenom größer als beispielsweise in der einjährigen Modellpflanze Arabidopsis. (Science)
15.09. Klima Aufnahme eines Sonnenflecks © Institute for Solar Physics of the Royal Swedish Academy of Science, Göran Scharmer
50
Sonne nicht schuld am Klimawandel Es gibt Überlegungen, wonach die schwankende Sonnenaktivität mindestens ebenso stark zur Erderwärmung beiträgt wie der Mensch oder natürliche Veränderungen des Klimas. Wissenschaftler haben nun vorhandene Messdaten und neue theoretische Erkenntnisse zusammengefasst und damit neue Klimamodelle berechnet. Danach scheint die Sonnenfleckenaktivität als Auslöser des Klimawandels auszuscheiden. Grund: Die seit dem 17. Jahrhundert beobachtete Er-
Kosmischer „Doppel-Leuchtturm“ bestätigt Einstein Die theoretischen Berechnungen der Allgemeinen Relativitätstheorie von Albert Einstein sind bis auf 0,05 Prozent genau und korrekt. Dies hat eine Beobachtung des Doppelpulsars PSR J0737-3039 A und B Umeinander kreisende mithilfe von RadioPulsare (Illustration) teleskopen gezeigt. © John Rowe Animations Das System liegt rund 2.000 Lichtjahre von der Erde entfernt in der Konstellation Puppis und ist das einzige bisher bekannte, bei dem sich zwei Radiopulsare gegenseitig umkreisen. Ähnlich kosmischen Leuchttürmen emittieren diese Sterne starke fokussierte Strahlen von Radiowellen, die von der Erde aus als Radiopulse beobachtet werden können. Die Astronomen maßen nun die leichten Variationen in den Ankunftszeiten der Radiopulse und stellten dabei fest, dass diese exakt den Voraussagen der Einsteinschen Relativitätstheorie für zwei einander umkreisende massereiche Objekte entsprachen. (Science)
19.09. Ökologie Wenn Parasiten drohen, schlüpfen Jungs später Um das Überleben ihrer Jungen zu sichern, nutzen einige Vogelarten eine besondere Strategie: Wenn Vogelmilben und andere Parasiten ihren Nachwuchs bedrohen, le-
AUGUS UGUSTSEPTEMBEROKTOBER OB RNOVEMBER O B DEZEMBER B gen Hausgimpelmütter gezielt erst weibliche, dann männliche Eier. Denn die kräftigeren Weibchen können den Blutsaugern besser widerstehen, auch wenn sie früher schlüpfen. Obwohl die Männchen dadurch ein paar Tage weniger im Nest gefüttert werden, sind sie am Ende der Nistperiode überraschenderweise genauso groß wie ihre früher geborenen weiblichen Geschwister. Die männlichen Jungen machen – gesteuert durch die Mütter – einen größeren Teil ihrer Entwicklung im Ei durch und schlüpfen daher in einem reiferen Zustand. Ursache für die Manipulationen der Legereihenfolge und der Eientwicklung sind Veränderungen im Hormonhaushalt der Mutter, die durch den Milbenbefall ausgelöst werden. (PNAS)
20.09. Ökologie Meereswurm überlebt durch „Outsourcing“ Der Meereswurm Olavius algarvensis besitzt weder Mund, Magen, Darm oder Nieren. Nahrungsaufnahme und Abfallentsorgung werden deshalb von speziellen Symbiosepartnern übernommen. Doch wie funktioniert dieses „Outsourcing“? Um diese Frage zu beantworten, haben Forscher zunächst das Genom der vier an dieser Lebensgemeinschaft beteiligten Bakterien entschlüsselt und darüber deren Stoffwechsel rekonstruiert. Dabei zeigte sich, dass die Symbionten sich gegenseitig bei der Entsorgung der „Wurmabfälle“ unterstützen: Zwei Arten erzeugen Schwefelverbindungen, die den anderen beiden als Nahrung dienen. Alle vier arbeiten aber zusammen, um den wertvollen Stickstoff zu recyceln. (Nature)
CHRONIK
21.09. Neurobiologie Wenn Nervenzellen kontaktscheu sind Einige Formen des Autismus könnten ihre Ursache in einer blockierten Signalübertragung an den Verbindungsstellen der Gehirnzellen, den Synapsen, haben. Erstmals erlaubt nun ein neues Tiermodell, die Ursachen dieser Störung nachzuvollziehen. Es zeigt, dass Mutationen in Genen, die die Proteine Neuroligin-3 und Neuroligin-4 kodieren, die Reifung der Synapsen stören. Bei Mäusen rief diese Störung tatsächlich Autismus-ähnliche Symptome hervor. Allerdings ist dieser Gendefekt Ursache nur bei einigen wenigen der zahlreichen verschiedenen Autismus-Formen.
Neuroligin-1-Nervenzellen in Kultur (rot angefärbt) © Universität Heidelberg, Thomas Dresbach/ Max-Planck-Institut für experimentelle Medizin, Nils Brose
(Neuron)
22.09. Neurobiologie Forscher stecken Mäuse mit Alzheimer an Ein charakteristisches Merkmal der Alzheimer-Krankheit ist die Ablagerung von falsch gefalteten Eiweißen im Gehirn, den so genannten Amyloid-Plaques. Jetzt haben Tübinger Wissenschaftler in einem Experiment nachgewiesen, dass Gehirnextrakte verstorbener Alzheimerpatienten, aber auch erkrankter Mäuse, Alzheimer auslösen, wenn diese in die Gehirne gesunder Mäuse gespritzt werden. Obwohl dieser Mechanismus große Ähnlichkeiten mit dem der Prionen-Erkrankungen (BSE) aufweist, bei der abnormal gefaltete Prion-Eiweiße die Krankheit auslösen, gibt es bisher keinen Beweis dafür, dass Alzheimer übertragbar ist. Der Befund, dass die Krankheit in Mäusen exogen induzierbar ist, gibt aber neuen Spekulationen Raum, dass Umwelteinflüsse neben genetischer Vorbelastung eine Rolle bei der Entstehung von Alzheimer spielen könnten. (Science)
Versuchstier Maus © National Cancer Institute
Olavius algarvensis unter dem Mikroskop © Max-Planck-Institut für marine Mikrobiologie, Hydra Institut, C. Lott
51
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1953 Fritz Lipmann Entdeckung des Koenzym A und dessen Bedeutung für den Zwischenstoffwechsel
1956 Werner Forßmann Entdeckungen zur Herzkatheterisierung und zu den pathologischen Veränderungen im Kreislaufsystem
1964 Feodor Lynen Mechanismus und Regulation des Stoffwechsels von Cholesterin und Fettsäuren
1969 Max Delbrück Entdeckung des Vermehrungsmechanismus und der genetischen Struktur von Viren
Nobelpreis für Physiologie/Medizin
RNA als Blockadefaktor Der Nobelpreis für Physiologie und Medizin geht in diesem Jahr an Forscher, die einen fundamentalen Kontrollmechanismus im Fluss der genetischen Information in den Zellen entdeckten – und gleichzeitig eine Methode, diesen gezielt zu blockieren. 1998 publizierten die amerikanischen Wissenschaftler Andrew Fire und Craig Mello diese Entdeckung der so genannten RNA-Interferenz.
Auszeichnung für die Enteckung der RNA-Interferenz: die Nobelpreisträger Andrew Fire (oben) und Craig Mello © Stanford University, University of Massachussetts
52
Der genetische Code der DNA bestimmt, welche Proteine von der Zelle produziert werden und reguliert damit letztlich den gesamten Stoffwechsel. Die Bauanleitungen für die Proteine werden von der DNA abgelesen und in eine „Transportform“, die Boten- oder messenger RNA (mRNA), übersetzt. Diese verlässt den Zellkern und wandert zu den Proteinfabriken der Zelle, den Ribosomen. Rätsel der Blütenentfärbung Dieser Ablauf war zwar bereits in den 1990er-Jahren bekannt, doch es traten immer wieder Effekte auf, die sich damit nicht erklären ließen: So versuchten Pflanzengenetiker die Blütenfarbe einer Petunienart zu verstärken, indem sie ein Gen für ein rotes Pigment in die Pflanzenzellen einschleusten. Statt die Farbe zu intensivieren, führte diese Genmanipulation jedoch zu einem Verlust der Fär-
bung – die resultierenden Petunienblüten waren weiß. Erst Fire und Mello entdeckten den Mechanismus, der diesen rätselhaften Effekt hervorrief. Sie untersuchten, wie die Genexpression beim Nematoden Caenorhabditis elegans reguliert wird. Die Injektion von mRNA-Molekülen, die ein Muskelprotein kodierten, löste keinerlei Verhaltensänderung bei den Tieren aus. Ebenso wenig geschah etwas, wenn die Forscher das genau komplementäre Gegenstück zu dieser einsträngigen RNA injizierten, die so genannte „antisense“-RNA. Doch als die Wissenschaftler „sense“ und „antisense“ -RNA zu einer zweisträngigen RNA zusammenfügten und diese injizierten, beobachteten sie seltsame zuckende Bewegungen beim Wurm – ähnlich wie sie auch bei Nematoden auftreten, denen das Gen für dieses Muskelprotein komplett fehlt.
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1973 Karl von Frisch, Konrad Lorenz: Organisation und Auslösung von individuellen und sozialen Verhaltensmustern
1984 Georges Jean Franz Köhler Entdeckung des Prinzips der Produktion von monoklonalen Antikörpern
Doppelstrang-RNA als Blockadefaktor Offensichtlich hatte die injizierte RNA den Informationsfluss von der DNA zum Protein unterbrochen – aber wie? Um herauszufinden, ob tatsächlich die doppelsträngige RNA für diese Blockade verantwortlich war, testeten Fire und Mello den Effekt noch mit zahlreichen anderen Genen. Und tatsächlich: In jedem Fall blockierten die RNA-Stücke das Gen mit dem entsprechenden Proteincode. Das Protein wurde nicht mehr gebildet. Dieser Prozess erklärte auch das Rätsel der „verschwundenen“ Blütenfarbe bei den Petunien: Das eingeschleuste Pigmentgen wirkte wie eine Doppelstrang-RNA: Statt das in der Pflanze vorhandene Pigmentgen zu ersetzen, blockierte es dieses und unterband damit jede Pigmentbildung. In weiteren Experimenten stellten die Wissenschaftler fest, dass diese RNA-Interferenz nicht nur spezifisch für jeweils das Gen ist, dessen Code in der RNA verwendet wird, sondern dass sich die Wirkung sogar zwischen den Zellen und Zellgenerationen ausbreitet. Es reichte aus, winzige Mengen der RNA zu injizieren, um den Effekt zu erzielen – für die Forscher ein Hinweis darauf, dass es sich hier um einen katalytischen Prozess handeln musste. Während der folgenden Jahre wurde der zugrunde liegende Mechanismus weiter aufgeklärt.
1991 Bert Sakmann, Erwin Neher Direkter Nachweis von Ionenkanälen in Zellmembranen
1995 Christiane Nüsslein-Volhard Grundlegende Erkenntnisse über die genetische Kontrolle der frühen Embryoentwicklung
„Falle“ für mRNA Es zeigte sich, dass die DoppelstrangRNA an einen Proteinkomplex bindet, der sie in Fragmente teilt. Ein anderer Proteinkomplex, RISC, bindet an diese Fragmente und eliminiert jeweils einen der beiden Stränge. Der zweite bleibt erhalten und dient, gebunden an den RISC-Komplex, als „Sonde“, die sich an die entsprechende Boten-RNA anlagern kann. Geht eine mRNA in diese „Falle“ wird sie vom Komplex zerstört und damit auch die ProteinBauanleitung, die sie transportiert. Inzwischen hat sich diese Methode zu h k d b l
CHRONIK
1999 Günter Blobel Entdeckung der in Proteinen eingebauten Signale, die ihren Transport und die Lokalisierung in der Zelle steuern
Die deutschen MedizinNobelpreisträger der letzten 50 Jahre
Einsträngige RNA © MMCD
53
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1954 Max Born Forschungen in der Quantenmechanik, statistische Interpretation der Wellenfunktion Walter Bothe Entwicklung der Koinzidenzmethode
1961 Rudolf Ludwig Mössbauer Forschungen über die Resonanzabsorption der Gamma-Strahlung und Entdeckung des Mössbauer-Effekts
1963 Johannes Hans Daniel Jensen Entdeckung der nuklearen Schalenstruktur
1985 Klaus von Klitzing Entdeckung des quantisierten HallEffekts
1986 Ernst Ruska Konstruktion des ersten Elektronenmikroskops Gerd Karl Binnig Konstruktion des ersten Rasterelektronenmikroskops
Nobelpreis für Physik
Der kosmischen Hintergrundstrahlung auf der Spur Der Nobelpreis für Physik 2006 geht an Forscher, die ein wichtiges „Fenster“ in die Frühzeit unseres Universums geöffnet haben. Mithilfe von Daten des Satelliten COBE erweiterten John C. Mather vom Goddard Space Flight Center der NASA und George F. Smoot von der University of California in Berkeley die Erkenntnisse über den Ursprung von Galaxien und Sternen, aber auch über die Geschehnisse beim Urknall.
Verantwortlich für die Erfolge von COBE: Nobelpreisträger George F. Smoot (oben) und John C. Mather © University of California, Berkeley, NASA
54
Noch in den 1940er-Jahren waren sich Forscher nicht sicher, ob das All wirklich einen Anfang hatte. Zwei Theorien standen sich gegenüber: Der Urknall, bei dem alle Materie in einem einzigen Ereignis entstand und sich anschließend langsam immer weiter ausdehnte, und die Steady-State-Theorie, wonach das Universum schon immer in einem stabilen Zustand existierte. 1964 verschaffte dann die Entdeckung der kosmischen Hintergrundstrahlung der Urknall-Theorie den entscheidenden Durchbruch. Denn die von den Forschern Arno Penzias und Robert Wilson nachgewiesene Mikrowellenstrahlung war gewissermaßen das schwache Nachglühen der extremen Hitze und Strahlungsintensität, die im Kosmos unmittelbar nach dem Urknall herrschten.
Doch erst der im Jahr 1989 ins All gestartete Satellit COBE ermöglichte quantitative Messungen dieser Hintergrundstrahlung und eröffnete damit eine neue Ära, in der die Kosmologie, die Lehre vom Ursprung des Universums, zur exakten Wissenschaft werden konnte. Wie die Forscher um John C. Mather und George F. Smoot mithilfe der COBE-Daten herausfanden, lässt sich das Universum unmittelbar nach dem Urknall mit einem so genannten idealen Schwarzen Körper vergleichen, bei dem die Verteilung der Strahlung über die verschiedenen Wellenlängen nur von der Temperatur abhängt. Das bedeutet im Umkehrschluss, dass es ausreicht, nur die Temperatur im frühen Universum zu kennen, um daraus auf die vorkommenden Strahlungsarten und auch auf die Bedingungen zu dieser Zeit schließen zu können.
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1987 J. Georg Bednorz Entdeckung von Supraleitung in keramischen Materialien
1989 Wolfgang Paul Entwicklung der PaulFalle, eines elektrischen Vierpolfeldes zum Einschluss weniger Elektronen
1998 Horst Ludwig Störmer Entdeckung einer neuen Art von Quantenflüssigkeit mit fraktionell geladenen Anregungen
Das Universum als Schwarzkörper Das Spektrum dieser Strahlung hat eine spezielle, als Schwarzkörperstrahlung bezeichnete Form. Sie kann auch im Labor erzeugt werden und wurde erstmals von dem deutschen Physiker Max Planck beschrieben. Unsere Sonne ist ebenfalls ein – wenn auch unvollkommener – Schwarzkörper, denn auch ihr Spektrum weist diese spezielle Form auf. Dank der durch die COBE-Messungen enthüllten Schwarzkörperspektren haben die beiden Nobelpreisträger herausgefunden, dass die Temperaturen in der Frühzeit des Universums bei fast 3.000 Grad Celsius lagen. Seither hat sich der Kosmos nach und nach abgekühlt, während er sich ausdehnte. Die Strahlung, die wir heute messen, entspricht einer Temperatur, die gerade einmal 2,7 Grad über dem absoluten Nullpunkt liegt. Winzige Unterschiede erzeugen Materie Doch COBE verhalf den Wissenschaftlern noch zu einer weiteren Erkenntnis: Seine Auflösung reichte aus, um noch winzige Variationen in den Temperaturen der Hintergrundstrahlung zu ermitteln – in einer Größenordnung von nur einem hunderttausendstel Grad. Diese so genannte Anisotropie liefert entscheidende Hinweise darauf, wie die ersten Galaxien entstanden. Denn erst durch diese geringen lokalen Ungleichverteilungen im Strahlungs- und damit auch Energiegehalt des Kosmos konnte sich im Laufe
2000 Herbert Kroemer Entwicklung von Halbleiterstrukturen für Hochgeschwindigkeitselektronik
2001 Wolfgang Ketterle Entdeckung der Bose-Einstein Kondensation in verdünnten Gasen von Alkali-Atomen
der Zeit Materie bilden, zusammenballen und letztlich zur Entstehung von Himmelskörpern führen. Erfolg durch Teamarbeit Der Erfolg des COBE-Satelliten beruhte auf der Arbeit eines mehr als tausendköpfigen Teams von Forschern, Ingenieuren und anderen Teilnehmern des Projekts. Stellvertretend für diese und als die Hauptverantwortlichen hat das schwedische Nobel-Komitee den beiden Physikern den Nobelpreis zuerkannt. John Mather koordinierte die gesamte Arbeit des COBE-Projekts und trug die Verantwortung für das entscheidende Experiment, das zeigte, dass die Hintergrundstrahlung einer Schwarzkörperstrahlung entspricht. George Smoot hatte die Hauptverantwortung für die Messung der feinen Temperaturschwankungen in der Mikrowellenstrahlung. Inzwischen führen andere, noch genauere Mikrowellen-Observatorien wie WMAP die
CHRONIK
2005 Theodor Hänsch Entwicklung des Laserfrequenzkamms
Die deutschen PhysikNobelpreisträger der letzten 50 Jahre
Mithilfe von COBEDaten erstellte Karte des kosmischen Mikro-
55
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1950 Kurt Adler und Otto Paul Hermann Diels Entdeckung und Entwicklung der Dien-Synthese
1953 Hermann Staudinger Entdeckungen auf dem Gebiet der makromolekularen Chemie
1963 Karl Ziegler Entdeckungen auf dem Gebiet der Chemie und der Technologie der Hochpolymeren
Nobelpreis für Chemie
Transkription auf „frischer Tat“ ertappt
Nobelpreisträger Roger Kornberg: Sein Vater Arthur Kornberg erhielt im Jahr 1959 den Nobelpreis für Physiologie / Medizin. © Standford News Service, Linda Cicero
Auch der Nobelpreis in Chemie steht im Jahr 2006 ganz im Zeichen der Genetik: Der Chemiker Roger Kornberg von der Stanford University erhält die Auszeichnung für seine Forschungen zur molekularen Basis der Transkription bei eukaryotischen Zellen. Er entdeckte nicht nur einen entscheidenden Mitspieler der Transkription, den „Mediator“, seine Strukturbestimmungen ermöglichten erstmals auch die Rekonstruktion – Atom für Atom – des wichtigsten Enzyms der Transkription, der RNA-Polymerase. Die Transkription ist einer der grundlegendsten Prozesse allen Lebens. Dabei werden Bauanleitungen für Proteine, die auf der DNA in Form von Genen vorliegen, abgelesen und umkopiert in eine so genannte Botenoder messenger RNA. Dieses einsträngige RNA-Stück mit der komplementären Basensequenz transportiert die Bauanleitung aus dem Zellkern zu den im Zellplasma liegenden Ribosomen, den Proteinfabriken der Zelle. Ursprung der Vielfalt Doch die Transkription bildet nicht nur die Grundlage der Proteinproduktion, sie ist ist auch daran beteiligt, die Vielzahl der verschiedenen Zelltypen unseres Körpers hervorzubringen. Die große Variationsbreite entsteht dadurch, dass immer nur ein Teil der
56
gesamten genetischen Information abgelesen wird – und zwar für jeden Zelltyp spezifisch. Damit unterscheiden sich die Proteine, die in den einzelnen Zellen produziert werden und das beeinflusst ihre Gestalt, Funktion und Entwicklung. Wie die Transkription bei den zellkernlosen Bakterien funktioniert, entdeckten Forscher schon in den 1960er-Jahren, 1965 erhielten Jacques Monod, André Lwoff und François Jacob dafür den Nobelpreis in Physiologie / Medizin. Sie fanden heraus, dass zusätzlich zur RNA-Polymerase ein weiteres Molekül, Sigma-Faktor genannt, eine entscheidende Rolle spielt: Es „sagt“ der Polymerase, wo das abzulesende Gen beginnt und wo es endet. Lange Zeit vermutete man, dass dieser Prozess auch in den Zellkern-tragenden
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1967 Manfred Eigen Untersuchungen von extrem schnellen, durch kurze Energieimpulse ausgelösten chemischen Reaktionen
1973 Ernst Otto Fischer Chemie der metallorganischen Sandwich-Verbindungen
eukaryotischen Zellen der höheren Lebewesen gleich abläuft, doch niemandem gelang es, den Sigma-Faktor in diesen Zellen nachzuweisen. Mediator als An-Aus-Schalter Nach und nach stellte sich dann heraus, dass bei Eukaryoten gleich fünf unterschiedliche Molekülkomplexe existieren, die gemeinsam die Rolle des bakteriellen Sigma-Faktors übernehmen. Wie sie aber genau ineinander greifen und welche molekularen Akteure möglicherweise noch beteiligt sind, blieb unklar. In mühevoller, zehnjähriger Arbeit entwickelte Kornberg dann eine Methode um Hefezellen als Modell für die Eukaryotentranskription einzusetzen und die Prozesse in ihrem Inneren im Detail zu analysieren. Dank dieses Modellsystems entdeckte er einen weiteren Molekülkomplex, der eine entscheidende Rolle als An-Aus-Schalter für die Transkription spielt. Dieser „Mediator“ genannte Komplex reguliert letztlich, im Wechselspiel mit gewebespezifischen Substanzen und speziellen „Verstärkern“ die Genexpression. Polymerase in Aktion eingefangen Und noch einen weiteren Meilenstein lieferten Kornbergs Arbeiten: Denn er entwickelte eine Methode, mit der er erstmals einzelne Zwischenstadien im komplexen Transkriptionsprozess gleichsam „einfrieren“ und dann mittels Kristallographie abbilden konnte. Bisher war dies nur entweder mit den Aus-
1979 Georg Wittig Entwicklung von Borbzw. Phosphorverbindungen in wichtigen Reagenzien innerhalb organischer Synthesen
CHRONIK
1988 Johann Deisenhofer, Robert Huber und Hartmut Michel Erforschung des Reaktionszentrums der Photosynthese bei einem Purpurbakterium
gangsstoffen oder aber mit dem Endprodukt möglich gewesen. Kornberg blockierte die Reaktion durch Zugabe bestimmter biochemischer Substanzen gezielt in einer bestimmten Phase und konnte so zum Beispiel die RNA-Polymerase in Aktion „einfangen“. Die resultierenden Bilder waren so genau, dass sogar einzelne Atome sichtbar werden. Mit dieser Methode und der Entwicklung eines Modells zur Untersuchung des Transkriptionsprozesses bei Eukaryoten hat Kornberg einen wichtigen Grundstein zur Erforschung der Transkription gelegt. Insbesondere auch für die Medizin haben diese Erkenntnisse weit reichende Bedeutung, da zahlreiche Krankheiten wie Krebs, Herzerkrankungen aber auch Entzündungen mit Störungen in der Transkription in Verbindung stehen.
Die deutschen ChemieNobelpreisträger der letzten 50 Jahre
Struktur eines RNA-PolymeraseII-TranskriptionsKomplexes. DNA (blau), neu synthetisierte RNA (rot), Metall im aktiven Zentrum des Enzyms (pink), Brückenhelix (grün) © Nobel Foundation
57
58
KOSMOS Gewaltige Sternexplosionen, tödliche Teilchenstürme, gefräßige Schwarze Löcher – das Weltall ist alles andere als ein ruhiger Ort. Gleichzeitig aber ist es die Wiege von Planeten wie dem unsrigen, und damit sind wir ein – wenngleich winziger – Teil des Ganzen. Mehr über die Prozesse, Phänomene und Gesetzmäßigkeiten des Alls zu erfahren ist daher essenziell, um die Welt zu begreifen. Wichtige Fortschritte erzielten Astronomie und Astrophysik inzwischen in der Erforschung der Schwarzen Löcher. Erstmals haben Forscher mithilfe von Weltraumteleskopen eindeutig nachgewiesen, dass auch im Zentrum unserer Nachbargalaxie, der Andromedagalaxie, eine solche Singularität existiert. Und das Verhältnis von Schwarzen Löchern zu ihren Muttergalaxien konnten die Astronomen ebenfalls aufklären. Noch allerdings bleiben viele Fragen offen. Erstaunliche neue Erkenntnisse lieferte auch die Cassini-HuygensMission zum Gasplaneten Saturn und seinen Monden: So kamen die beiden Raumsonden etwa dem Ursprung der geheimnisvollen Saturnringe auf die Spur. Auf dem Trabanten Enceladus wiesen sie Eisgeysire nach, die große Mengen an Partikeln ins All schleudern und damit den riesigen E-Ring speisen. Und auf dem Saturnmond Titan entdeckten sie eine verblüffend „irdische“ Welt mit Flussläufen, Tälern, Küstenlinien und Dutzenden von Seen.
Schwarze Löcher: rätselhafter denn je
60
Besuch beim Herrn der Ringe: Cassini und Huygens am Saturn
66
Junge Sterne in der kleinen Magellanschen Wolke © NASA, ESA und A. Nota (STScI/ESA)
59
So könnte ein Aktiver Galaxienkern (AGN) aussehen. © NASA/CXC, M.Weiss
Schwarze Löcher: rätselhafter denn je Kosmische „Staubsauger“, Eintrittspforten zu anderen Dimensionen, alles vernichtende Todesstrudel – Schwarze Löcher gehören zu den faszinierendsten Objekten in unserem Universum. Sie sind nicht nur das Thema unzähliger Science-Fiction Romane und Filme, sie fesseln auch die Aufmerksamkeit der Wissenschaftler – und dies heute mehr denn je. Denn gerade in den vergangenen Jahren haben neue Erkenntnisse ein wenig mehr über die Schwarzen Löcher im Kosmos verraten, aber auch jede Menge neuer Fragen aufgeworfen. Eine physikalische Unglaublichkeit
Schon vor 222 Jahren vermutete der Geistliche John Michell die Existenz von Himmelskörpern, die eine so große, dicht gepackte Masse besitzen, dass ihre Anziehungskraft nichts entweichen lässt – nicht einmal das Licht. Vor rund 100 Jahren untermauerte der geniale Physiker Albert Einstein diese Vorstellung wissenschaftlich mit seiner Allgemeinen Relativitätstheorie. Demnach verbiegt ein Schwarzes Loch den Raum so stark, dass er sich schließt und dabei gleichsam abkapselt. Alle Strukturen mit
60
Ausnahme von Masse und Drehimpuls gehen verloren, während im Zentrum des Schwarzen Lochs eine so genannte Singularität entsteht. Soweit die Theorie. Doch die Praxis, die Bestätigung der theoretischen Überlegungen, steht bis heute auf mehr als wackeligen Füßen. Denn trotz modernster Technologien und Teleskope hat noch niemand ein Schwarzes Loch direkt beobachtet, geschweige denn sein Inneres erforschen können. Sie sind trotz ihrer gewaltigen Dichte einfach zu klein. Nachweisen lassen sie sich nur indirekt: durch die Auswirkungen auf ihre Umgebung.
KOSMOS
Nachbargalaxie hilft auf die Sprünge
Aber ist das, was sich wie ein Schwarzes Loch verhält, auch wirklich immer eines? Immerhin könnten viele der beobachteten Effekte theoretisch auch durch sehr kompakte Haufen aus Neutronensternen oder Weiße Zwerge verursacht worden sein. Um dies auszuschließen, richteten Wissenschaftler des Max-Planck-Instituts für extraterrestrische Physik in Garching die scharfen „Augen“ des Weltraumteleskops Hubble auf das Zentrum unserer Nachbargalaxie M31, den Andromedanebel. Hier hatten frühere Beobachtungen bereits einen Doppelhaufen roter Sterne sowie ein rätselhaftes blaues Leuchten direkt im Kern der Galaxie ausgemacht. Aber lag hier auch ein Schwarzes Loch? Die Antwort lieferten die neuen Daten der Hubble-Detektoren: Zum einen fanden die Forscher im Galaxienzentrum keinerlei Anzeichen eines kompakten Sternhaufens aus Neutronensternen oder Weißen Zwergen. Die zuvor beobachteten Effekte mussten daher tatsächlich von einem Schwarzen Loch herrühren. Damit war dies nicht nur für die Milchstraße, sondern erstmals auch für eine andere Galaxie nachgewiesen. „Andromeda ist die erste Galaxie, in der wir alle astrophysikalischen Alternativen zu einem supermassereichen Schwarzen Loch mithilfe des Hubble Weltraumteleskops und denselben Methoden, durch die wir fast alle anderen mutmaßlichen Schwarzen Löcher in Galaxien gefunden haben, ausschließen können“, erklärt der Astrophysiker Ralf Bender in einer Veröffentlichung des Max-Planck-Instituts für extraterrestrische Physik. Zum anderen zeigte sich, dass das rätselhafte blaue Leuchten von 200 sehr heißen, „nur“ 200 Millionen Jahre alten Sternen ausgeht. Eng gepackt kreisen sie mit der rasenden Geschwindigkeit von 3,6 Millionen Kilometern pro Stunde um ein gemeinsames Zentrum. Damit würden sie in 40 Sekunden
die Erde umrunden und in sechs Minuten den Mond erreichen. Für eine Umrundung des Schwarzen Lochs brauchen sie immerhin 500 Jahre. Mithilfe dieser Geschwindigkeit konnten die Wissenschaftler nun auch die Masse des Schwarzen Lochs erstmals näher bestimmen. Denn nur die Anziehungskraft eines mindestens 140 Millionen Sonnenmassen umfassenden Schwarzen Lochs konnte die Sterne so stark beschleunigen. „Schwarzer Fleck“ im Milchstraßenzentrum als erster Direktnachweis?
In naher Zukunft könnten zumindest supermassereiche Schwarze Löcher in der näheren kosmischen Umgebung vielleicht sogar direkt beobachtet werden. Ein Kandidat wäre etwa das Schwarze Loch im Zentrum der Milchstraße. Der Raum um das Loch herum strahlt starke Synchrotronstrahlung aus – eine von schnellen hochenergetischen Teilchen, die sich in einem Magnetfeld bewegen, in Flugrichtung abgegebene elektromagnetische Strahlung. Der in dieser Strahlung von der Singularität erzeugte Schwarze Fleck könnte daher im Prinzip mit Radioteleskopen „sichtbar“ gemacht werden. Das Raum-Zeit-Gefüge Nach der Vorstellung von Albert Einstein bilden die drei Dimensionen des Raumes mit der Zeit eine Matrix, ein Grundgewebe, in dem alle Materie eingebettet ist. Diese Raumzeit-Matrix kann durch die unterschiedlichen Massen im Kosmos verformt werden wie ein Gummituch: Wird ein schwerer Gegenstand in die Mitte eines gespannten Gummituches gelegt, dellt sie das Tuch durch ihr Gewicht ein. Auf die gleiche Weise verzerrt auch ein Himmelskörper die Raumzeit des Kosmos. Nähern sich andere Objekte aber auch Lichtstrahlen dieser Kuhle, werden sie in ihrer Bahn abgelenkt, sie bewegen sich in einer Kurve oder laufen, wenn sie zu leicht und ihre Geschwindigkeit zu niedrig ist, sogar auf die Delle zu und „fallen“ hinein. Ein Schwarzes Loch erzeugt nicht nur eine Delle in der Raumzeit, sondern durchbricht sie, bildet quasi einen Trichter. © MMCD
61
SDSS Der Digital Sloan Sky Survey ist ein gemeinsames Projekt mehrerer astronomischer Einrichtungen in den USA, Japan, Europa, China und Korea. Das Max-Planck-Institut für Astrophysik in Garching ist seit 2001 dabei. Ziel der am Ende ein Viertel des Himmels umfassenden Durchmusterung ist es, die Positionen und Helligkeiten von mehr als 100 Millionen Himmelsobjekten zu vermessen. Auch die Entfernung von rund einer Millionen Galaxien und Quasaren wird ermittelt.
Schon jetzt lassen sich im Rahmen des VLBI ( Very Long Baseline Interferometry) weltweit zahlreiche Radioteleskope so miteinander verbinden, dass sie wie eine einzige, nahezu erdgroße Antenne wirken. Noch allerdings ist die Auflösung dieses „Megateleskops“ um den Faktor zwei zu niedrig. Wissenschaftler vom Max-Planck-Institut für extraterrestrische Physik (MPE) in Garching um Reinhard Genzel arbeiten an der Entwicklung von Gravity, einem Gerät, das alle vier Teleskope der Europäischen Südsternwarte VLT zusammenschaltet und so die Beobachtung von Materiebewegungen in unmittelbarer Nähe eines Schwarzen Lochs ermöglicht. Astrophysiker Andreas Müller, Forscher am gleichen Institut, schätzt, dass Fortschritte in der Teleskoptechnologie schon in den nächsten Jahren den direkten Nachweis des Schwarzen Flecks einer Singularität ermöglichen könnten. Wellen im Raum-Zeit-Gefüge
Eine weitere Chance, einen „Blick“ auf Schwarze Löcher zu erlangen, bietet ein ganz neues Feld der astrophysikalischen Forschung: Die Beobachtung von Gravitationswellen. Diese „Rippel“ im RaumzeitGefüge des Universums entstehen durch
Aufbau eines Schwarzen Lochs Singularität: Eine Art Ausnahmezustand im Universum bildet das Zentrum des Schwarzen Lochs, in dem die Materie so stark komprimiert ist, dass physikalische Gesetze dort nicht definiert sind. Ereignishorizont: Die Grenze des Bereichs einer Singularität, aus dem weder Strahlung noch Materie jemals wieder herauskommen. Akkretionsscheibe: rotierende, scheibenförmige Wolke um das Schwarze Loch. Die Materie in der Akkretionsscheibe spiralt schließlich in das Schwarze Loch hinein und verschwindet aus unserer Welt. Jet: Bei einigen Schwarzen Löchern, darunter Quasare und aktive Galaxienkerne (AGN) schleudern Energie und Magnetkräfte des Schwarzen Lochs konzentrierte Ströme von Materie und Strahlung weit ins All hinaus.
62
extrem beschleunigte Massen, etwa bei Sternenexplosionen oder dann, wenn ein Stern ein Schwarzes Loch umtanzt. Gravitationswellen wurden schon von Einstein postuliert, bisher aber noch niemals direkt nachgewiesen – unter anderem deshalb, weil es keine geeigneten Observatorien für diese Wellen gab. Heute sind jedoch bereits vier Gravitationswellen-Detektoren weltweit in Betrieb. Einer von ihnen ist GEO600 in der Nähe von Hannover, an dem Wissenschaftler des MaxPlanck-Instituts für Gravitationsphysik federführend beteiligt sind. Große Hoffnungen knüpfen die Astrophysiker auch an die 2015 in Betrieb gehende Laser Interferometer Space Antenna (LISA), ein von NASA und ESA entwickeltes weltraumgestütztes Gravitationswellen-Observatorium. Dabei bilden drei in Erdnähe stationierte Messsatelliten einen virtuellen Detektor von fünf Millionen Kilometern Armlänge. Im Gegensatz zu ihren irdischen Gegenstücken können diese dann auch Gravitationswellen sehr großer Wellenlängen registrieren – und damit vielleicht endlich auch Schwarze Löcher... „Todesstrudel“ im Labor
Was geschieht mit Materie, die in ein Schwarzes Loch gezogen wird? Verliert sie ihre Eigenschaften und wird nur noch „Masse ohne Materie“? Und wie sieht es im Inneren und in der unmittelbaren Umgebung eines Schwarzen Lochs aus? Auf diese Fragen haben die Astrophysiker heute noch keine Antwort. Zwar existieren auch hier mehrere, teilweise widerstreitende Theorien, aber belegen lässt sich bislang keine. Weltweit arbeiten mehrere Forschergruppen daran herauszufinden, wie sich Materie verhält, wenn sie extrem stark komprimiert wird. Diese exotischen Bedingungen lassen sich unter anderem in Teilchenbeschleunigern erzeugen; dabei entstehen
KOSMOS
Die Anlage GEO600 besteht aus dem Zentralhaus mit dem Lasersystem und zwei jeweils 600 Meter langen im Boden verlaufenden Edelstahlröhren; sie funktioniert nach dem Prinzip des Michelson-Interferometers. © GEO 600
durch die Kollision sehr schnell beschleunigter Teilchen für Sekundenbruchteile starke Drucke. Rein theoretisch könnten sich sogar künstliche Schwarze Löcher formen. Im Unterschied zu den kosmischen Löchern hätten diese jedoch nur Teilchenformat: Sie wären winzig klein und extrem kurzlebig. Noch allerdings ist man nicht soweit, um die nötigen Energien zu erzeugen. Große Hoffnungen setzen die Teilchenphysiker daher auf die Beschleuniger der nächsten Generation, wie den noch im Bau befindlichen Large Hadron Collider (LHC) am Forschungszentrum CERN in der Schweiz, der 2007 in Betrieb gehen soll. Das kosmische „Henne-Ei“-Problem
Aber nicht nur die Schwarzen Löcher selbst, auch ihre Rolle im Gesamtkosmos, ihr Zusammenspiel im Wachsen und Vergehen von Sternen und Galaxien ist noch weitgehend ungeklärt. Waren etwa supermassereiche Schwarze Löcher die „Geburtshelfer“ für Galaxien? Oder waren die Galaxien zuerst da und in ihren Zentren ballte sich die Materie so weit zusammen, dass ein Schwarzes Loch entstand? Wer beeinflusste hier wen? Diesem klassischen „Henne-Ei“-Problem sind neben den Wissenschaftlern des Max-Planck-Instituts für extraterrestrische Physik auch ihre Kollegen von der Astrophysik in Garching auf der Spur. Im Rahmen des Sloan Digital Sky Survey (SDSS) haben sie die Beziehung zwischen dem Wachstum von superschweren Schwarzen Löchern im Zentrum von Galaxien und dem Anwachsen ihrer Muttergalaxien untersucht.
Weltraum-Laserinterferometer LISA: Drei Satelliten sollen 50 Millionen Kilometer hinter der Erde herfliegen und dabei ein Dreieck mit fünf Millionen Kilometern Seitenlänge aufspannen. © NASA/JPL
Gekoppeltes Wachstum
Die Wissenschaftler um Guinevere Kauffmann analysierten hunderttausende Galaxienspektren von mehr als 80.000 Galaxien
63
Junge Sterne im Umfeld eines Schwarzen Lochs (Modell) © NASA/CXC/ M.Weiss
und entdeckten schließlich einen klaren Zusammenhang: Je schneller das Schwarze Loch im Inneren einer Galaxie wuchs, desto höher war auch die Sternenbildungsrate – und damit auch ihr Wachstum. Besonders schnell legten dabei Schwarze Löcher mit weniger als 100 Millionen Sonnenmassen zu. Kaum veränderten sich dagegen sehr massereiche Schwarze Löcher im Zentrum der älteren, sehr großen Galaxien in unserer unmittelbaren kosmischen Umgebung. Galaxie und Schwarzes Loch scheinen dabei jeweils in einer Art Rückkopplung zueinander zu stehen: Je mehr Energie das Schwarze Loch ausstößt, etwa durch heiße Gasströme,
desto stärker behindert das die Sternenentstehung der Galaxie. Dies wiederum hemmt den Energieausstoß der kosmischen Schwerkraftfalle und fördert damit neues Wachstum – sowohl der Galaxie als auch des Schwarzen Lochs. Dieses Ergebnis löst zwar noch nicht das „Henne-Ei“-Problem, trägt aber immerhin dazu bei, die Wechselwirkung zwischen beiden besser zu verstehen. Möglicherweise wird der SDSS, der bei seinem Abschluss ein Viertel des Himmels kartiert und die Positionen und Helligkeiten von mehr als 100 Millionen Himmelsobjekten vermessen haben soll, hier noch für einige Überraschungen sorgen.
WAS SONST NOCH GESCHAH Kollision Schwarzer Löcher simuliert
Die große Schwierigkeit bei der Erstellung von Modellen Schwarzer Löcher und ihres Verhaltens liegt in deren Außerordentlichkeit: Raum und Zeit verschieben sich, die Dichte wird unendlich und die Zeit kann stehen bleiben. Was aber geschieht, wenn zwei solche Singularitäten miteinander verschmelzen? Nach der Theorie von Albert Einstein entstehen dabei Schwerkraftwellen unterschiedlicher Stärke und Wellenlänge – je nach dem, welche Massen beteiligt sind. Allerdings gestalten sich die Versuche, Einsteins Postulat solcher Gravitationswellen durch Berechnungen und Computermodelle nachzuvollziehen, wegen der Komplexität der Rechen–
64
operationen extrem schwierig. In den vergangenen 30 Jahren ging es mit dem Forschungsgebiet nur langsam voran, aber seit kurzer Zeit haben verschiedene Arbeitsgruppen weltweit große Erfolge erzielt. Ein erster Meilenstein war dabei die Berechnung eines vollständigen Orbits von zwei sich auf spiralförmigen Bahnen immer enger umkreisenden Schwarzen Löchern sowie der anschließende Nachweis, dass nach der Kollision ein einzelnes rotierendes Schwarzes Loch entsteht. Weitere Erfolgsmeldungen folgten Schlag auf Schlag: Die ersten Signalformen für die bei dieser kosmischen Kollision entstehenden Gravitationswellen wurden 2005 auf unabhängigen Wegen berechnet, und schon ein Jahr später berichteten mehrere Arbeitsgruppen von der Simulation mehrerer Umkreisungen. Offensichtlich ist der Bann gebrochen, die Probleme mit der Stabilität der numerischen Rechnungen scheinen im Wesentlichen gelöst. Unter dem Eindruck dieser Ergebnisse stand auch die Konferenz „New Frontiers in Numerical Relativity“, die im Juli 2006 am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam stattfand – die Stimmung unter den dort versammelten weltweit führenden Arbeitsgruppen jedenfalls war enthusiastisch. (PHYSICAL REVIEW LETTERS, April 2006, Juli 2006)
KOSMOS
Wissen hoch 12: Im Herzen der Milchstraße soll
Warum verschlingt dieses Schwarze Loch nicht
sich ein Schwarzes Loch befinden. Woher weiß
alle nahe gelegenen Sterne?
man das?
Wie unsere Gruppe vor einigen Jahren nachweisen konnte, verschlingen die Schwarzen Löcher tatsächlich ab und zu einmal Sterne, die ihnen zu nahe kommen. In einer Galaxie wie der Milchstraße sollte das etwa alle hunderttausend Jahre passieren. Andere Sterne werden durch die Gravitationskraft des Schwarzen Lochs auch aus ihrer Galaxie hinausgeworfen. Üblicherweise ziehen aber die Sterne um die Zentralmasse ihre regelmäßigen Bahnen, genauso wie die Planeten um die Sonne. Die Sonne ist also vor dem Schwarzen Loch relativ sicher. Nur wenn eine Störung von außen kommt, zum Beispiel eine Verschmelzung mit einer anderen Galaxie, könnte etwas passieren.
Das Schwarze Loch im Galaktischen Zentrum kann man zwar nicht direkt sehen, aber es verrät sich durch die Wirkung auf seine Umgebung, besonders seine dramatische Anziehungskraft. Mein Kollege Reinhard Genzel und seine Gruppe, aber auch ein Team in USA, haben seit Jahren mit immer besser aufgelösten Infrarotaufnahmen die Sterne in unmittelbarer Nähe des Zentrums beobachtet und dabei festgestellt, dass eine unsichtbare Masse, fast vier Millionen mal so schwer wie die Sonne, diese Sterne mit Geschwindigkeiten bis zu mehreren tausend Kilometern pro Sekunde herumschleudert. Außerdem verrät sich das Schwarze Loch dadurch, dass es etwa jeden Tag einmal eine Materiemenge von der Masse eines Berges verschluckt und dabei im Röntgenbereich und im Infrarot für kurze Zeit hell aufleuchtet. Woher weiß man, ob im Zentrum aller Galaxien ein Schwarzes Loch sitzt?
Tatsächlich findet man bei der Beobachtung naher Galaxien mit dem Hubble Space Teleskop, zum Teil auch mit Radioteleskopen, Hinweise auf Schwarze Löcher in fast allen größeren Galaxien. Interessanterweise gibt es einen unmittelbaren Zusammenhang zwischen der Größe der Galaxie und der Masse des zentralen Schwarzen Lochs, die darauf hindeutet, dass beide eine gemeinsame Entwicklungsgeschichte durchgemacht haben. Die ersten massigen Schwarzen Löcher im Universum sind dabei schon genauso früh entstanden, wie die ersten Galaxien. Der ganze Himmel ist im Röntgenlicht von einem diffusen Leuchten erfüllt, das wir in viele einzelne schwache Lichtpunkte auflösen konnten, die sich überwiegend als weit entfernte, aktiv fressende und deshalb hell leuchtende Schwarze Löcher herausgestellt haben.
Wie lange „lebt“ ein Schwarzes Loch? Kann es sich auch auflösen oder verschwinden?
Nach Steven Hawking kann ein Schwarzes Loch durch Quanten-Prozesse in seiner Umgebung Energie verlieren, allerdings nur in extrem geringen Mengen. Trotzdem kann deshalb ein Schwarzes Loch nicht unendlich lang leben. Für alle praktischen Anwendungen lebt es dennoch „ewig“ lange. Ein Schwarzes Loch mit einer Sonnenmasse zerstrahlt nach etwa 1067 Jahren. Eines der größten Schwarzen Löcher das wir kennen, M87 im Zentrum des uns benachbarten VirgoHaufens, kann annähernd 10100 Jahre leben. Bis dahin hat es dann vermutlich sämtliche bis dahin noch existierende Materie in seiner weiteren Umgebung verschlungen, inklusive unserer Galaxie. Sehr kleine Schwarze Löcher leben demgegenüber nur extrem kurz. Möglicherweise kann der bald in Betrieb gehende Large Hadron Collider winzig kleine Schwarze Löcher erzeugen und dann ihre HawkingStrahlung direkt messen.
Interview
Prof. Dr. Günther Hasinger, Direktor am Max-PlanckInstitut für extraterrestrische Physik, Träger des Leibnitz Preises 2005, entdeckte als Student seine Liebe zur Astronomie bei der Beobachtung einer Sternenexplosion. Heute stehen die Erforschung des Weltalls mittels Röntgensatelliten und die extragalaktische Astrophysik im Mittelpunkt seiner Arbeit. © Max-PlanckInstitut für extraterrestrische Physik, Felix Brandl
65
Cassini und Huygens am Saturn © ESA, D. Ducros
Besuch beim Herrn der Ringe: Cassini und Huygens am Saturn Er gilt als Herr der Ringe, er besitzt eine ganze „Herde“ an Monden und aufgrund seiner geringen Dichte könnte er sogar in Wasser schwimmen. Der Saturn gehört zu den rätselhaftesten Himmelskörpern in unserem Sonnensystem. Eine Mission, zwei Sonden Die Mission besteht aus zwei Sonden, dem Orbiter Cassini und dem „Huckepack“ mitgenommenen Landemodul Huygens, die am 1. Juli 2004 das Saturnsystem erreicht haben. Während Cassini noch bis zum Ende des Projekts am 30. Juni 2008 am Saturn aktiv ist – bis dahin wird das Raumschiff den Planeten mehr als 70-mal umkreist und rund 50 nahe Vorbeiflüge an verschiedenen Monden absolviert haben –, ist die Aufgabe von Huygens bereits jetzt erfüllt. Die Sonde war ausschließlich dafür gedacht, den Saturnmond Titan näher zu erforschen, auf dem sie am 14. Januar 2005 landete. Während des Sinkflugs und nach der Ankunft auf der Oberfläche führte die Sonde zahlreiche Messungen zur chemischen Zusammensetzung der Titanatmosphäre und -oberfläche durch.
66
Schon seit der Antike fasziniert der mit bloßem Auge am Firmament sichtbare Gasriese die Astronomen und Himmelsgucker. Wie unsere Sonne besteht er zum großen Teil aus Wasserstoff und Helium sowie Spuren von Methan, Ammoniak und diversen anderen Gasen. Seine Zusammensetzung ähnelt damit noch heute der des solaren Urnebels, aus dem vor 4,6 Milliarden Jahren unser Sonnensystem entstand. Dies und vieles andere mehr über den Saturn weiß man erst seit rund 25 Jahren. Damals kamen zum ersten Mal „Besucher“ von der Erde zu dem – nach Jupiter – zweitgrößten Planeten des Sonnensystems: Die Raumsonden Pioneer 11 (September 1979), Voyager 1 (November 1980) und Voyager 2 (August 1981) lieferten die ersten aussagekräftigen Bilder vom Saturn und seinen Monden, führten aber auch zahlreiche andere Messungen durch, die zum besseren Verständnis des Saturnsystems beitragen konnten. Bekannt ist seitdem beispielsweise die Struktur der äußeren Atmosphäre, in der gewaltige Wolkenbänder parallel zum Äquator um den Planeten ziehen. Und dass auf dem Saturn heftige Winde wehen, die Geschwindigkeiten von bis zu 1.800 Kilometern in der Stunde erreichen. Die Sonden wiesen zudem die enorme Komplexität und Vielgestaltigkeit der Saturnringe nach, die aus Eis- und Staubteilchen bestehen.
KOSMOS
Doch wie ist die innere Atmosphäre des Gasriesen aufgebaut? Auf welche Art und Weise sind die Saturnringe entstanden? Woher stammen die Saturnmonde? Ist der Trabant Titan mit seiner dichten Atmosphäre ein Abbild der Urerde? Diese und viele andere Rätsel um den Saturn konnten auch Pioneer und Voyager nicht lösen. Um endlich Licht ins Dunkel zu bringen, initiierten die NASA, die Europäische Weltraumorganisation (ESA) und die italienische Raumfahrtbehörde ASI die 3,4 Milliarden Dollar teure Cassini-HuygensMission und schickten sie 1997 – nach 15 Jahren Planungszeit – auf den Weg zum Saturn. Die Wissenschaftler erhofften sich von CassiniHuygens aber nicht nur Informationen über den Ringplaneten, sondern auch eine Antwort auf die Frage nach dem Ursprung des Sonnensystems und nach den Faktoren, die die Entwicklung von Leben und damit unsere Existenz ermöglichten.
Mit Swing-by-Manövern zum Saturn Um möglichst schnell zum Saturn zu gelangen, ist Cassini-Huygens mehrere „Swing-byManöver“ geflogen – zweimal an der Venus und je einmal an Erde und Jupiter. Dabei nutzte das Raumfahrzeug die Schwerkraft der Himmelskörper aus, um „Schwung“ zu holen und die für die Reise ins äußere Sonnensystem notwendige Geschwindigkeit zu erreichen. Erst durch dieses Prinzip des „Gravity Assist“, das große Mengen an Treibstoff spart, die zurück gelegte Flugstrecke aber erheblich verlängert, sind Reisen in die äußeren Bereiche unseres Sonnensystems möglich.
Ankunft am Herrn der Ringe
Am 1. Juli 2004 kamen die beiden Raumsonden Cassini und Huygens schließlich nach fast siebenjähriger Reise durchs All und 3,5 Milliarden zurückgelegten Kilometern wohlbehalten am Ringplaneten an. Seitdem haben sie so viele Daten von Saturn, seiner Umgebung und seinen Monden gesammelt, dass die Wissenschaftler mit der Auswertung der Bilder und Messergebnisse trotz modernster Computer in den Bodenstationen kaum hinterher kommen. 2005 und 2006 brachten aber schon eine ganze Flut an wichtigen Erkenntnissen über den Herrn der Ringe. Teilweise bestätigten Cassini und Huygens dabei die bisherigen Vermutungen der Wissenschaftler, die Sonden deckten aber auch eine Reihe von bisher unbekannten Phänomenen auf...
Geheimnisvolle Ringe Sensationelle neue Ergebnisse lieferte Cassini etwa über den Ursprung der Saturnringe. Bisher gab es dazu zwei unterschiedliche Hypothesen: Laut der „Kollisionstheorie“ gehen die Ringe auf den Zusammenstoß des Planeten mit einem Kometen oder Asteroiden zurück. Sie könnten aber auch die verstreuten Trümmer von früheren Saturnmonden sein, die durch Kollisionen oder Meteoriteneinschläge auseinanderbrachen. Für die Anhänger der „Relikttheorie“ dagegen ist das Ringmaterial ein Überbleibsel aus der Frühzeit der Planetenentstehung vor Milliarden von Jahren. Die Staub- und Eisbrocken wären demnach einfach erhalten geblieben, als die Planeten und Monde aus der großen Staubund Gasscheibe des Sonnensystems kondensierten. Physiker der Universität Potsdam haben im April 2006 Indizien dafür gefunden, dass die Kollisionstheorie stimmt. Cassini spürte
Titans Oberfläche aus der „Fischaugen-Perspektive“ © ESA/NASA/JPL/University of Arizona
67
Pioniere der Saturnforschung: Cassini und Huygens Der Name Cassini-Huygens für die Mission von NASA, ESA und ASI geht zurück auf zwei Pioniere der Astronomie und speziell der Saturnforschung: den französisch-italienischen Wissenschaftler Giovanni Domenico Cassini und seinen niederländischen Kollegen Christiaan Huygens. Während Huygens Mitte des 17. Jahrhunderts den größten Saturnmond Titan entdeckte und die wahre Natur der Saturnringe erkannte, spürte Cassini nur wenige Jahre später vier weitere bis dahin unbekannte Trabanten auf: Iapetus, Rhea, Tethys und Dione. Er wies aber auch erstmals nach, dass die Saturnringe durch eine schmale Lücke – die so genannte Cassini-Teilung – in zwei Gruppen getrennt sind.
A-Ring des Saturn © NASA/JPL/University of Colorado
68
mittlerweile sechs so genannte Moonlets in den Saturnringen auf – Objekte mit einer Größe von einigen Hundert Metern bis zu einigen Kilometern Durchmesser, die sich durch propellerartige Strukturen in den Ringen bemerkbar machen. Solche Moonlets entstehen jedoch fast ausschließlich bei einer kosmischen Kollision. Eisgeysire speisen E-Ring
Auch bei der Frage, woher der beständige Nachschub an Eis- und Staubpartikeln für die Ringe stammt, sind die Wissenschaftler seit Cassini einen Schritt weiter – zumindest was den E-Ring betrifft. Geholfen hat ihnen dabei der Cosmic Dust Analyzer (CDA) an Bord der Raumsonde. Der Staubdetektor wurde am Max-Planck-Institut für Kernphysik speziell für die Mission entwickelt und analysiert die Teilchen auf ihre elektrische Ladung, Geschwindigkeit, Flugrichtung und Masse. Er kann aber auch erstmals die chemische Zusammensetzung der Partikel bestimmen. Wie die Messungen des CDA in Kombination mit Computersimulationen ergaben, wird der riesige E-Ring von bisher unbekannten Eisgeysiren auf dem Saturnmond Enceladus gespeist. Verschiedene internationale Forscherteams unter Beteiligung des
Max-Planck-Instituts für Kernphysik konnten im März 2006 nachweisen, dass die Eisgeysire aus der Südpolregion andauernd Eisteilchen in den Weltraum schleudern. Die Partikel bildeten sich vermutlich in tiefen Spalten der Mondoberfläche aus Wasserdampf. Die Existenz der Eisgeysire wurde auch durch fotografische Aufnahmen vom Südpol bestätigt, auf denen deutlich geologisch junge Strukturen zu erkennen waren. Infrarotaufnahmen deuteten zudem auf eine erhöhte Wärmeabstrahlung in deren Umgebung hin. Sensation für die Fachwelt
„Die Entdeckung der Staubquelle auf Enceladus war für die Fachwelt eine Sensation“, kommentierte der Astrophysiker Alexander Krivov von der ebenfalls beteiligten Universität Jena die Ergebnisse. Bisher hatte man vermutet, dass die Eisteilchen durch das Bombardement der Mondoberfläche mit winzigen Meteoriten oder mit Ringteilchen hochgeschleudert werden. Die Wissenschaftler fanden damit aber nicht nur eine Erklärung für das „Überleben“ des Rings, sondern wiesen zudem bereits zum dritten Mal (nach der Erde und dem Jupitermond Io) aktiven Vulkanismus im Sonnensystem nach.
KOSMOS
Eine tiefgefrorene Urerde? – der Saturnmond Titan 47 Monde und damit so viele wie kein anderer Planet in unserem Sonnensystem besitzt der Saturn. Einer von ihnen ist für die Astronomen jedoch besonders interessant: Titan. Er wurde nicht nur als erster Trabant überhaupt entdeckt und übertrifft mit 5.150 Kilometern Durchmesser sogar Merkur und Pluto an Größe; er besitzt auch als einziger Mond im Sonnensystem eine dichte Atmosphäre. Die Schutzhülle von Titan reicht zehnmal so weit ins All wie die irdische und besteht vor allem aus Stickstoff, Methan und verschiedenen weiteren Gasen. So ähnelt die Atmosphäre jener der Urerde vor mehr als drei Milliarden Jahren, als die ersten primitiven Organismen entstanden. Bis zur Ankunft von Cassini-Huygens war der Saturnmond für die Astronomen jedoch wie ein Buch mit sieben Siegeln, denn ein Schleier aus rötlichen Schwebteilchen verbirgt seine Oberfläche vollständig. Bietet Titan trotz der eisigen Kälte von -178 °C günstige Bedingungen für die Entstehung von Leben? Gibt es dort erdähnliche Landschaften oder Wetterphänomene wie Regen und Schnee? Und welche Zusammensetzung hat die Gashülle des größten Saturnmondes genau? Diese Fragen sollte CassiniHuygens beantworten. Der Orbiter Cassini „durchleuchtete“ dazu mithilfe seines Radars die Atmosphäre und lieferte erste spektakuläre Bilder von der Oberfläche des Titan. Die Landesonde Huygens dagegen sammelte während ihres Sinkfluges und auch für mehr als eine Stunde nach der Landung große Mengen an Daten über die Zusammensetzung der Atmosphäre und die Struktur der Oberfläche. Mithilfe des Descent Imager/Spectral Radiometer (DISR) an Bord von Huygens gelangen zudem klare und scharfe Bilder von der Mondoberfläche. DISR besteht aus einem Verbund von 14 Kameras,
Spektrometern für sichtbares und infrarotes Licht sowie Fotometern und wurde extra für diese Mission entwickelt. Flüsse, Seen, Küsten
Was auf den Radarbildern und DISR-Aufnahmen zum Vorschein kam, entpuppte sich auf den ersten Blick als tatsächlich verblüffend „irdische“ Welt. So existieren beispielsweise ausgetrocknete Flussläufe, die aus einem höher gelegenen Gebiet in ein tiefes, flaches Terrain führen, begrenzt durch eine Art Küstenlinie, wie ein internationales Wissenschaftlerteam unter Beteiligung des MaxPlanck-Instituts für Sonnensystemforschung im Dezember 2005 feststellte. Wenige Monate später, im Juli 2006, spürte Cassini in den arktischen Regionen des Mondes zudem mehrere Dutzend Seen auf. Sie sind zwischen einem und 30 Kilometer breit und nach Ansicht der Wissenschaftler von NASA und dem U.S. Geological Survey vermutlich mit flüssigem Methan und/oder Ethan gefüllt. Der größte See erreicht sogar eine Länge von fast 100 Kilometern, scheint aber teilweise ausgetrocknet zu sein. Wie die Auswertung der Daten weiter ergab, übernimmt Methan in der exotischen Titanwelt die Rolle des Wassers auf der Erde und ist sowohl in festem, flüssigem und gasförmigem Zustand reichlich vorhanden. Wissenschaftler konnten im Juli 2006 sogar einen
Cassini-Falschfarbenbild des Saturnmonds Enceladus mit durch Eisvulkanismus erzeugter Staubfontaine. © NASA/JPL/ Space Science Institute
Falschfarbenaufnahme des Saturnmonds Titan © NASA/JPL/Space Science Institute
69
Ein Sammelsurium an Instrumenten 18 wissenschaftliche Instrumente befinden sich an Bord von Cassini und Huygens. Zu den wichtigsten Geräten zählen unter anderem das Cassini-Radar, das selbst durch die dichte Titanatmosphäre hindurch sehen kann, der Staubdetektor „Cosmic Dust Analyzer“ (CDA) und der „Descent Imager/Spectral Radiometer“ (DISR), der die Aufgabe hat, Aufnahmen von Titans Aerosolschicht, der Atmosphäre und der Oberfläche zu „schießen“. Das Instrument LEMMS, einer der drei Detektoren des so genannten „Magnetospheric Imaging Instruments“ (MIMI), ist dagegen in der Lage, Energie und Richtung von Ionen und Elektronen in der Saturn-Magnetosphäre zu ermitteln. Viele der Geräte wurden speziell für diese Mission entwickelt und kommen zum ersten Mal unter realen Bedingungen zum Einsatz.
weit gehend geschlossenen Methankreislauf nachweisen, der große Ähnlichkeit mit dem irdischen Wasserkreislauf aufweist. Vor allem aus Methan bestehen auch die dünnen Schleierwolken, aus denen beständig ein mit den Huygens-Instrumenten entdeckter, leichter Nieselregen fällt. Computersimulationen deuten darauf hin, dass diese Wolken in vielen Regionen des Mondes zu finden sind. Der Regen erodiert die Oberfläche und trägt sie im Laufe der Zeit ab. Wie spektrale Untersuchungen ergaben, sammeln sich die Niederschläge vermutlich anschließend zusammen mit dem Oberflächenmaterial in großen Seen.
So überraschend die Entdeckungen von Cassini-Huygens auch sein mögen, Hinweise auf Leben auf dem Titan haben die Sonden bisher nicht gefunden. Dennoch ziehen Wissenschaftler schon jetzt ein positives Fazit: „Die geologischen Hinweise auf Niederschläge, Erosion, mechanische Abtragungen und andere Fließvorgänge zeigen, dass die physikalischen Prozesse, die die Oberfläche des Titan formen, sich kaum von denen auf der Erde unterscheiden“, fasst Martin Tomasko, Hauptwissenschaftler des DISR die bisherigen Ergebnisse zusammen. Daten in Hülle und Fülle – die Cassini-Huygens
Steine aus Wassereis
Mission geht weiter
Huygens-Bilder aus einem solchen – zum Zeitpunkt der Aufnahme allerdings ausgetrockneten – See belegen diese Annahme. Sie zeigen auffällige, bis zu 15 Zentimeter große Trümmer, deren abgerundete Form und Größenverteilung darauf schließen lassen, dass sie durch eine Flüssigkeit dahin transportiert wurden. Nach Ansicht der Wissenschaftler bestehen diese Brocken vor allem aus Wassereis, das bei -178 °C auf dem Titan hart wie Stein geworden ist.
Obwohl die Cassini-Huygens-Mission die Erwartungen schon jetzt mehr als übertroffen hat, hoffen die Astronomen in Zukunft auf weitere spannende Ergebnisse. Denn die Auswertung der bisher von Cassini und Huygens gesammelten Daten ist noch längst nicht abgeschlossen. Und mit jeder Umkreisung des Saturn, mit jedem Nahe-Vorbeiflug von Cassini an einem der Monde bis zum Ende der Mission im Juni 2008 kommen neue hinzu.
WAS SONST NOCH GESCHAH Enceladus: Eisfontänen mit Fernwirkung Der kleine Mond Enceladus speist mit seinem Eisvulkanismus nicht nur den E-Ring des Saturn, die Auswirkungen des Phänomens können sogar noch in einer Million Kilometer Entfernung vom Trabanten nachgewiesen werden. Dies haben Wissenschaftler des Max-Planck-Instituts für Sonnensystemforschung mithilfe eines selbst entwickelten Detektors an Bord der Raumsonde Cassini entdeckt. Wie die Astronomen im März 2006 berichteten, sorgen die permanenten Eis- und Gasfontänen dort für „Löcher“ in der Magnetosphäre des Saturn. (SCIENCE, März 2006)
Eismond Enceladus
© NASA/JPL
70
Höhen-Sturm auf dem Titan Auf dem Saturnmond Titan stürmt es kräftig – zumindest 120 Kilometer hoch oben in der Atmosphäre. Messungen der Huygens-Sonde haben dort Windgeschwindigkeiten von bis zu 430 Kilometer pro Stunde ermittelt. Damit rotiert die Atmosphäre hier sogar schneller als der Mond selber, so ein internationales Forscherteam unter Beteiligung der Ruhr-Universität Bochum im Dezember 2005. In Bodennähe dagegen gibt es nur noch ein laues Lüftchen, das gerade mal drei bis vier Kilometer pro Stunde erreicht. Rätselhaft ist allerdings noch ein „Flautenloch“ in den mittleren Höhen der Atmosphäre, wo die Windgeschwindigkeiten beinahe bis auf Null absinken. (NATURE, Dezember 2005)
KOSMOS
Wissen Hoch 12: Mehr als zwei Jahre erforscht die Cassini-Huygens-Mission mittlerweile den Saturn und seine Monde. Wie fällt ihre erste
schaftler auf Teammeetings oder internationalen Tagungen, wo dann über die Ergebnisse ausgiebig diskutiert wird.
Interview
Zwischenbilanz aus?
Die Mission ist ein voller Erfolg und hat auch schon einige sehr unerwartete neue Ergebnisse geliefert: erste Bilder der Oberfläche des Mondes Titan mit Flussläufen in denen sehr wahrscheinlich Methan fließt, Schluchten auf dem Mond Enceladus aus denen Wasser herauskommt, Details aus den Ringsystemen mit zuvor nie erreichter Auflösung, Variationen der so genannten Plasmaumgebung des Saturn, die mit der gleichen Rotationsperiode wie der Planet variieren, Entdeckung von vielen neuen Monden im Saturnsystem – um nur einige zu nennen. Es heißt ja, die Atmosphäre des Titan und jene der Urerde würden sich gleichen. Wie weit gehen denn die Ähnlichkeiten? Und liefert der Blick auf die Titanhülle tatsächlich Einblicke in die frühe
Viele der wissenschaftlichen Instrumente an Bord der Raumsonden wurden extra für diese Mission gebaut. So war das MPI für Sonnensystemforschung beispielsweise an der Planung und Entwicklung des „Magnetospheric Imaging Instruments“ (MIMI) beteiligt. Welche Aufgabe hat MIMI?
MIMI misst geladene und neutrale Teilchen in der so genannten Magnetosphäre des Planeten. Innerhalb dieser Magnetosphäre ist der Einfluss des Saturnmagnetfeldes bestimmend und es laufen sehr dynamische Prozesse ab, die man mit dem bloßen Auge nicht sehen kann. Veränderungen in den Teilchenpopulationen lassen Rückschlüsse auf diese Prozesse zu. Das Instrument arbeitet sehr gut und liefert uns täglich neue Daten aus etwa 800 Millionen Kilometern zurück zur Erde.
Geschichte unseres Planeten?
Es ist richtig, dass die Zusammensetzung der Titanatmosphäre ähnlich derjenigen ist, wie auf der Erde vor mehr als vier Milliarden Jahren. Allerdings gibt es wesentliche Unterschiede. Titan ist etwa zehnmal so weit von der Sonne entfernt wie die Erde, das heißt nur etwa ein Prozent des Sonnenlichtes erreicht den Saturnmond. Die Oberflächentemperaturen auf Titan liegen bei etwa -180° C. Die Entwicklung beider Himmelskörper verlief aus diesen und anderen Gründen unterschiedlich. Welche Prozesse genau abgelaufen sind, wird Cassini vielleicht ein Stück weit erklären können. An der Auswertung der Cassini-Huygens-Daten
Voraussichtlich bis Ende Juni 2008 wird die Raumsonde Cassini noch Daten und Bilder vom Saturnsystem liefern. Erwarten Sie noch spekta-
Dr. Norbert Krupp ist Mitarbeiter der Abteilung Planeten und Kometen des MPI für Sonnensystemforschung. Sein Schwerpunkt ist die Analyse wissenschaftlicher Daten von Raumsonden, insbesondere Daten der Magnetosphären von Jupiter und Saturn, aber auch bodengebundener Beobachtungen der Photosphäre und Chromosphäre der Sonne. © Norbert Krupp
kuläre Ergebnisse?
Cassini hat und wird auch in den folgenden Jahren wissenschaftlich hoch interessante Daten liefern. In den nächsten beiden Jahren wird sich die Bahn der Raumsonde im Saturnsystem verändern. Im Laufe des nächsten Jahres wird Cassini über Nord- und Südpol des Planeten fliegen. Da kann man sicher neue Ergebnisse erwarten. Man redet auch schon über eine mögliche Verlängerung der Mission für die Dauer von weiteren zwei Jahren. „The show has just begun“, wie die Amerikaner sagen.
sind Wissenschaftler aus der ganzen Welt beteiligt. Wie klappt die Zusammenarbeit?
Die Zusammenarbeit im Projekt Cassini/ Huygens verläuft sehr gut. In regelmäßigen Abständen treffen sich die beteiligten Wissen-
71
72
ERDE, WETTER, KLIMA Die Erde ist ein unruhiger Planet, der durch Erdbeben, Tsunamis, Stürme oder Vulkane ständig verändert und zum Teil neu geschaffen wird. Viele der Prozesse und Mechanismen, die das Antlitz unseres Planeten formen, sind jedoch noch immer nicht endgültig verstanden. Wissenschaftler weltweit untersuchen deshalb das System Erde, seine Dynamik sowie die vielen Wechselwirkungen zwischen der Atmosphäre, dem Meer und der festen Erde. Die Erwärmung der Erde könnte dazu beitragen, dass wir in Zukunft mehr Hurrikans der Kategorie 4 oder 5 erleben. Ist die Zunahme von Extremwetterereignissen ein Vorbote des Klimawandels? Wie viel Schuld an der globalen Erwärmung trägt der Mensch mit seinen enormen Treibhausgasemissionen? Und: Wie wird das Klima der Zukunft aussehen? Immer präzisere Antworten auf diese Fragen liefern neue Klimasimulationen, die mithilfe leistungsfähiger Supercomputer und verbesserten Modellen durchgeführt wurden. Fazit: Der Klimawandel wird in den kommenden 100 Jahren vermutlich so rasant voranschreiten wie noch nie – auch in Deutschland. Naturkatastrophen haben die Menschen schon immer bedroht. Ihre Vorhersage und damit die Einleitung entsprechender Schutzmaßnahmen stehen daher im Mittelpunkt der Arbeiten zahlreicher Geowissenschaftler. Doch weder für einen Tsunami noch für einen Vulkanausbruch oder ein Erdbeben gibt es bisher die Möglichkeit einer präzisen Prognose. Allerdings sind die Geowissenschaftler bei der Erforschung der Mechanismen, die bei diesen Ereignissen ablaufen, einen erheblichen Schritt weitergekommen. Sie könnten damit zumindest zum Ausbau von Frühwarnsystemen beitragen, die helfen sollen, die Zahl der Opfer zu reduzieren.
Die Erde aus dem All © NASA/NOAA/USGS
Klimawandel – so rasant wie noch nie?
74
Naturkatastrophen: frühere Warnung, bessere Überwachung
85
73
Klimawandel: Ungemütliche Aussichten © NOAA, Grant W. Goodge
Klimawandel – so rasant wie noch nie? „Deutschland muss sich spätestens zur Mitte des Jahrhunderts auf die Zunahme extremer Wetterereignisse wie starke Sommergewitter oder längere Trockenperioden einstellen. Der globale Klimawandel, in dem wir uns befinden, hat definitiv auch Auswirkungen bei uns“, prophezeit Daniela Jacob vom Max-PlanckInstitut für Meteorologie in Hamburg. Doch das ist längst noch nicht alles: Die Durchschnittstemperaturen hierzulande werden nach Angaben der Klimaforscherin in den kommenden 100 Jahren voraussichtlich um 2,5 bis 3,5 °C steigen – je nachdem, wie sich die Treibhausgas-Emissionen in Zukunft entwickeln. Die Vorboten dieser Entwicklung haben Deutschland möglicherweise schon erreicht. Denn die so genannten Jahrhundertsommer häufen sich. Auch im Jahr 2006 gab es im Juni und Juli Temperaturen von weit über 30 °C, kaum Wolken, geschweige denn Regen – und das wochenlang am Stück. Zuletzt hatte 2003 eine ähnliche extreme Hitzewelle sogar für viele tausend Tote und Ernteschäden in Milliardenhöhe gesorgt. Aber nicht nur die Sommer, sondern auch die Winter drohen nach den Erkenntnissen der Klimaforscher in Zukunft ungemütlicher zu werden. „Wir müssen mit 20 bis 30 Prozent mehr Niederschlägen rechnen, ein Großteil davon als Regen“, sagt Jacob. Für die Alpen erwartet sie in Zukunft deutlich weniger Schnee. Grund: Durch die
74
ERDE, WETTER, KLIMA
höheren Temperaturen fällt der Niederschlag auch im Gebirge in erster Linie in Form von Regen. Soweit die Prognosen der Klimaforscher. Doch wieso können die Meteorologen überhaupt so präzise Aussagen über das Klima der nächsten 100 Jahre machen, wenn selbst der Drei-Tage-Wetterbericht mitunter noch falsche Vorhersagen enthält? Und: Wie sicher sind ihre Prognosen? Modelle: Das Handwerkszeug der Klimaforscher
Bei der Antwort auf diese Fragen kommen so genannte Klimamodelle ins Spiel. Dabei handelt es sich um komplexe Gleichungssysteme mit zahlreichen Variablen wie Temperatur, Luftdruck, Windgeschwindigkeit und Gehalt an Wasserdampf in der Atmosphäre, die das Klimageschehen beschreiben. Um eine möglichst hohe räumliche Auflösung zu erreichen, teilen die Forscher das Modell der Erde und Atmosphäre zuvor in Würfel. Für jeden einzelnen Würfel berechnet der Computer dann ein „lokales“ Klima – einen der vielen Puzzlesteine, die sich schließlich zu einem aussagekräftigen Gesamtbild der Klimaentwicklung zusammenfügen. Je höher die Auflösung der Klimamodelle, desto genauer und realistischer werden die Szenarien. Für eine exakte Abbildung der Natur müssten die Forscher das Modell in unendlich viele kleine Würfel teilen. In diesem Fall würde der Computer aber auch unendlich lange benötigen, um das Klima zu berechnen. Die Forscher müssen sich deshalb bei ihren gekoppelten globalen Klimamodellen mit einer räumlichen Auflösung von 100 bis 200 Kilometern (das entspricht der Kantenlänge eines Würfels) begnügen. Der Rechner benötigt dann knapp einen Monat, um das Klima für die kommenden 100 Jahre zu simulieren.
Bild: Elbehochwasser 2006 in Hitzacker © Harald Frater „Jahrhunderthochwasser“ als Vorbote des Klimawandels? Das „Jahrhunderthochwasser“ an der Elbe traf im April 2006 die meisten Anrainer unerwartet heftig. In vielen Orten Norddeutschlands übertraf die Flut sogar die Rekordwerte der letzten Elbeflut im Jahr 2002. Zwei schwere Hochwasserkatastrophen innerhalb von vier Jahren – Zufall oder doch ein Beleg dafür, dass der Klimawandel bereits begonnen hat? Während Umweltorganisationen glauben, dass die erneute Jahrhundertflut genau den prognostizierten Szenarien des Klimawandels entspricht, sind die Wissenschaftler vorsichtiger. Sie warnen davor, solche Extremwetterereignisse gleich auf die globale Erwärmung zurückzuführen, und begründen dies mit der natürlichen Schwankungsbreite des Klimas. Erst wenn solche Extremereignisse über einen längeren Zeitraum gehäuft auftreten, könnte ein Klimawandel als Ursache in Betracht kommen.
75
Wie gut sind die Klimamodelle?
Um die Qualität ihrer Klimamodelle beurteilen zu können, berechnen die Forscher Klimaszenarien der Vergangenheit und vergleichen die Ergebnisse mit den tatsächlichen Beobachtungsdaten. Nur bei ausreichender Übereinstimmung können sie davon ausgehen, dass ihr Computermodell auch gut genug ist, um das Klima der Zukunft vorherzusagen. „Auf diese Weise konnten die theoretischen Modelle an die Wirklichkeit angepasst werden“, erläutert Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie. Gekoppelte Modelle
In den vergangenen Jahren haben die Forscher ihre Handwerkszeuge, die Klimamodelle, in entscheidenden Punkten verbessert – und damit auch die Qualität ihrer Prognosen. Mittlerweile werden die einzelnen Komponenten des Erdsystems, also Ozeane, Atmosphäre und die feste Erde nicht mehr isoliert voneinander betrachtet und erforscht. Denn zwischen diesen Komponenten gibt es eine Vielzahl von Wechselwirkungen – jede Änderung einer Komponente beeinflusst das ganze System. Klimaforscher setzen deshalb auf so genannte gekoppelte Modelle. Wird zum Beispiel die Zusammensetzung der Atmosphäre durch Zugabe von Kohlendioxid verändert, so erwärmt sich das Klima, der Meeresspiegel steigt und Pflanzen wachsen schneller. Diese Veränderungen wiederum beeinflussen die Zusammensetzung der Atmosphäre, wodurch vielfache Rückkopplungen entstehen. „Lange Zeit ging man davon aus, dass das physikalisch-geologische Klimasystem das Primat besitzt und sich biologische Prozesse diesem unterordnen“, erklärt Marotzke. „Tatsächlich besitzt die Biosphäre auf der Erde aber das Potenzial, das Erdsystem wesentlich zu beeinflussen.“ So stellen beispielsweise Änderungen in der Stärke der „biologischen Pumpe“
76
der Ozeane über längere Zeiträume einen der wichtigsten Kontrollmechanismen der atmosphärischen Kohlendioxid-Konzentration dar. Dabei nehmen marine Mikroorganismen Kohlendioxid auf und verfrachten es – wenn sie absterben – als organische Kohlenstoffverbindungen in die Tiefe. Ohne diese „biologische Pumpe“ läge nach Schätzung der Hamburger Experten die CO2-Konzentration in der Atmosphäre heute bei 580 statt bei 380 ppm (parts per million). Darüber hinaus fügen die Forscher ihren Klimarechnungen heute auch noch andere wichtige Variablen hinzu. Unberechenbare Aerosole?
Neue „Mitspieler“ in den Klimasimulationen sind beispielsweise Aerosole. Diese winzigen Teilchen (ein mittelgroßes Aerosolpartikel misst etwa 100 Nanometer) gelangen über die Gischt der Ozeane, die Staubfracht von Stürmen, bei Vulkanausbrüchen oder durch die Verbrennung fossiler Energieträger in die Atmosphäre. Hier streuen oder absorbieren die feinen Partikel Licht- und Wärmestrahlung und behindern dadurch den Energiefluss von der Sonne auf die Erde sowie umgekehrt von der Erde zurück in den Weltraum. Tendenziell wirken Aerosole in der Atmosphäre abkühlend. „Seit Beginn der Industrialisierung haben sie vermutlich die Durch-
Globale Wolkendicke, Temperaturanomalien im Pazifik durch El Nino und Verteilung von Waldbränden – erstellt auf der Basis von Daten verschiedener Satelliten und Sensoren © R.B. Husar, Washington University; Landoberfläche: SeaWiFS Project; Feuerkarten: European Space Agency; Meeresoberflächentemperaturen: Naval Oceanographic Office‘s Visualization Laboratory; Wolken: SSEC, U. of Wisconsin
ERDE, WETTER, KLIMA
77
Klimaschutz: Guter Ruf als Köder Kann man Menschen davon überzeugen, Geld für den Kampf gegen die globale Erwärmung und ihre Folgen zu spenden? Dieser Frage sind Max-Planck-Wissenschaftler im Jahr 2006 in Spielexperimenten mit Studenten nachgegangen. Ergebnis: Firmenchefs, Manager oder „Normalbürger“ engagieren sich vor allem dann für den Klimaschutz, wenn sie über das Thema gut informiert sind und ihre gute Tat – beispielsweise eine größere Investition – bekannt gemacht wird. Die Geber erhalten so öffentliche Anerkennung, die ihnen offenbar mindestens genauso wichtig ist wie das gezahlte Geld. „Tue Gutes, wenn andere das auch sehen können“ – diese Grundeinstellung des Menschen müssen Politiker und Umweltschützer berücksichtigen, wenn Strategien und Aktionen zum Klimaschutz Erfolg haben sollen. (PNAS, Februar 2006)
schnittstemperaturen auf der Erde um 0,4 °C Celsius gesenkt und damit die globale Erwärmung in den letzten 100 Jahren auf 0,6 °C begrenzt“, so Johannes Quaas, Nachwuchsgruppenleiter am Max-Planck-Institut für Meteorologie. Doch die Aerosole und ihre Rolle im Klimageschehen sind nach wie vor nicht ausreichend untersucht und gelten daher noch immer als erhebliche Unsicherheitsfaktoren in Klimamodellen. So wirken Aerosole unter bestimmten Bedingungen nicht abkühlend, sondern können den Treibhauseffekt sogar noch verstärken. Und auch ihr Einfluss auf die Wolkenbildung ist längst nicht abschließend geklärt. Manchmal fördern sie die Wolkenentstehung, manchmal jedoch hemmen sie diese auch. Wissenschaftler vom Goddard Space Flight Center der NASA in Kalifornien und vom israelischen Weizman Institut haben im Juli 2006 erstmals entdeckt, warum dies so ist. Offenbar ist die Färbung der Aerosolpartikel entscheidend: Wenn helle, Licht reflektierende Aerosole in der Atmosphäre vorherrschten, gab es auch viele Wolken. Deutlich weniger Wolken registrierten die Messinstrumente immer dann, wenn dunklere, Licht absorbierende Aerosole dominierten – eine Erkenntnis, die in Zukunft auch in die Klimamodelle mit einfließen wird. Die Forschung an Aerosolen ist deshalb „einer der wesentlichen Schlüssel für bessere Klimamodelle“, sagt Quaas. „Nur wenn wir die Aerosoleffekte verstehen, können wir langfristige Klimaveränderungen vorhersagen.“ Mehr Teraflops für bessere Simulationen
Ohne HLRE geht in der deutschen Klimaforschung gar nichts. HLRE steht für „Höchstleistungsrechnersystem für die Erdsystemfor-
Die Auflösung der Klimamodelle nimmt immer weiter zu: Von einem Gitterabstand von rund 500 km (T21) über 250 km (T42) zu heute 180 km (T63). Zukünftig soll eine Auflösung von 110 km (T106) erreicht werden© Max-Planck-Institut für Meteorologie, Norbert Noreiks
78
ERDE, WETTER, KLIMA
schung“, und dieses ist am Deutschen Klimarechenzentrum (DKRZ) in Hamburg zu Hause. Erst Anfang 2004 wurde „das zentrale Arbeitsgerät der Forscher, die mit Klima- und Erdsystemmodellen das vergangene, das heutige und das zukünftige Klima untersuchen“, so Michael Böttinger vom DKRZ, endgültig fertig gestellt. Jahrelang hatten die Klimaforscher auf ihren neuen, 34 Millionen Euro teuren Supercomputer gewartet. Dieser hat mit 1,5 Teraflops hundertmal so viel Rechenleistung wie sein Vorgänger, die CRAY 90. HLRE verkürzt die Zeit, die für die Klimarechnungen benötigt wird, deutlich und macht andere, noch viel datenintensivere Simulationen überhaupt erst möglich. Bei der alten CRAY kamen schnell 100 Tage Rechenzeit für 100 Jahre Simulation zusammen – selbst bei geringerer Auflösung der Klimamodelle. Der neue HLRE konnte seine enorme Leistungsfähigkeit mittlerweile unter Beweis stellen. So haben die Wissenschaftler um Daniela Jacob damit die neuen Klimaszenarien für Deutschland mit einer Auflösung von zehn Kilometern berechnet. Und zwischen Mai 2004 und Mai 2005 kam der Supercomputer ebenfalls zum Einsatz, um wichtige Szenarien für den 4. Klima-Statusbericht des IPCC (Intergovernmental Panel on Climate Change) zu ermitteln. „Mit gekoppelten AtmosphäreOzean-Modellen wurden in 18 einzelnen Experimenten insgesamt etwa 5.000 Jahre simuliert“, so DKRZ-Experte Böttinger. Höhere Temperaturen, steigender Meeresspiegel
Die IPCC-Studie erscheint zwar erst im Jahr 2007, doch die Ergebnisse der Modellrechnungen sind schon jetzt eindeutig: Das Klima wird sich aller Voraussicht nach im 21. Jahrhundert so schnell ändern wie noch nie in der jüngeren Erdgeschichte. Die Simulationen sagen einen Anstieg der globalen
Temperatur um bis zu vier Grad Celsius innerhalb der nächsten zehn Dekaden voraus. Als Folge der Erwärmung wird sich der Meeresspiegel durchschnittlich um bis zu 30 Zentimeter erhöhen – mindestens. „Das wesentliche Ergebnis der Zukunftsszenarien ist die fortschreitende Erhöhung der globalen Mitteltemperatur und die damit verbundene Verschiebung von Klimazonen“, kommentiert Erich Roeckner, Projektleiter der Hamburger Modellrechnungen, die Resultate der Simulationen. Die Wissenschaftler konnten damit die Vermutung bestätigen, dass der Mensch einen großen und bislang nie da gewesenen Einfluss auf unser Klimageschehen hat. Die Folgen eines derart gravierenden Klimawandels für Mensch und Natur wären enorm. In der Arktis beispielsweise werden die Eisbären vermutlich nicht mehr lange von Eisscholle zu Eisscholle wandern, da es dort wegen des schmelzenden Meereises in einigen Jahrzehnten gar keine Schollen mehr geben wird. Eine Studie des Nationalen Schnee- und Eisdatenzentrums der USA (NSIDC), die Ende 2005 vorgestellt wurde, unterstützt diese Annahme. Die Wissenschaftler kommen darin zu dem Schluss: „Wenn der derzeitige Schwund des Meereises anhält, könnte die Arktis bis zum Ende des Jahrhunderts im Sommer komplett eisfrei sein.“
Offene Stellen im Meereis der Antarktis © NOAA
79
ECMWF (European Centre for Medium-Range Weather Forecasts) Wo: Reading/Großbritannien Maximale Rechenleistung: zwei Supercomputer mit jeweils 9,241 TFlop/s Aufgabe: Wetter- und Klimaforschung
The U.S. Department of Energy‘s National Energy Research Scientific Computing Center (NERSC) / Lawrence Berkeley National Laboratory (NERSC/LBNL) Wo: Berkeley/USA Maximale Rechenleistung: 7,304 TFlop/s Aufgabe: unter anderem Wetter- und Klimaforschung
National Centers for Environmental Prediction Wo: Camp Spring/USA Maximale Rechenleistung: zwei Supercomputer mit jeweils 4,379 TFlop/s Aufgabe: Wetter- und Klimaforschung NCAR (National Center for Atmospheric Research) Wo: Boulder/USA Maximale Rechenleistung: 4,713 TFlop/s Aufgabe: Wetter- und Klimaforschung
Standorte von Supercomputern für die Klimaforschung
80
Geoscience (E) Wo: Houston/USA Maximale Rechenleistung: 12,312 TFlop/s Aufgabe: Geophysikalische Forschung
ERDE, WETTER, KLIMA
China Meteorological Administration Wo: Peking/China Maximale Rechenleistung: 10,31 TFlop/s Aufgabe: Wetter- und Klimaforschung Japan Meteorological Agency Wo: Tokio/Japan Maximale Rechenleistung: zwei Supercomputer mit jeweils 9,036 TFlop/s, ein weiterer mit 4,993 TFlop/s Aufgabe: Wetter- und Klimaforschung
Korea Meteorological Administration
Earth Simulator (NEC)
Wo: Seoul/Südkorea Maximale Rechenleistung: 15,706 TFlop/s Aufgabe: Wetter- und Klimaforschung
Wo: Yokohama/Japan Maximale Rechenleistung: 35,860 TFlop/s Aufgabe: Simulation von geophysikalischen, klimatischen und wetterbedingten Phänomenen
Forschungszentrum Jülich / Blue Gene (JUBL) Der zurzeit schnellste Supercomputer der Welt für die freie Forschung steht im Forschungszentrum Jülich. Der Jülicher Blue Gene (JUBL) hat eine maximale Rechenleistung von 37,33 Teraflops pro Sekunde (TFlop/s). Dies sind 37,33 Billionen Rechenschritte pro Sekunde oder weit mehr als das 10.000-fache der Leistung eines modernen Personal Computers. JUBL wird beispielsweise zur Simulation der Schadstoffausbreitung im Erdreich und in der Atmosphäre eingesetzt.
81
Aber nicht nur die Polregionen müssten dem atemberaubend schnellen Tempo des Klimawandels Tribut zollen, auch für viele andere Regionen weltweit sagen Forscher schwerwiegende Folgen voraus. Da die Ozeane nicht nur immer mehr Wasser führen, sondern auch wärmer werden, verstärken sich in vielen Regionen der Welt die Tropischen Wirbelstürme. So hat sich die Zahl der Hurrikans der Kategorien 4 und 5 in den letzten 35 Jahren nahezu verdoppelt – für die Forscher des Georgia Institute of Technology in den USA eine eindeutige Folge des Klimawandels. Ein Modell für das System Erde
Messturm in Sibirien Seit September 2006 ist in Zentralsibirien eine neue Klimaforschungsstation in Betrieb. Dabei handelt es sich um einen 300 Meter hohen Messturm, die Zotino Tall Tower Observation Facility (ZOTTO). Die Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena und vom Max-Planck-Institut für Chemie in Mainz wollen von ihm aus mindestens 30 Jahre lang die für das Weltklima relevanten chemischen Bestandteile der Atmosphäre, insbesondere das Kohlendioxid (CO2) messen. Der Turm ergänzt ein Messnetz aus rund 30 über ganz Europa verteilten Stationen, mit dem die EU die Rolle des Kontinents im globalen Kohlenstoffkreislauf klären will. ZOTTO beobachtet dabei die Weite Westsibiriens, die Daten von der Turmspitze sind repräsentativ für ein Gebiet von bis zu einer Million Quadratkilometer. Bei der Prognose des Weltklimas gehören die endlosen Wälder Sibiriens bisher zu den großen Unbekannten. Denn nach wie vor ist nicht geklärt, ob sie mehr CO2 aufnehmen oder abgeben. Hinzu kommt, dass die globale Erwärmung die Permafrostböden Sibiriens auftauen könnte. Bakterien wären dann in der Lage, den Humus besser anzugreifen und damit mehr CO2 und andere Treibhausgase freizusetzen – mit „potenziell ernsten Konsequenzen“, wie die Max-Planck-Forscher befürchten. Andererseits könnten höhere Temperaturen aber auch zu stärkerem Pflanzenwachstum und damit zu einer vermehrten Bindung von CO2 führen. Außer den Treibhausgasen tragen die Wälder Sibiriens aber auch zur atmosphärischen Aerosolbelastung bei. Vor allem die vielen Waldbrände in Sibirien erzeugen gewaltige Rauchwolken, die oft weite Teile der Region einhüllen. Die dabei freigesetzten Rußteilchen beeinflussen die Strahlungsbilanz und die Bildung von Wolken und Niederschlag. Auch der Effekt dieser Prozesse auf das Klima ist bisher nur unvollständig bekannt. Um ihre Computersimulationen zu prüfen und zu verbessern, brauchen die Forscher die Daten von ZOTTO. Denn dass die Atmosphäre sich erwärmt, ist mittlerweile Konsens – nur um wie viel, darüber klaffen die Prognosen noch weit auseinander. Bild: Messturm in Nordostsibirien © MPG
82
So genau die Klimaprognosen heute auch schon sein mögen, den Forschern ist das noch nicht genug. Sie wollen ihre Modelle in den kommenden Jahren weiter verbessern. Am Ende soll ein umfassendes Erdsystemmodell stehen, das alle Prozesse in der Atmosphäre, in den Weltmeeren, in der Biosphäre und in den Eismassen berücksichtigt – einschließlich der Wechselwirkungen zwischen den verschiedenen Komponenten. Und es wird auch den Einfluss des Menschen auf das System Erde einbeziehen und erklären, wie wir mit unseren Treibhausgas- und Aerosolemissionen das Weltklima verändern. Allerdings reicht dafür die Rechenkapazität von HLRE und anderer Höchstleistungsrechner weltweit nicht aus. Der Wettlauf um mehr Teraflops wird daher auch in Zukunft weitergehen, um den Klimawandel im 21. Jahrhundert noch präziser vorherzusagen und die „richtigen“ Klimaschutzmaßnamen in die Wege zu leiten.
Gewinner und Verlierer Ökologische und ökonomische Auswirkungen des Klimawandels in Deutschland Schäden durch Wetterextreme:
Für Schäden in Höhe von 16,5 Milliarden Euro haben extreme Wetterereignisse in den letzten zehn Jahren in Deutschland gesorgt. Tendenz stark steigend. Nach Schätzungen des Umweltbundesamtes könnte der Klimawandel 2050 bereits 27 Milliarden Euro jährlich kosten. Landwirtschaft:
Am schlimmsten betroffen vom drohenden Klimawandel in Deutschland ist vermutlich die Landwirtschaft. Durch steigende Temperaturen und vor allem Dürreperioden drohen besonders im Nordosten des Landes Ernteausfälle von bis zu 40 Prozent. Auch Obstbauern und Forstwirte müssen in Zukunft mit deutlich geringeren Erträgen rechnen. Viele unserer heimischen Baumarten werden
ERDE, WETTER, KLIMA
in einem heißeren Klima weniger Früchte beziehungsweise Holz liefern oder sogar ganz verschwinden. In Süddeutschland, aber auch in anderen Regionen des Landes, raten Experten deshalb beispielsweise bei Neuanpflanzungen schon heute zu wärmetoleranten Obstbaumsorten, die auch Trockenzeiten gut überstehen. Tourismus:
Weniger Schnee in den Alpen, das bedeutet auch einen Rückgang des Tourismus – vor allem im Winter während der Skisaison. Die deutsche Nord- und Ostseeküste und die vor gelagerten Inseln dagegen würden vom Klimawandel möglicherweise sogar profitieren. Höhere Temperaturen und mehr Sonne könnten die Urlauber künftig noch zahlreicher an die Strände von Baltrum bis Usedom locken. Biodiversität:
Die erwarteten Klimaänderungen werden dafür sorgen, dass viele heute bei uns heimische Tier- und Pflanzenarten in kühlere Gefilde abwandern oder sogar aussterben. Nach den Prognosen von Wissenschaftlern und Naturschützern könnten bis 2050 zwischen fünf und 30 Prozent aller Pflanzenarten aus Deutschland verschwinden. Doch auch für „Nachschub“ hinsichtlich der Artenvielfalt sorgt der Klimawandel:
Schon jetzt werden in Deutschland zahlreiche Tiere und Pflanzen gesichtet, die eigentlich viel weiter südlich zuhause sind. Dazu gehört beispielsweise der Dornfinger, eine nachtaktive Webspinne, die bis in die 1960er-Jahre nicht nördlich des Mains gefunden wurde. In den letzten Jahrzehnten hat sie ihr Areal jedoch bis nach Berlin ausgeweitet. Gleiches gilt für den Bienenfresser, der sich ebenfalls in Europa in Richtung Norden ausbreitet, und von dem mittlerweile in Dänemark schon Brutpaare beobachtet wurden. Im Juli 2006 konnte man vor der Küste Cornwalls sogar eine Gruppe von 19 Mondfischen beobachten, die sich vermutlich aufgrund der gestiegenen Wassertemperaturen dort eingefunden hatte. Dieser drei Meter lange und vier Meter hohe, weltweit größte Knochenfisch kommt normalerweise in den warmen Meeren Asiens, Afrikas und Australiens vor. Auf manch andere Zuwanderung würden wir jedoch gerne verzichten: In Griechenland, Spanien und Italien werden Ärzte durch die Einwanderung der Anopheles-Mücke aus Afrika künftig häufiger mit Malaria und anderen Tropenkrankheiten zu kämpfen haben.
Krankheitsübertragende Stechmückenarten wie hier Aedes aegypti könnten zukünftig auch in Deutschland häufiger auftreten. © CDC, James Gathany
Klimaschutz: Schnelles Handeln lohnt sich Wenn möglichst viele Länder jetzt schnell in den Klimaschutz investieren, würde sich dies auch wirtschaftlich lohnen. Das geht aus neuen Modellrechnungen des Umweltbundesamtes und des Potsdam-Instituts für Klimafolgenforschung hervor. Danach würde es nur ein Prozent der weltweiten Wirtschaftsleistung kosten, den globalen Ausstoß an Treibhausgasen bis 2050 um 50 Prozent gegenüber 1990 zu senken und so den globalen Temperaturanstieg auf 2°C zu begrenzen. Dies ist nach Ansicht von Klimaforschern nötig, um den Klimawandel zu bremsen und die sich daraus ergebenden Folgen auf ein erträgliches Maß zu beschränken. Ein weiteres Zögern beim Klimaschutz würde dagegen teuer: Geht die globale Erwärmung ungebremst weiter, drohen Klimaschäden in Höhe von mindestens zehn Prozent der Weltwirtschaftsleistung.
83
Interview
Wissen hoch 12: Wie geht die Entwicklung
Ist die globale Erwärmung noch in den Griff zu
weiter? Wann wird es ein umfassendes Erdsys-
bekommen?
temmodell zur Simulation des Weltklimas
Einige künftige Klimafolgen des menschengemachten CO2-Ausstoßes, wie eine gewisse Erwärmung und ein Anstieg des Meeresspiegels, sind bereits nicht mehr zu vermeiden, und die Menschheit muss sich diesen Veränderungen anpassen. Andere Folgen sind durch eine Verringerung des CO2-Ausstoßes vielleicht abwendbar.
geben, das alle Komponenten berücksichtigt und zudem auch noch die Aktivitäten des Menschen erfasst?
Prof.Dr. Jochem Marotzke ist Direktor am Max-Planck-Institut für Meteorologie und Sprecher des Zentrums für Marine und Atmosphärische Wissenschaften (ZMAW). © MPG
Einige Klimaauswirkungen menschlicher Aktivitäten werden in unserem Erdsystemmodell heute schon erfasst. Bei vorgegebenem CO2-Ausstoß berechnet ein Teilmodell für den Kohlenstoffkreislauf die künftigen CO2Konzentrationen. Wir können diesen CO2Ausstoß für die Zukunft jedoch bisher nur annehmen, nicht vorhersagen. Dafür braucht man mathematische Modelle, die zukünftiges kollektives Verhalten vorhersagen, z.B. die Auswirkung technologischer Innovationen, den weltweiten Energieverbrauch und das Bevölkerungswachstum. Ich glaube, dass dies in Zukunft möglich sein wird, wenn auch wohl erst in Jahrzehnten. 69 Prozent der Bundesbürger sind nach neuen Umfragen fest davon überzeugt, dass der Welt eine Klimakatastrophe bevorsteht. Wie schätzen Sie die Lage ein?
Sieht es für die Zukunft nicht düster aus, da die Menschen nicht entsprechend handeln, um die globale Erwärmung zu bremsen?
Diese Überlegung scheint naheliegend. Doch es gibt auch Aspekte, die Hoffnung machen. So hat eine Studie mit meinen Kollegen vom MPI für Limnologie in Plön gezeigt, dass sich Menschen unter bestimmten Bedingungen auch altruistisch für den Erhalt eines öffentlichen Guts einsetzen. Wir fanden heraus, dass Menschen sich vor allem dann für gemeinnützige Ziele einsetzen, wenn sie gut informiert sind und ihre gute Tat öffentlich gemacht wird – denn so gewinnen sie öffentliche Anerkennung, die so viel wert sein kann wie Geld.
Blick in eines der vier roboterbetriebenen Datensilos des Deutschen Klimarechenzentrums: Jedes dieser Silos bietet 6.000 Stellplätze für Magnetband-Kassetten, die jeweils bis zu 200 Gigabytes fassen. © Deutsches Klimarechenzentrum (DKRZ)
84
ERDE, WETTER, KLIMA
Naturkatastrophen: frühere Warnung, bessere Überwachung
Ausbruch des Stromboli-Vulkans © USGS, B. Chouet
5.749 Tote, zehntausende Verletzte und Gesamtschäden in Höhe von 3,1 Milliarden U.S. Dollar – dies ist die Bilanz des schweren Erdbebens vom 27. Mai 2006 auf der indonesischen Insel Java. Der Erdstoß hatte eine Stärke von 6,3. Das Epizentrum lag 20 Kilometer südöstlich der Millionenstadt Yogyakarta. Das Erdbeben in Indonesien war jedoch nur eine von vielen hundert Naturkatastrophen, die in den letzten zwölf Monaten eine Spur der Verwüstung hinterließen. Ein erneuter heftiger Erdstoß vor Java – dieses Mal sogar mit Tsunami –, Erdrutsche auf den Philippinen und Hochwasser an Elbe sowie Donau: Alle diese Extremereignisse forderten ebenfalls zahlreiche Menschenleben und brachten die betroffenen Regionen oft an den Rand des Ruins.
Immer mehr Menschen, immer mehr Gefahren
Dass Naturereignisse immer schwerwiegendere Auswirkungen haben und vor allem immer mehr Menschen in Mitleidenschaft ziehen, ist auch Folge der zunehmenden Besiedlung von Räumen, die eigentlich zu den Gefahrenregionen zählen. Und ein Ende dieser Entwicklung ist nicht in Sicht. Aufgrund der nach wie vor stark steigenden Weltbevölkerung werden künftig sogar noch mehr Menschen an den Hängen von Vulkanen oder
85
24.03. bis 12.04. 2006 Hochwasser Wo: Deutschland/Tschechien Starke Regenfälle und Schneeschmelze sorgten für ein Jahrhunderthochwasser entlang der Elbe. Pegel erreichten zum Teil Rekordstände. Folgen: Mehrere Orte – wie Hitzacker in Niedersachsen – vollständig überflutet, Schäden in zweistelliger Millionenhöhe.
30.12.2005 bis 03.01.2006 Wintersturm Wo: USA, Kanada Heftige Regenfälle lösten Erdrutsche und Überschwemmungen aus. Folgen: 8 Tote, 200 Millionen US-Dollar Gesamtschäden
25. bis 27.11.2005 Wintersturm Thorsten Wo: West- und Nordwestdeutschland Starker Regen- und Schneefall, Eisregen, Stromausfälle, Flug- und Straßenverkehr waren stark betroffen. Folgen: 300 Millionen US-Dollar Gesamtschäden
28.11.2005 Tropischer Sturm Delta Wo: Spanien: Kanarische Inseln. Marokko Sturzfluten, Erdrutsche, Strom- und Telefonverbindungen wurden unterbrochen. Folgen: 20 Tote, 375 Millionen US-Dollar Gesamtschäden
13.07.2006 Ölpest Wo: Libanon, Syrien Israelische Raketen beschädigten Öl-Tanks des Kraftwerkes Jiyyeh, 35.000 Tonnen Schweröl flossen ins Meer. Folgen: Bis zu 300 Kilometer ölverseuchte Küstenabschnitte und Strände im Libanon und Syrien, Gesamtschäden: mindestens 40 bis 50 Millionen US-Dollar.
Erdbeben, Tsunami, Hurrikans – schwere Naturkatastrophen weltweit
86
© NASA/GSFC
03. bis 30.08.2006 Hochwasser Wo: Äthiopien Wochenlange sintflutartige Regenfälle führten zu schweren Überschwemmungen der Flüsse Omo und Awash. Folgen: 870 Tote und tausende von zerstörten Häusern.
ERDE, WETTER, KLIMA
15. bis 30.04. 2006 Hochwasser Wo: Rumänien Schneeschmelze und ergiebige Niederschläge ließen die Donau und ihre Nebenflüsse auf Rekordniveau steigen und sorgten für Deichbrüche und Überschwemmungen. Folgen: Mindestens vier Tote, tausende von Häusern in 400 Orten zerstört, mehr als 5.000 Menschen evakuiert, über 170.000 Hektar Land überflutet.
10.08.2006 Taifun Wo: China / Provinzen Zhejiang, Fujian und Jiangxi Stärkster tropischer Wirbelsturm in China seit Beginn der Aufzeichnungen, Windgeschwindigkeiten von mehr als 216 Stundenkilometern, vielerorts gab es Erdrutsche und Überschwemmungen. Folgen: Mindestens 400 Tote und Vermisste, zehntausende Menschen verloren ihr Dach über dem Kopf, mindestens 50.000 zerstörte Häuser.
17.02.2006 Erdrutsch Wo: Philippinen / Insel Leyte Lang anhaltender Starkregen und leichtes Erdbeben sorgten für einen schweren Bergrutsch. Folgen: Hundert Häuser und eine Grundschule verschüttet; mindestens 141 Tote, mehr als 1.000 Vermisste (vermutlich tot).
16.06.2006 Vulkanausbruch Wo: Indonesien / Insel Java Heiße Gerölllawine am Vulkan Merapi verschüttet Bunker im Dorf Kaliadem. Folgen: zwei Tote.
17.07.2006 Erdbeben und Tsunami Wo: Indonesien / Insel Java
27.5.2006 Erdbeben Wo: Indonesien / Insel Java
Seebeben der Stärke 7,7 südlich der Insel Java im indischen Ozean löste einen Tsunami aus.
Erdstoß mit einer Stärke von 6,3 auf der Moment-Magnitude
Folgen: Mindestens 650 Todesopfer; über 30.000 Obdachlose.
Folgen: 5.749 Tote, 38.568 Verletzte und mehr als 600.000 Obdachlose vor allem in der Region Bantul-Yogyakarta. Das Erdbeben zerstörte 130.000 Häuser, 451.000 wurden beschädigt; Gesamtschäden: 3,1 Milliarden U.S. Dollar.
87
Erdbebenschäden © FEMA, Marty Bahamonde
in anderen katastrophenanfälligen Gebieten leben. Das gilt beispielsweise für den gefährlichen Feuerberg Merapi auf der indonesischen Insel Java. In den vergangenen 450 Jahren brach der Merapi durchschnittlich alle sieben Jahre aus. 32 der 67 dokumentierten historischen Eruptionen waren mit Glutlawinen verbunden – diese Häufigkeit ist für keinen anderen Vulkan der Welt bekannt. Zurzeit tritt dieses Phänomen durchschnittlich einmal pro Jahr auf. Auch 2006 stand der Feuerberg wieder kurz vor einem heftigen Ausbruch. Wegen der fruchtbaren Böden in seiner Umgebung ist der Merapi bis in große Höhen besiedelt. Nach Schätzungen des MerapiObservatoriums leben circa 70.000 Menschen in der „verbotenen“ Zone an den Hängen des Feuerberges. Für weiter entfernt siedelnde Menschen geht die größte Gefahr von den Flusstälern aus, in denen die Glutwolken und die so genannten Lahars (Schlammlawinen) sich mit rasender Geschwindigkeit ihren Weg bergabwärts suchen. Etwa drei Millionen Menschen leben damit in der engeren Gefah-
Hochrisikovulkan Merapi in Indonesien © GFZ Potsdam, M. Westerhaus
renzone des Merapi. Weltweit suchen Geowissenschaftler daher nach Möglichkeiten, um die verheerenden Folgen von Naturkatastrophen zumindest einzudämmen. Intensive Grundlagenforschung wird beispielsweise in geologisch besonders aktiven Zonen entlang der Plattengrenzen betrieben. Ziel ist es, die Prozesse und Mechanismen, die bei einem Erdbeben oder einem Vulkanausbruch auftreten, besser zu verstehen. Auf der Basis dieser Erkenntnisse versuchen die Forscher dann bessere Frühwarnsysteme oder präzisere Vorhersagen zu entwickeln. Vorher oder sofort danach?
Doch was ist der Unterschied zwischen einem Frühwarnsystem, von dem beispielsweise im Zusammenhang mit Tsunamis immer wieder die Rede ist, und der Voraussage? Oder handelt es sich dabei um das Gleiche? Geowissenschaftler unterscheiden da penibel. Ein Frühwarnsystem weist auf ein Naturereignis hin, das bereits stattgefunden hat, dessen Auswirkungen gefährdete menschliche Siedlungen aber noch nicht erreicht haben. Ein Beispiel: Wissenschaftler, die im Rahmen der Vulkanbeobachtung eine Eruption und eine die Vulkanhänge herunter rasende Glutlawine erkennen, geben eine Frühwarnung, damit sich die Menschen in
88
ERDE, WETTER, KLIMA
den bedrohten Regionen rechtzeitig in Sicherheit bringen können. Oft haben die Betroffenen dabei für das Aufsuchen von Bunkern oder ähnlichen Schutzräumen nur wenige Minuten Zeit. Nach einem Erdbeben bleiben in der Regel sogar nur Sekunden, um zumindest durch automatisch arbeitende technische Systeme den drohenden Schaden zu vermindern. So sollen in einem solchen Fall in Istanbul zukünftig beispielsweise Ampel-
anlagen vor Brücken auf Rot gestellt werden. Von einer Vorhersage dagegen sprechen Wissenschaftler, wenn Zeit und Ort einer Naturkatastrophe bereits vor dem Eintritt des Ereignisses bekannt sind. Während die Prognose von tropischen Wirbelstürmen aufgrund deutlicher Verbesserungen in der Satellitentechnik heute bereits 48 Stunden vor deren Auftreten möglich ist, sieht das allerdings bei Erdbeben noch völlig anders aus.
Erdbeben – Vorhersagbar oder aus heiterem Himmel? Schon seit Jahren versuchen Forscher mit seismischen und geodätischen Messmethoden so genannten Vorläufersignalen für Erdbeben auf die Spur zu kommen. Dabei handelt es sich zum Beispiel um geologische Veränderungen der Erdoberfläche, wie langsame Gesteinsbewegungen oder schleichende Verformungen, die möglicherweise ein großes Beben ankündigen könnten. Bisher jedoch blieben die Bemühungen ohne durchschlagenden Erfolg. „Viele Menschen denken, wir könnten eines Tages einen Weg finden, um Erdbeben sicher vorherzusagen. Aber ich befürchte, es ist vielleicht gar nicht möglich. Nicht alle Prozesse sind vorhersagbar“, sagt Michael Bevis von der Ohio State University in Columbus. Und er steht mit seiner Meinung nicht alleine da. Viele Seismologen sind ähnlich skeptisch was die genaue Prognose von Ort und Zeit zukünftiger Erdbeben betrifft. Das hindert sie jedoch nicht daran, die geologischen Vorgänge vor, während und nach einem Erdbeben auf das Genaueste zu untersuchen und so mehr über das Phänomen zu erfahren. Bevis selbst interessiert sich beispielsweise für die kalifornische San-AndreasVerwerfung – dem „Mekka“ für Erdbebenforscher weltweit. Schon seit Jahren warten Wissenschaftler hier auf den nächsten
heftigen Erdstoß, der aus ihrer Sicht längst überfällig ist. Die bekannteste Katastrophe ereignete sich im Jahr 1906, als ein Erdbeben mit einer Stärke von 7,8 San Francisco in Brand setzte und 3.000 Menschen starben. Im Jahr 2005 hat Bevis nun den SanAndreas-Graben einer Inventur aus der Luft unterzogen. Durch eine Kombination von hoch auflösender GPS-Technologie und Lasermessungen mit dem LIDAR (light detection and ranging) Instrument vom Flugzeug aus, hat er neue Einblicke in die Verwerfung gewonnen und bisher unbekannte Detailstrukturen enthüllt. Die Bilder, die er anschließend auf der Herbsttagung der Amerikanischen Geophysikalischen Union in San Francisco präsentierte, waren so genau, dass man so gar die GPS-Empfänger am Boden erkennen konnte. Allerdings ist die Kartierung nur der erste Teil des Projektes. Nach dem nächsten großen Erdstoß wollen Bevis und seine Kollegen den San-Andreas-Graben erneut vermessen und anschließend die Vorher- mit den NachherBildern vergleichen. Grund: Die Forscher wissen heute zwar mehr oder weniger gut, was sich bei einem Erdbeben im Untergrund abspielt. Doch die Geschehnisse in und nahe einer Verwerfung sowie die Frage, wie ein Erdbeben seinen Anfang nimmt, liegen noch
Erdbeben in San Francisco 1906 © P. E. Hotz collection, USGS, T.L. Youd
89
San Andreas Graben © USGS, R.E Wallace
im Dunkeln und werden unter Wissenschaftlern heiß diskutiert. „Durch diese hoch auflösenden Bilder vor und nach einem Beben könnten wir einen Teil dieser Debatten beenden“, erklärt Bevis. Auch bei der Verbesserung von Erdbebenprognosen und -frühwarnungen könnten die Ergebnisse zumindest ansatzweise weiterhelfen. Megacity Istanbul in Gefahr
Solche Langzeituntersuchungen zum Thema Erdbeben gibt es aber nicht nur jenseits des Atlantiks in den USA, sondern auch quasi „vor unserer Haustür“ in der Türkei. An einem Frühwarnsystem für die Megacity Istanbul arbeiten dort seit einiger Zeit Wissenschaftler um Jochen Zschau vom GeoForschungsZentrum Potsdam (GFZ) zusammen mit Kollegen vom Kandilli Observatorium in Istanbul und dem Katastrophen-Management der Stadt. Die Metropole am Bosporus mit ihren rund zehn Millionen Einwohnern gehört zu den am stärksten von Erdbeben bedrohten
90
Großraum Istanbul mit Bosporus © NASA/JSC
Großstädten der Welt. Denn die Türkei liegt im Kollisionsbereich zwischen der afrikanischen und der eurasischen Platte. Afrika bewegt sich auf Europa zu und ein Teil von Afrika, die arabische Platte, sogar noch ein bisschen schneller als der Rest. „Der zentrale Bereich der Türkei wandert mit zwei bis drei Zentimetern pro Jahr nach Westen mit, aber ein Teil des oberen Randes hängt fest an Asien und verhakt dort an einer großen tektonischen Störung, der Nordanatolischen Verwerfung. Dieser Teil geht nicht kontinuierlich mit, sondern bleibt zurück und springt dann immer ruckartig hinterher, wenn die Spannung zu groß geworden ist“, beschreibt Zschau die geologische Situation rund um den Bosporus. Die Folge sind zum Teil heftige Erdbeben, deren Epizentren entlang der Nordanatolischen Verwerfung in den letzten Jahren immer weiter nach Westen Richtung Istanbul „gewandert“ sind. Nach Ansicht der Forscher ist es nur noch eine Frage der Zeit bis die türkische Metropole von einem schweren Erdstoß erschüttert wird. Die Geowissenschaftler um Zschau wollen deshalb im Rahmen von Langzeitbeobachtungen zunächst einmal alle Erdbeben relevanten Daten sammeln und aufbereiten. Dazu gehört unter anderem eine geologische „Inventur“ der Region vom Marmara Meer bis rund 50 Kilometer östlich von Izmit sowie die Ergänzung und Verbindung von bestehenden seismischen Netzwerken. Die Forscher spielen in Computersimulationen aber auch verschie-
ERDE, WETTER, KLIMA
dene Erdbebenszenarios durch, um mit den Folgen eines zukünftigen zerstörerischen Erdstoßes besser fertig zu werden. Das Frühwarnsystem soll darüberhinaus nach einem Erdstoß möglichst schnell die Erdbeben-Herde und -stärken automatisch aufspüren. Bereits jetzt sind solche wertvollen Informationen innerhalb von etwa zehn Sekunden verfügbar. Im Rahmen des neuen europäischen Forschungsprojekts „SAFER“ (Seismic Early Warning For Europe) sollen nun die Methoden zur Frühwarnung weiter verbessert und in Istanbul – aber auch in anderen Städten – getestet werden.
Doch noch besteht viel Forschungsbedarf. So ist beispielsweise die Quelle des stillen Tremors bis heute unbekannt. Auch, ob die Intensität der dadurch ausgelösten Erdbeben mit der Zeit zunimmt, konnten die Forscher bisher nicht ermitteln. Der Geophysiker appelliert deshalb an seine Kollegen weltweit „zurück zu den Subduktionszonen zu gehen“ und die langsamen Verschiebungen genauer zu untersuchen. Vielleicht können die stillen Beben dann irgendwann einen Hinweis darauf geben, wenn sich irgendwo ein katastrophaler Erdstoß zusammenbraut.
Achtung stille Beben!
Warnung vor der großen Welle
Weitere Fortschritte bei der Erdbebenfrühwarnung und -prognose verspricht ein neues Phänomen, das erst in den letzten fünf, sechs Jahren in den Mittelpunkt des Interesses der Geowissenschaftler gerückt ist. Dabei handelt es sich um so genannte stille oder aseismische Erdbeben, die man unter anderem auf der Hauptinsel Hawaiis aufgespürt hat. Die langsamen, ohne messbare Erschütterungen ablaufenden Ereignisse sind keineswegs so harmlos wie es auf den ersten Blick scheint. Denn sie sorgen offenbar für ganze Schwärme von Minibeben der Stärke 2 bis 3. Das könnte nach Ansicht der Forscher ein Indiz dafür sein, dass der so genannte „stille Tremor“ eine Verwerfung unter zusätzliche Spannung setzt, die sich vielleicht irgendwann mit einem Ruck – in Form eines starken Erdbebens – löst. „Stille Beben wurden kürzlich in den Subduktionszonen des pazifischen Nordwestens, Japans, Mexikos und auch anderswo entdeckt. Es ist wahrscheinlich, dass diese stillen, langsamen Verschiebungen das Risiko eines starken seismischen Ereignisses erhöhen“, so Paul Seagull von der Stanford University im Juli 2006 im Wissenschaftsmagazin NATURE.
„Die tragischen Ausmaße der jüngsten Erdbebenkatastrophe in der Kaschmirregion oder des Tsunami im Indischen Ozean haben der Welt die Aktualität des Themas Katastrophenfrühwarnung erneut dramatisch vor Augen geführt“, sagte Bundesaußenminister Frank-Walter Steinmeier bei der Eröffnung der dritten Internationalen Konferenz zur Frühwarnung vor Naturkatastrophen am 27. März 2006 in Bonn. „Überall da, wo Schadensreduzierung entscheidend von Frühwarnung abhängt, sollen konkrete Maßnahmen eingeleitet werden.“ So wie im Indischen Ozean vor der Küste Indonesiens. Dort bauen deutsche Wissenschaftler unter Federführung des GeoForschungsZentrums Potsdam seit 2005 ein neues Frühwarnsystem auf. Es soll die Menschen vor gefährlichen Tsunamis warnen, die nach heutigem Wissensstand immer dann entstehen können, wenn ein Seebeben eine Stärke von mindestens 7 erreicht und sich der Erdbebenherd in weniger als 20 Kilometern Tiefe befindet. „Das Tsunami Early Warning System TEWS besteht aus mehreren Komponenten. Einmal
Die „lange Hafenwelle“ Der Begriff Tsunami stammt aus dem Japanischen und bedeutet „lange Welle im Hafen“. Er geht auf frühe Beobachtungen von japanischen Fischern zurück. Während ihrer Arbeit auf hoher See hatten sie meist keine größeren Wellen bemerkt, bei ihrer Heimkehr in den Hafen fanden sie jedoch ihre Dörfer und Felder von Riesenwellen verwüstet vor. Ausgelöst werden Tsunamis vor allem durch Seebeben, Vulkanausbrüche oder Erdrutsche im Meer. Von ihrem Ursprungsort breiten sich die zunächst sanften Wogen mit einer Geschwindigkeit von mehreren hundert Kilometern pro Stunde kreisförmig aus. In Küstennähe reduziert sich das Tempo im flacher werdenden Wasser drastisch, während die Höhe der Welle stark zunimmt und bis zu 30 Meter erreichen kann. Meist handelt es sich bei Tsunamis nicht um eine einzelne Welle, sondern um eine Reihe von Wellen, die nacheinander auf die Küste treffen. Sie sind durch extrem tiefe Wellentäler voneinander getrennt. Oft kündigen sich die ersten Wellenkämme durch eine sehr tiefe Ebbe an, denen dann die Woge folgt.
91
Komponenten des Tsunami-Frühwarnsystems © GITEWS-Team
aus einem landgestützten Seismometer-Netz zur Erkennung von Erdbeben und aus ozeanographischen Instrumenten zur Erkennung einer Tsunamiwelle im Ozean“, erklärt Projektkoordinator Jörn Lauterjung vom GFZ. Bojen, Simulationen, SMS
Erste Boje wurde am Eingang der Sunda Strait ausgesetzt. © GFZ Potsdam
92
Herzstück des Systems sind insgesamt zehn Messbojen mit hochpräzisen GPS-Instrumenten und Ozeanbodendruckmessgeräten, die an strategisch wichtigen Positionen im Meer verankert werden. Hinzu kommen 25 neue Pegelstationen an den Küsten, die ebenfalls Wellenbewegungen und Wasserstandsänderungen registrieren. Alle Systeme übermitteln ihre Daten an das neu geschaffene Kontrollzentrum in Jakarta. Zu einer Tsunami-Warnung kommt es nur dann, wenn die Geräte sowohl ein schweres Erdbeben, als auch ein unnatürliches Wellenereignis registrieren. Ein weiteres zentrales Element des Frühwarnsystems ist die Simulation von Flutwellen auf Basis der Messergebnisse. Um im Ernstfall keine Zeit mit aufwändigen Modellrech-
nungen zu verschenken, werden schon jetzt verschiedene Szenarien mit unterschiedlichen Parametern – Erdbebenstärke, Geschwindigkeit und Richtung der Flutwelle – durchgespielt. Bei einer Naturkatastrophe müssen die Wissenschaftler dann nur noch die aktuellen Messergebnisse mit denen der bereits errechneten Szenarien vergleichen und können dann schnell eine Warnung für die besonders gefährdeten Gebiete herausgeben. Sorgen bereitet den Wissenschaftlern allerdings noch das letzte Glied in der Frühwarnkette: Wie informiert man am sichersten und schnellsten die betroffenen Menschen über eine drohende Flutwelle? In vielen Regionen Indonesiens sind moderne Kommunikationsgeräte wie Handys oder Internet längst nicht ausreichend etabliert. Hier sollen neben SMS auch Radio, Fernsehen, Lautsprecher oder Sirenen zum Einsatz kommen. Die Welle war schneller...
Wie dringend ein funktionstüchtiges Tsunami-Frühwarnsystem gebraucht wird, zeigte der 17. Juli 2006. Zum zweiten Mal
ERDE, WETTER, KLIMA
nach der verheerenden Katastrophe vom 26. Dezember 2004 traf ein Tsunami die Küsten Indonesiens. Dieses Mal starben mehr als 650 Menschen auf der Insel Java in den Wassermassen. Ein Seebeben der Stärke 7,7 hatte den Tsunami ausgelöst. Die bis zu vier Meter hohe Flutwelle traf auf einen rund 180 Kilometer langen Küstenabschnitt im Süden der Insel und verwüstete dort zahlreiche Fischerdörfer und Hotelanlagen. Das noch im Aufbau befindliche TsunamiFrühwarnsystem konnte – obwohl schon im Oktober und November 2005 die ersten Bojen zu Testzwecken installiert wurden – noch nicht zum Einsatz gebracht werden. Es wird
voraussichtlich erst Mitte 2008 vollständig fertig sein. Trotzdem wäre es am 17. Juli 2006 möglich gewesen, viele Menschenleben zu retten. Denn das meteorologische Zentrum in Japan hatte bereits unmittelbar nach dem Erdbeben die Gefahr eines Tsunamis an den Küsten Sumatras und Javas erkannt. Obwohl die Meldung auch an die Behörden in Jakarta gesandt wurde, erreichte die Warnung die Bewohner vor Ort nicht rechtzeitig. Ob die Angst vor einem Fehlalarm die Zuständigen lähmte oder die Weitergabe der Informationen an fehlenden Notfallplänen scheiterte, ist bis heute unklar.
WAS SONST NOCH GESCHAH Mathematik enthüllt Tsunami-Irrtümer Eine ganze Reihe der landläufigen Annahmen über „typische“ TsunamiEigenschaften sind schlichtweg falsch. Das hat jetzt der Mathematiker Walter Craig von der McMaster University im kanadischen Hamilton anhand neuer Berechnungen und Modelle bestätigt. So ist keineswegs die erste Welle immer die größte. Es kann wie beim verheerenden Tsunami vom 26. Dezember 2004 in Sri Lanka auch die dritte oder vierte sein. Einen weiteren Irrglauben spülte Craigs Modellierung ebenfalls davon: Die Annahme, dass einer Tsunami-Welle immer ein anormal weiter Rückzug des Wassers voraus geht. Das passiert nach den Ergebnissen des Wissenschaftlers, der sich auf Wellengleichungen spezialisiert hat, nur in rund der Hälfte der Fälle. Denn ob dies so ist oder nicht, hängt von der Wellenlänge ab und davon, ob das Tal oder der Scheitel der Welle die Küste zuerst erreicht. In 50 Prozent der Fälle kommt eben der Wellenberg zuerst an. (NATURAL SCIENCES AND ENGINEERING RESEARCH COUNCIL, Februar 2006) Erdbeben haben ein Gedächtnis
Forscher um den Gießener Physiker Armin Bunde haben einen bisher unbekannten Zusammenhang zwischen einzelnen Erdbeben einer bestimmten Region entdeckt. Danach zeigen die Erdstöße eine Art „Gedächtnis“. War beispielsweise der zeitliche Abstand zwischen zwei Beben gleicher Stärke besonders kurz, dann trifft auch das nächste Beben meist überdurchschnittlich schnell ein. Der Zusammenhang gilt aber auch umgekehrt: Wenn ein Beben besonders lange auf sich hat warten lassen, dann sind die Aussichten gut, dass auch das Folgebeben erst nach einer überdurchschnittlich langen Zeit eintrifft. Wie dieser Gedächtnis-Effekt zu erklären ist, ist bisher für den Forscher noch unklar. (PHYSICAL REVIEW LETTERS, November 2005)
Sumatra-Beben veränderte Erdschwerkraft Ein starkes Erdbeben erschüttert nicht nur den Untergrund, es verändert auch die Schwerkraft der Erde. Das haben Wissenschaftler der Ohio State University anhand von Daten der Grace-Satelliten und einem seismischen Computermodell für das Sumatra-Beben vom Dezember 2004 nachgewiesen. Zum einen löste das Beben eine massive Anhebung des Meeresbodens aus, die die Geometrie der gesamten Region veränderte und starke Abweichungen von vorherigen GPS-Messungen bewirkte. Zum anderen aber veränderte die Plattenbewegung auch die Dichte des Gesteins unter dem Meeresboden und damit auch die Schwerkraft an diesen Stellen, so die Geoforscher um Shin-Chan Han, C.K. Shum and Michael Bevis. Westlich der Sumatra-Verwerfung komprimierten die Verschiebungen im Untergrund das Gestein und erhöhten so die Dichte, östlich davon sank sie ab. Das Modell zeigte deutlich die dadurch veränderten Schwerkraftwerte. (SCIENCE, August 2006) Wie Sedimente die Erdbebengefahr erhöhen Starke Erdstöße, wie das Beben vor Sumatra im Dezember 2004, könnten durch eine Anhäufung von Sediment über einer Subduktionszone ausgelöst worden sein. Diese Theorie vertreten Geologen um Mark Brandon von der Yale University und Christopher W. Fuller sowie Sean D. Willett von der Washington University. Ihre neuen Computersimulationen zeigen, dass das auf der oben liegenden Platte deponierte Sediment das Aneinandervorbeigleiten der Platten stört, indem es die Vorderkante der oberen Platte verstärkt und ein spannungsabbauendes Deformieren verhindert. Nach Ansicht der Forscher könnte das die Bewegungen an dieser Plattengrenze für längere Zeit unterbrechen und die Subduktion dadurch anfälliger machen für plötzliche Entladungen der Spannung, also für Erdbeben. Die neuen Erkenntnisse könnten möglicherweise zu neuen Ansätzen bei der Vorhersage schwerer Beben führen. (GEOLOGY, Januar 2006)
93
Interview
Wissen hoch 12: Sie arbeiten seit einiger Zeit zusammen mit türkischen Kollegen an der Erdbebenfrühwarnung für die Megacity Istanbul, die in einer stark Erdbeben gefährdeten Region liegt. Welchen Schutz wird das Frühwarnsystem der Bevölkerung, aber auch der ortsansässigen Industrie bieten?
Prof. Jochen Zschau ist Direktor des Departments „Physik der Erde“ des GeoForschungsZentrums Potsdam (GFZ) und leitet zudem die Sektion „Erdbebenrisiko und Frühwarnung“. © GFZ
Schon jetzt ist das dort existierende Frühwarnsystem in der Lage einen Erdbebenherd in der Nordanatolischen Verwerfung südöstlich von Istanbul innerhalb von zehn bis 15 Sekunden aufzuspüren. Rein technisch könnten dann noch vor dem Eintreffen der zerstörerischen Wellen zum Beispiel Ampeln vor gefährdeten Brücken auf Rot gestellt werden. Welche Schwierigkeiten sind noch zu überwinden?
Im Moment basiert das bisherige seismische Überwachungssystem auf guten, aber daher leider sehr teuren Messsensoren. Daher ist das Beobachtungsnetz aus Kostengründen heute längst noch nicht so dicht, wie wir uns das wünschen würden. Hinzu kommt, dass noch viele juristische Fragen offen sind. Wer haftet beispielsweise für Unfälle, die sich aufgrund der Frühwarnung und den damit verbundenen Notfallmaßnahmen ereignen? Und wer kann für wirtschaftliche Schäden zur Rechenschaft gezogen werden, wenn einmal ein Alarm unnötig war? Da besteht noch immenser Klärungsbedarf. Wann wird das Frühwarnsystem endgültig fertig sein?
Nie. Denn es wird immer wieder Möglichkeiten geben, das Frühwarnsystem zu verbessern oder mit neuen Geräten zu bestücken und damit die Leistungsfähigkeit zu steigern. Ziel ist es zurzeit, das seismologische Überwachungssystem weiter auszubauen. Das geht aber wohl nur, wenn wir es schaffen, Erdbebensensoren so preiswert zu machen – unter
94
100 Euro -, dass sie nahezu für jedermann erschwinglich sind. Solche „Billigsensoren“ könnten dann in jedem Haus oder Industriebetrieb der Region installiert werden und ihren Dienst tun. Gekoppelt zum Beispiel mit der Steuerung von Heizungsoder elektrischen Anlagen könnten sie bei einem Erdstoß Alarm auslösen und vor allem den entscheidenden Impuls für ein rechtzeitiges Abschalten solcher Geräte geben. Die Messgeräte sollen nach Möglichkeit nicht unabhängig voneinander arbeiten, sondern könnten auch zusammen mit vielen anderen Sensoren in der Region zu einem neuartigen, extrem dichten Netzwerk verbunden werden. Die einzelnen Geräte spüren darin sowohl selbstständig Erdbeben auf, sie melden solche Ereignisse aber auch sofort an die nächstgelegene Station weiter. Fällt ein Sensor in der Kette aus, sucht das System automatisch den nächsten Empfänger aus. Ein Prototyp eines solchen sich selbst organisierenden Systems wird zurzeit im Rahmen eines neuen EU-Programms entwickelt und soll dann in Istanbul getestet werden. Noch sind Ort und Datum eines Erdbeben nicht vorhersagbar. Wird dies irgendwann einmal der Fall sein?
Daran glaube ich fest. Allerdings wahrscheinlich nicht in der Form, dass man irgendwann einmal sagen kann „Am 15. Dezember wird in dem Ort xyz um 16.13 Uhr ein Beben der Stärke 8,7 auftreten“, sondern eher mithilfe von immer präziseren Wahrscheinlichkeitsangaben. So weiß man heute, dass schwere Erdbeben andere Beben auslösen oder zumindest die Eintretenswahrscheinlichkeit solcher Folgestöße erhöhen können. So war beispielsweise das verheerende Erdbeben vor Sumatra mit einer Stärke von 9,3 im Dezember 2004 verantwortlich für das heftige Seebeben der Stärke 8,7 drei Monate später. Dieses ereignete sich unmittelbar südlich des frischen
ERDE, WETTER, KLIMA
Bruchs des ersten Bebens. Ursache dafür ist, dass Erdbeben nicht, wie gemeinhin angenommen, die Spannung in einer Verwerfung vollständig entlasten. Vor allem an den Enden des frischen Bruches können auch zusätzliche Spannungen aufgebaut werden. Dort wird dann ein kritischer Wert viel früher erreicht und die Gefahr für einen schweren Erdstoß steigt immens.
Eine solche bedrohliche Situation hat sich durch das Izmit-Beben am 17.08.1999 mit einer Stärke von 7,8 auch an der Nordanatolischen Verwerfung ergeben. Ein Beben im Großraum Istanbul wurde dadurch, da sind wir sicher, um Jahrzehnte vorverlegt. Die Verbesserung des Frühwarnsystems für die Metropole ist deshalb ein Muss.
Erdbebenschäden © FEMA
95
96
KÖRPER, GEIST, GEHIRN In der Medizin und den Neurowissenschaften haben Forscher in den vergangenen Jahren immer mehr molekulare Details offen gelegt. Diese Erkenntnisse ermöglichen die Entwicklung vollkommen neuer therapeutischer Ansätze, beispielsweise bei der Bekämpfung von Infektionskrankheiten oder Krebs. Noch immer sind viele Erreger nicht besiegt, neue Epidemien drohen. Bisher jedoch profitierte die Entwicklung neuer Impfstoffe nur wenig vom rasanten Erkenntnisfortschritt der Grundlagenforschung. Eine neue Generation von Impfmedikamenten wird aber dringend gebraucht. Ein Beispiel dafür ist ein Impfstoff gegen Tuberkulose, der Anfang 2007 in klinischen Tests seine erste Bewährungsprobe bestehen soll. Auch Krebsforscher betrachten heute einen Tumor nicht mehr nur auf makroskopischer Ebene, sondern untersuchen die komplexen Wirkungsketten in und zwischen den Zellen – dem Bereich, in dem der Krebs ansetzt. Im Juni 2006 wurde ein auf dieser Forschung basierendes Krebsmedikament in Deutschland zugelassen, das die Kommunikation der Krebszellen stört und damit das Tumorwachstum hemmt. Aber nicht nur die tiefere Kenntnis über das Geschehen in den Zellen, sondern auch neue Techniken und Methoden brachten entscheidende Fortschritte: Zu einem der wichtigsten diagnostischen Werkzeuge ist in den vergangenen Jahren die funktionelle Magnetresonanztomografie (fMRT) avanciert. Sie erlaubt den Blick in das arbeitende Gehirn. Neuere Untersuchungen haben jetzt die Aussagekraft der „bunten Bilder“ präzisiert.
Mit Gentechnik gegen die Infektion
98
Krebs – Kampf dem Tumor
106
Der neue Blick ins Gehirn
112
links: Normale Zellen (oben) und Krebszellen im Vergleich © National Cancer Institute (NCI)
97
Makrophage (blau) umschlingt TuberkuloseErreger (rot) © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
Mit Gentechnik gegen die Infektion Rund 17 Millionen Menschen, mehr als ein Viertel aller Todesfälle weltweit, sterben jährlich an einer Infektionskrankheit. Trotz der enormen Fortschritte in der Medizin ist ein dauerhafter Erfolg bei der Bekämpfung dieser Krankheiten bisher ausgeblieben.
HIV-1 Viren treten aus Lymphzyten aus © CDC, C. Goldsmith
Denn anders als Gifte oder Schadstoffe können Bakterien und Viren nicht nur Resistenzen gegen bestehende Medikamente aufbauen, sondern auch ganz neue Strategien entwickeln, um die Abwehrmechanismen des Körpers zu unterlaufen. Darüber hinaus tauchen vollkommen neue, bis dahin unbekannte Krankheitserreger auf, wie beispielsweise das Aids-Virus (HIV), das vor 25 Jahren erstmals diagnostiziert wurde und nach wie vor nicht wirksam behandelt werden kann. Ansatzstellen gesucht
Um in diesem Wettlauf Schritt zu halten, suchen Wissenschaftler verstärkt nach neuen Ansatzstellen für Impfstoffe und Therapien. Dabei fahnden sie vor allem nach den so genannten „targets“ – Zielmolekülen. Diese
98
Zielmoleküle – meist Proteine – sind an chemischen Prozessen und damit an allen biologischen Vorgängen beteiligt, die eine Krankheit erst ermöglichen oder aber abwehren können. Im Idealfall bindet ein wirksames Medikament oder ein Impfstoff an ein solches Molekül und blockiert damit seine Funktion. Als Folge kann beispielsweise ein Virus nicht in die Zelle eindringen, weil ihm ein entscheidendes Enzym fehlt, oder aber das Immunsystem kann ein eingedrungenes Bakterium effektiver bekämpfen, weil seine „Tarnung“ aufgedeckt wird. Experten schätzen, dass es etwa 200 chemische Prozesse im Körper geben könnte, in denen verschiedene potenzielle Zielmoleküle existieren. Doch die bisherigen Wirkstoffe
KÖRPER, GEIST, GEHIRN
nutzen nur wenige dieser möglichen Ansatzstellen; die derzeit hundert wichtigsten Medikamente greifen beispielsweise nur 43 Zielmoleküle an. Hier neue Ansatzstellen – und die dazu passenden Wirkstoffe – zu identifizieren, ist eine der großen Herausforderungen der modernen Medizinforschung. Waffen gegen die „großen Drei“
Besonders dringend ist der Bedarf an neuen „Waffen“ im Kampf gegen die „großen Drei“ – Aids, Malaria und Tuberkulose. Sie gehören zu den großen, noch immer unbesiegten Seuchen der Erde, denn für keine dieser drei Erkrankungen gibt es bisher wirksame Impfstoffe, teilweise fehlen sogar effektive Therapien. Jährlich sterben an diesen drei Krankheiten etwa sechs Millionen Menschen
– das ist die Zahl der Robert Koch und das Tuberkel-Bazillus Toten, die zu zählen Der Mediziner Robert Koch war der erste, der Mikroben als wären, wenn jede Auslöser der „Schwindsucht“ in Erwägung zog. Nach langwieStunde ein vollberigen Versuchen gelang ihm die Isolierung des Erregers. Am 24. März 1882 präsentierte er einer skeptischen Ärzte-Gemeinde setzter Jumbo-Jet Mycobacterium tuberculosis, den Tuberkel-Bazillus, als den abstürzen würde. Verursacher der Infektion. Zu dieser Zeit war die Tuberkulose die Ziel einer neuen Ursache für fast ein Drittel aller Todesfälle in den Hauptstädten Europas. Impfstoffgeneration ist die Aktivierung der so genannten T-Lymphozyten, spezifische Abwehrzellen des Immunsystems. Sie müssen den Erreger oder genauer seine Proteine erkennen, um ihn wirksam bekämpfen zu können. Die Wissenschaftler versuchen Erregerproteine zu identifizieren, die von Schutz vermittelnden T-Zellen erkannt werden. Dazu müssen sie jedoch zunächst einmal die Erkennungsmechanismen „knacken“.
Kampf dem Tuberkel Auf der Suche nach einem neuen Impfstoff gegen die Tuberkulose Intrazelluläre Erreger, wie der TuberkelBazillus oder das Aids-Virus, sind die „listenreichen“ unter den Keimen. Sie entziehen sich dem Abwehrsystem, indem sie sich in den Immunzellen selbst einnisten – bei den Tuberkulose-Bakterien in den Fresszellen des Immunsystems, auch Makrophagen genannt. Einmal über die Atemluft in die Lungen des Infizierten gelangt, lässt sich der TuberkuloseErreger in den Vakuolen, flüssigkeitsgefüllten Bläschen im Inneren der Fresszellen, häuslich nieder, überlebt und vermehrt sich dort. Seine Anwesenheit verrät er nur durch Proteine, etwa solche, die er im Makrophagen freisetzt. Bruchstücke dieser Proteine gelangen an die Oberfläche der Wirtszelle und werden dort als Antigene präsentiert. Eine solche Präsentation setzt die weitere Immunabwehr in Gang: Abwehrzellen, speziell T-Lymphozyten, werden aktiviert. Es beginnt ein Kräftemessen zwischen Erreger und Wirt. Bei 90 bis 95
Den Erregern auf der Spur: Arbeit an einer Cleanbench © MPG
Prozent aller infizierten Menschen gelingt es den T-Lymphozyten, den Tuberkuloseerreger in Schach zu halten. Der Herd wird eingekapselt. Es entwickelt sich ein so genanntes Granulom oder Tuberkel – eine Läsion, in der Makrophagen unter der Kontrolle von TLymphozyten die Erreger eindämmen.
99
Infektionsrate pro 100.000 (alle TB-Formen) 0-24 25-49 50-99 100-299 300 oder mehr keine Angaben
Geschätzte Verbreitung der Tuberkulose weltweit (WHO, 2003) Quelle: Robert-KochInstitut (RKI)
Die Gefahr bleibt
Beseitigt ist der Erreger damit aber nicht, er kann jederzeit wieder die Oberhand gewinnen und ausbrechen – insbesondere dann, wenn das Immunsystem geschwächt ist, wie beispielsweise bei HIV-Infizierten. „Wie instabil dieses Gleichgewicht ist, zeigen alarmierende Zahlen“, erklärt Tuberkuloseforscher Stefan Der BCG-Impfstoff H. E. Kaufmann vom Der Impfstoff BCG (Bacille Calmette-Guérin) wurde 1927 von Max-Planck-Institut Albert Calmette und Camille Guérin aus einem Erregerstamm für Infektionsbiologie der Rindertuberkulose gewonnen. Bis heute besteht BCG aus in Berlin: Fast zwei dem lebenden Erreger, der aber so weit abgeschwächt und damit verändert ist, dass er zwar eine Immunreaktion, nicht aber die Milliarden Menschen, Krankheit auslöst. also ein Drittel der Die BCG-Impfung wird von der Ständigen Impfkommission We l t b e vö l k e r u n g, (STIKO) am Robert Koch-Institut seit 1998 für Deutschland nicht sind mit Mycobactemehr empfohlen. Gründe sind die begrenzte Wirksamkeit des Impfstoffs bei rückläufiger Tuberkulose-Fallzahl in Deutschland rium tuberculosis infiund die relative Häufigkeit von Impfkomplikationen. ziert, pro Jahr bricht bei acht Millionen Menschen die Tuberkulose aus, rund zwei Millionen jährlich sterben daran.
100
Zwar gibt es Medikamente zur Behandlung der Tuberkulose. Die Therapie ist jedoch außerordentlich aufwändig und kostenintensiv: Sechs Monate lang müssen drei bis vier Medikamente täglich geschluckt werden. Viele Menschen vor allem in den ärmsten Ländern können sich das kaum leisten. Häufig kommt es daher zu einem verfrühten Abbruch der Therapie. Damit steigt das Risiko, dass sich resistente Erregerstämme bilden. In einigen Regionen, z. B. in Osteuropa und Russland, beträgt ihr Anteil bereits mehr als 15 Prozent aller Tuberkulosefälle. Diese sind sehr schwer oder gar nicht behandelbar. Ändern könnte dies nur ein effektiver Impfstoff – doch den gibt es zurzeit noch nicht. Der heute gebräuchliche TuberkuloseImpfstoff BCG, der aus abgeschwächten Erregern der Rinder-Tuberkulose besteht, schützt zwar Kleinkinder, bleibt aber bei Erwachsenen weitgehend wirkungslos. Er verhindert nämlich nicht, dass der Tuberkuloseerreger
Resistenztest an M. tuberculosis. Helle Bakterienkolonien zeigen unwirksame Medikamente an. © Centers for Disease Control (CDC)
KÖRPER, GEIST, GEHIRN
den Körper infiziert und dann dort latent ruht. Bei geschwächtem Immunsystem kann die Krankheit daher jederzeit ausbrechen. Und genau hier setzt der neue Impfstoffkandidat der Max-Planck-Forscher an. Der Weg zum Impfstoff-Kandidaten
Am Max-Planck-Institut für Infektionsbiologie in Berlin erforschen die Wissenschaftler um Stefan H. E. Kaufmann Infektionsmechanismen, um sie für eine neue Generation von Impfstoffen zu nutzen. Einen ersten Erfolg hat die Forschergruppe bereits für sich verbucht: Nach erfolgreich absolvierten Tierversuchen geht ein von den Berlinern entwickelter Impfstoffkandidat gegen die Tuberkulose Anfang 2007 in den klinischen Test der Phase 1. Der Impfstoff wurde an die Vakzine Projekt Management lizenziert, die gemeinsam mit den Max-Planck-Forschern die klinischen Studien durchführen wird. Er basiert auf dem herkömmlichen Tuberkulose-Impfstoff BCG, wartet aber mit einigen „Extras“ auf.
von Bakterien und Viren stammenden Proteinbruchstücke, die Antigene, zur Stimulierung einer Immunantwort an die Oberfläche der Wirtszelle bringen. Die Antigene von Bakterien werden von einem Shuttle-Typ, den so genannten MHC-II -Molekülen, an die Zelloberfläche der Fresszellen transportiert und aktivieren dort spezielle Immunzellen, die CD-4-T-Lymphozyten, auch T-Helfer-Zellen genannt. Diese sorgen
Aktuelles Plakat der Deutschen Lepra- und Tuberkulosehilfe e.V. zum Welt-TuberkuloseTag am 24. März 2006 © DAHW
Viren-„Trick“ gegen Bakterium
Der neue Impfstoffkandidat nutzt einen Mechanismus aus, von dem die Fachwelt bisher annahm, dass ihn das Immunsystem nur bei der Abwehr von Viren einsetzt, nicht aber gegen Bakterien. Normalerweise sind es unterschiedliche Shuttle-Moleküle, die die Die Initiative Stop-TB Ende Januar 2006 verabschiedete die „Stop TB Partnership“, eine übergreifende internationale Initiative zur Bekämpfung der Tuberkulose, einen „Global Plan 2006-2015“ . Er hat zum Ziel, in den kommenden zehn Jahren 50 Millionen Menschen von TB zu heilen und 14 Millionen Menschenleben zu retten. Dazu sollen auch neue Medikamente und ein effizienter Impfschutz entwickelt werden. Das von der WHO unterstützte Netzwerk hat errechnet, dass dafür 56 Milliarden US-Dollar nötig sind. Bis Juli 2006 war jedoch nicht einmal die Hälfte zugesagt.
101
Tuberkuloseerreger in einer Fresszelle © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
vor allem für die Einkapselung des Tuberkulose-Bakteriums, vernichten es aber nicht. Der Erreger bleibt damit im Körper. Virusantigene dagegen werden im Zellplasma durch MHC-I-Moleküle „aufgegriffen“ und aktivieren an der Zelloberfläche einen anderen Immunzelltyp, die CD-8-T-Lymphozyten. Diese Killerzellen zerstören dann die Wirtszelle mitsamt den in ihr enthaltenen Viren. Der Erreger ist damit beseitigt. „Ausstiegsluken“ ins Verderben
Doch es gibt auch Ausnahmen von dieser Verteilung. Eine davon entdeckte Kaufmann bei Arbeiten an dem Erreger Listeria monocytogenes, Bakterien, die beim Menschen Hirnhautentzündungen hervorrufen können. Listeria stimuliert nicht nur die für die Bakterien-Abwehr typischen CD-4-T-Zellen, sondern auch die CD-8-T-Zellen. Der Erreger kann In der Pipeline Tb-Impfstoffe im klinischen Test 2006/2007 bringt für gleich sechs verschiedene Tuberkulose-Impfstoffe den Start klinischer Tests. Für einige ist es die Phase 1 (Verträglichkeitstests an gesunden Probanden), andere beginnen bereits mit der 2. Phase, in der geprüft wird, ob überhaupt eine Immunantwort ausgelöst wird. Ein Kandidat basiert auf dem herkömmlichen BCG-Impfstoff, ist aber gentechnisch verändert. Er besteht aus einem besonders stark immunstimulierend wirkenden Antigen des Bakteriums (AG85), das von BCG überexprimiert wird (Aeras gemeinsam mit UCLA, Los Angeles). Diese Isolation einzelner Antigene des Tuberkulosebakteriums in so genannten Spaltvakzinen halten einige Forscher für eine viel versprechende Ergänzung zum Lebendimpfstoff. Einer der klinischen Tests soll daher zeigen, ob aus dem Tuberkulose-Erreger isolierte Antigene die Effektivität des bereits vorhandenen BCG- Impfstoffs verstärken. (University of Oxford, UK; Intercell Smart Vaccines, Wien gemeinsam mit Staten Serum Institut, Kopenhagen; GlaxoSmithKline) Der sechste Kandidat ist das „Super-BCG“ der Max-Planck-Forscher, das die Bakterien im Inneren der Fresszellen enttarnt und dadurch angreifbar macht. (Max-Planck-Institut für Infektionsbiologie, Berlin)
sich nämlich mithilfe eines Poren bildenden Proteins, dem Listeriolysin, „Ausstiegsluken“ aus den Vakuolen der Fresszellen schaffen. Das wiederum löst den „programmierten
102
Zelltod“ des Makrophagen aus – die Zelle zerlegt sich quasi selbst. Dabei werden Antigene des Bakteriums in winzige Bläschen, die Vesikel, eingeschlossen und freigesetzt. Umliegende Zellen nehmen diese Vesikel – und damit die Bakterienantigene – in ihr Zellplasma auf. Hier treffen diese auf MHC-I-Shuttles, die sie quasi als Virus behandeln und an der Zelloberfläche den CD8-Killerzellen präsentieren. Diese sind damit aktiviert und können nun gezielt die Bakterien vernichten. Der Trick der Impfstoffforscher bestand darin, den herkömmlichen BCG-Impfstoff durch gentechnische Manipulation mit dem entsprechenden Gen für das Enzym Listeriolysin auszustatten. Dadurch wird das Poren bildende Enzym auch vom abgeschwächten Tuberkulose-Impferreger produziert und die Killerzellen des Immunsystems können aktiviert werden. Erste Tests erfolgreich
Dass das tatsächlich funktioniert, zeigte sich bereits sowohl in Zellkulturversuchen als auch im Tierversuch: Der „Super-BCG“Impfstoff schützte tatsächlich gegen Lungentuberkulose und sogar gegen die aggressiven Vertreter der meist resistenten BeijingStämme – gegen beide ist die herkömmliche Vakzine wirkungslos. „Wir hoffen, dass wir mit dem neuen Impfstoff eine wirksame Waffe gegen die Tuberkulose gefunden haben“, sagt Kaufmann. Ob sich dieser Erfolg allerdings auf den Menschen übertragen lässt, ohne dass allzu viele Nebenwirkungen auftreten, müssen die Anfang 2007 beginnenden klinischen Tests zeigen.
KÖRPER, GEIST, GEHIRN
Wissen hoch 12: Was unterscheidet den von Ihnen entwickelten Impfstoffkandidaten vom herkömmlichen BCG?
Wir haben den klassischen Impfstoff BCG stärker immunogen gemacht. Das heißt, wir haben ihn mithilfe molekularbiologischer Methoden so verändert, dass die durch den Impfstoff ausgelöste Immunantwort den Tuberkulose-Erreger besser bekämpfen kann. Obwohl BCG durchaus eine Immunantwort induziert, die ausreicht, die schlimmsten Formen der Tuberkulose bei Kleinkindern zu verhindern, ist diese Immunantwort nicht in der Lage, die häufigste Krankheitsform – nämlich die Lungen-Tuberkulose bei Erwachsenen – einzudämmen. Die Immunität gegen Tuberkulose wird von T-Zellen getragen und zwar von unterschiedlichen T-Zell-Untergruppen. Der neue BCG-Impfstoff ist sowohl qualitativ als auch quantitativ besser, das heißt er stimuliert ein breiteres Spektrum an T-Zellen, die eine stärkere Immunantwort induzieren. Wie gehen Sie bei der Suche nach Ansatzstellen vor und warum erschienen Ihnen die Makrophagen besonders interessant?
Der Tuberkulose-Erreger ist ein intrazelluläres Bakterium, d.h. er überlebt in Makrophagen. Damit unterscheidet er sich von den meisten anderen bakteriellen Krankheitserregern, die von aktivierten Makrophagen abgetötet werden. Makrophagen werden durch T-Zellen koordiniert, die die Makrophagen aktivieren, sie also in die Lage versetzen, besser mit den Erregern intrazellulär fertig zu werden. Bei der Tuberkulose spielen Makrophagen eine Doppelrolle: Sie sind die wichtigsten Effektorzellen gegen Tuberkulose. Aber es gelingt ihnen lediglich die Tuberkulose-Erreger am Wachstum zu hemmen. Die Erreger können im Makrophagen überdauern. Ja, sie nutzen ihn regelrecht als bevorzugten Lebensraum. Darüber hinaus sind Makrophagen sowie ein
weiterer Zelltyp – die dendritischen Zellen – für die antigen-spezifische Stimulation der T-Zellen zuständig. Unser neuer Impfstoff löst bei Makrophagen wahrscheinlich den programmierten Zelltod aus – so sieht es zumindest aus. Die absterbenden Zellen bilden kleine Vesikel, in denen die Impfantigene stecken. Die dendritischen Zellen nehmen diese Bläschen auf und können dann wirkungsvoller die T-Zellen stimulieren, die spezifisch für diese Impfantigene sind. Während der Impfstoff BCG für das Immunsystem teilweise nicht erkennbar ist, werden die Antigene des neuen Impfstoffs vom Immunsystem besser erkannt. Und das führt zu einer stärkeren Immunantwort gegen den Erreger. Wie ordnen Sie diesen Impfstoffkandidaten gegenüber den anderen jetzt in der klinischen Phase befindlichen ein?
Interview
Prof. Dr. Stefan H. E. Kaufmann ist Direktor der Abteilung Immunologie am MaxPlanck-Institut für Infektionsbiologie in Berlin. Er erforscht unter anderem die Wechselwirkungen zwischen Immunsystem und Krankheitserregern. © MPG
Unser Impfstoff ist als Ersatz für den klassischen BCG-Impfstoff gedacht. Andere Impfstoffe, die derzeit gegen Tuberkulose entwickelt werden, sind Spaltvakzinen, die in präklinischen Untersuchungen keinen besseren Schutz gegen Tuberkulose als BCG hervorrufen, die aber den durch BCG induzierten Impfschutz möglicherweise verstärken. Dieses Impfschema wird als heterologes „Prime/Boost-Schema“ bezeichnet. Man setzt einen „Prime“ mit BCG und kommt später mit einem „Boost“ mit einem Impfstoff, der ein oder zwei Antigene enthält. Unser Impfstoff dagegen stimuliert einen Schutz, der in präklinischen Untersuchungen deutlich besser ist als der durch BCG induzierte. Wie lange wird es Ihrer Einschätzung nach dauern, bis ein umfassend wirksamer Impfstoff
gegen
die
Tuberkulose
auf
dem
Markt ist?
Die ersten klinischen Studien der Phase I haben für mehrere Tuberkulose-Impfstoffkan-
103
didaten begonnen. Dabei wird die Sicherheit und Verträglichkeit des Impfstoffs überprüft. Ein Impfstoff-Kandidat wird bald in eine klinische Studie Phase II treten. In diesen Untersuchungen soll über die Messung der Immunantwort festgestellt werden, wie gut das Impfstoffpotenzial eigentlich ist. Frühestens 2008 geht es dann in die ersten großen Phase III Studien, die prüfen, ob ein Schutz induziert wird. Danach muss man mit weiteren zehn Jahren rechnen. Unser Impfstoff wird mit aller Wahrscheinlichkeit Anfang 2007 in Phase I eintreten, sodass wir mit ersten eindeutigen Resultaten nicht vor Ablauf von zehn bis zwölf Jahren rechnen können.
Biosignaturen sollte es uns erlauben, schon während früher Phasen der Impfstudien die Effektivität der getesteten Impfstoffe abzuschätzen. Damit können wir bereits früh Kombinationen aus unterschiedlichen Impfstoffen voraussagen, die dann wiederum in klinischen Phasen als „Prime/Boost-Schema“ auf ihre Effektivität getestet werden können. * Unter Biomarkern versteht man charakteristische Substanzen des Stoffwechsels, wie zum Beispiel bestimmte Enzyme und Proteine, die sich durch die Einwirkung beispielsweise von Medikamenten oder Giften verändern.
Welche aktuellen Ansätze in der Impfstoffentwicklung allgemein halten Sie für besonders
Wie
könnte
die Tuberkulose-Impfung
der
Zukunft aussehen?
Aus meiner Sicht stellt sich die ideale Tuberkulose-Impfung als ein „Prime/Boost-Schema“ mit dem bestmöglichen „Prime-Kandidaten“ und dem bestmöglichen „Boost-Kandidaten“ dar. Ich bin guter Hoffnung, dass unser Impfstoff der beste Prime-Kandidat sein wird. In vergleichenden Impfstudien muss herausgefunden werden, welcher Kandidat sich als bester „Boost-Impfstoff “ erweist. Das dauert natürlich einige Zeit. Deshalb müssen wir von Beginn an Biomarker charakterisieren und definieren, die es uns ermöglichen, die Effektivität der einzelnen Impfstoffkandidaten so früh und so genau wie möglich zu bestimmen. Mit Unterstützung der Bill und Melinda Gates Stiftung versuchen wir mit sieben Partnern in Afrika und mehreren Partnern in Europa und den USA so genannte Biosignaturen zu definieren, die für Schutz und Schaden bei der Tuberkulose zumindest charakteristisch sind und hoffentlich sogar vorhersagenden Wert haben. Unter Biosignaturen verstehen wir eine Gruppe von Biomarkern*, die in ihrer Gesamtheit Aussagen über Schutz bzw. Schaden ermöglichen. Die Kenntnis solcher
104
viel versprechend?
Alle unsere heutigen Impfstoffe sind das Ergebnis von Arbeiten des letzten Jahrhunderts. Die meisten wurden in den 50er-Jahren des 20. Jahrhunderts entwickelt. Dies alles geschah empirisch. Die Empirie hat nun aber mehr oder weniger ihre Grenzen erreicht. Die Impfstoffe, die auf diese Weise entwickelt werden können, wurden gefunden. Nun müssen wir auf rationale Impfstoff-Entwicklungen bauen und hier können wir in erster Linie auf unser erweitertes Wissen in der Immunologie, der Molekularbiologie und der Zellbiologie setzen. Insbesondere die neueren Erkenntnisse in der Immunologie haben uns gezeigt, wie wir gezielt die Immunogenität verbessern können. Früher haben wir uns hauptsächlich auf die Identifizierung so genannter protektiver Antigene fokussiert, also welche Antigene im Impfstoff präsentiert sein müssen. Heute wissen wir, dass das für die Krankheiten, für die wir noch keine Impfstoffe haben, nicht ausreicht. Neben die Auswahl des protektiven Antigens, muss die Verbesserung der Immunogenität treten, d. h. die Stärke des Schutzes, die ein Impfstoffantigen induziert, muss deutlich verbessert werden.
KÖRPER, GEIST, GEHIRN
Wir lernen dabei von den Abwehrkräften, die sich bei natürlichen Infektionen entwickeln. Häufig reicht das aber nicht und wir müssen Wege entwickeln, diese natürliche Immunantwort weiter zu verstärken, das heißt wir müssen besser sein als die Natur. Trotz weltweiter Bemühungen ist bisher kein effektiver Aids-Impfstoff in Sicht. Warum?
Bei Aids kommen alle Schwierigkeiten zusammen. Erstens müssen wir eine starke Immunantwort auslösen, die sowohl von Antikörpern als auch von T-Zellen getragen wird. Zweitens verändert sich der Erreger sehr rasch und häufig, sodass wir meist mit dem Impfschutz hinterher hinken: Sobald eine einigermaßen gute Immunität aufgebaut ist, ist der Erreger für das Immunsystem schon wieder unsichtbar geworden, weil er sich verändert hat. In der Vergangenheit hat man sich – anlehnend an die klassischen Impfstoff-Entwicklungen – in erster Linie auf die antikörpervermittelte Immunität fokussiert. Das ist weitgehend fehlgeschlagen. Wie so häufig in
der Wissenschaft ist man dann zu rasch auf den nächsten Zug aufgesprungen und hat versucht nur T-Zellen zu stimulieren. Das ist sehr viel schwieriger und die entscheidenden Probleme habe ich bereits angesprochen. Aber auch T-Zellen reichen bei Aids nicht aus, und mit aller Wahrscheinlichkeit brauchen wir sowohl Antikörper als auch T-Zellen für einen guten Impfschutz. Hinzu kommt der Wechsel des Antigenmusters beim HI-Virus. Diese Problematik ist äußerst schwierig zu lösen. Es gibt aber erste Untersuchungen, die zeigen, dass die Veränderungen sich nicht zufällig vollziehen, sondern gewissen Regeln folgen. Sollten wir diese Regeln entschlüsseln können, so können wir einen Impfstoff entwickeln, der unterschiedliche Antigene enthält, die noch Schutz gegen HIV bieten, nachdem sich der Erreger mehrfach verändert hat. Aber auch mit dem größtem Optimismus: Bei Aids wird es noch einige Zeit dauern, bis wir einen Impfstoff verfügbar haben, der zufrieden stellend funktioniert.
Makrophage bei der Aufnahme des verbesserten BCG-Impfstoffs © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
105
Ein Blutgefäß wird von einem Tumor (links) angelockt. © MPI für Biochemie
Krebs – Kampf dem Tumor Krebs ist das Damoklesschwert unserer Zeit. Millionen von Menschen weltweit leiden an der Krankheit mit den vielen Gesichtern, täglich müssen sich Tausende neu mit der Diagnose auseinandersetzen. Denn trotz modernster Technologien und Therapien bedeutet sie in vielen Fällen noch immer ein Todesurteil. Entsprechend fieberhaft suchen Mediziner nach neuen Strategien im Kampf gegen den „Amoklauf “ der Zellen. In den letzten Jahren sind dabei besonders die genetischen und biochemischen Mechanismen der Tumorentwicklung und des Tumorwachstums in den Mittelpunkt des Forscherinteresses gerückt. Denn sie bieten erstmals die Möglichkeit, gezielt den Krebs zu bekämpfen, ohne dabei gesunde Zellen zu schädigen, wie dies bei den bisher gängigen Therapien Bestrahlung, Chemotherapie und Operation der Fall ist. Drei Strategien gelten zurzeit als besonders viel versprechend und werden entsprechend intensiv erforscht.
dern. Ein Beispiel dafür sind Wirkstoffe auf der Basis der so genannten RNA-Interferenz. Sie bestehen aus Negativkopien der Boten-RNA, dem Molekül, das eine Abschrift der Bauanleitung des Proteins vom Zellkern an die „Proteinfabriken“ der Zelle liefert. Die Kopien lagern sich an die Boten-RNA an und unterbinden so das Ablesen und damit die Produktion des entsprechenden Proteins. Im Jahr 2002 vom Wissenschaftsmagazin SCIENCE als eine der Entdeckungen des Jahres gefeiert, sind inzwischen die ersten Wirkstoffe auf dieser Basis in klinischen Tests.
Interferenz blockiert Proteinproduktion
In einem ersten Ansatz versuchen Wissenschaftler, bestimmte Proteine der Krebszellen zu blockieren und damit ein Wachstum oder eine Ausbreitung von Tumoren zu verhin-
106
Antikörper als Abwehrhilfe
Andere Forscher setzen am Immunsystem des Patienten an und hoffen, durch die Aktivierung bestimmter Abwehrzellen
KÖRPER, GEIST, GEHIRN
oder die gezielte Gabe bestimmter Immunfaktoren, wie beispielsweise Antikörper, den Krebs durch körpereigene Mittel zu zerstören oder zumindest seine Ausbreitung zu stoppen. Ein Beispiel für einen Wirkstoff auf Antikörperbasis ist Rituximab (MabThera), das gegen das Non-Hodgkin-Lymphom eingesetzt wird. Die Antikörper binden an einen Rezeptor, der nur auf den vom Krebs befallenen B-Zellen der Immunabwehr vorkommt und „markieren“ ihn damit für zellzerstörende Chemotherapeutika. Da unreife B-Vorläuferzellen diesen Rezeptor nicht besitzen, bleiben sie verschont und können nach der Chemotherapie neue, gesunde B-Zellen generieren. „Blutentzug“ gegen Tumorwachstum
In einem dritten Ansatz verfolgen Wissenschaftler die Möglichkeit, den Tumor buchstäblich „auszuhungern“. Denn um über eine Größe von wenigen Millimetern hinaus über-
leben zu können, muss der Tumor mit Nährstoffen und Sauerstoff und somit mit Blut versorgt sein. Um dies sicherzustellen, produziert er bestimmte Proteine, die als Wachstumsfaktoren auf das umliegende Gewebe wirken und die Entwicklung neuer Blutgefäße anregen. Sollte es gelingen, die Neubildung von Blutgefäßen, die so genannte Angiogenese, zu unterbinden, wäre das ein potenzieller Ansatzpunkt für eine Krebstherapie. Und genau diesen Ansatz nutzt ein 2006 neu zugelassenes Präparat gegen fortgeschrittenen Nierenkrebs und eine seltene Magen-Darmkrebsart, das gastrointestinale Stromakarzinom. Die wissenschaftliche Grundlage dafür wurde von deutschen Wissenschaftlern gelegt: Im Labor des Krebsforschers Axel Ullrich am MaxPlanck-Institut für Biochemie in Martinsried.
Blut versorgt auch den Tumor mit Nährstoffen und Sauerstoff. Hier zu sehen: rote Blutkörperchen, neutrophile Leukozyten (weiße Blutkörperchen) und Blutplättchen. © National Cancer Institute (NCI)
Angriff auf breiter Front Multispezifische Wirkstoffe – ein neuer Trend in der Krebstherapie Die Forschungen von Ullrich und seinem Team zielen auf einen der komplexesten, aber auch wichtigsten Bereiche des Tumorwachstums – auf die Kommunikation der Zellen. Denn erst die vielfältigen Signale, die von einer Zelle zur anderen, aber auch innerhalb der Zelle selber ausgetauscht werden, ermöglichen ihr normales Funktionieren. Ist diese Kommunikation gestört, geht nichts mehr – oder aber zuviel: Es wächst etwas, wo es nicht wachsen sollte – Krebs entsteht.
die als Botenstoffe und Wachstumsfaktoren fungieren und mit speziellen Bindungsstellen in der Zellmembran von Gefäßwandzellen reagieren. Eine dieser Bindungsstellen, den Flk1/VEGFR2-Rezeptor, hat Ullrich schon in den 1980er-Jahren genauer untersucht. Wie ein
In seinen Forschungsarbeiten beschäftigt sich Axel Ullrich mit der molekularen Signalübertragung. © MaxPlanck-Institut für Biochemie
Signalkaskade setzt Teilung in Gang
Die Krebszellen wiederum beeinflussen über chemische Signale ihre Umgebung. Um ihre Blutversorgung zu optimieren, geben sie den „Befehl“ für die Entwicklung neuer Blutgefäße. Dabei bilden sie bestimmte Proteine,
107
Tumorzellen wachsen in Kulturschalen als Einzelzellen (li.). Ist die Bildung von Prohibitin abgeschaltet – das Protein kontrolliert die Metastasenbildung -, entwickeln sich die gleichen Tumorzellen in dreidimensionalen Verbünden. © MaxPlanck-Institut für Infektionsbiologie
108
„Y“ sitzt er in der Zellwand und „angelt“ mit den beiden kurzen, nach außen ragenden Ärmchen nach passenden VEGF-Wachstumsfaktoren. Bindet ein solches Protein, verändert das „Y“ seine Form und der „lange Arm“ auf der Membraninnenseite aktiviert das Enzym Tyrosinkinase. Dieses startet nun seinerseits eine ganze Kaskade von Proteinaktivierungen, die das Signal bis in den Zellkern weiterleiten und dort die Zellteilung auslösen. Das Resultat dieser Kette von Ereignissen ist letztlich die Vermehrung der Gefäßwandzellen und damit das Gefäßwachstum. Hemmstoff blockiert Tyrosinkinasen
Genau an dieser Stelle sahen die Wissenschaftler ihre Chance zum Eingriff : Denn wird der Flk-1/VEGFR2-Rezeptor blockiert, wäre damit auch die Blutversorgung des Tumors
gestört – der Tumor würde „verhungern“ und nicht mehr weiter wachsen. Die Wissenschaftler begannen einen möglichst spezifischen Angiogenese-Hemmer – gewissermaßen einen „Appetitzügler“ für Tumore – zu entwickeln. Doch es zeigte sich sehr rasch, dass ein „Aushungern“ allein nicht zum Erfolg führen würde. Offenbar war ein Angriff an mehreren Fronten notwendig, um den Krebs nachhaltig zu schädigen. Tatsächlich gelang es den Max-Planck-Forschern einen Hemmstoff zu entwickeln, der bereits den Beginn der Signalkaskade und damit eine ganze Reihe von wichtigen Kommunikationsprozessen blockiert, nämlich die Aktivierung der Tyrosinkinasen. Allerdings gab es da einen Haken: Eine so breite Wirkung könnte – so jedenfalls die allgemeine Annahme – auch gesunde Zellen
KÖRPER, GEIST, GEHIRN
in Mitleidenschaft ziehen und schwere Nebenwirkungen hervorrufen. Doch die Versuchsergebnisse widersprachen dem: Die Nebenwirkungen waren sogar geringer als angenommen. „Das ist die große Überraschung der letzten fünf bis zehn Jahre“, erklärt Ullrich. „Wir haben immer gedacht, es sei wichtig, möglichst spezifische Medikamente einzusetzen.“ Der von den Max-Planck-Forschern entdeckte TyrosinkinaseHemmer blockiert nicht nur die Bildung von Blutgefäßen in Tumoren, sondern noch weitere krankheitsrelevante Enzyme im Signalnetzwerk der Tumorzellen. Die ersten Schritte zum eigentlichen Wirkstoff wurden bei einem kleinen kalifornischen Biotechnologie-Unternehmen gemacht, der von Ullrich zusammen mit der New York University gegründeten Firma Sugen Inc., und schließlich – nach der Übernahme von Sugen – vom Pharmakonzern Pfizer unter dem Präparatnamen Sutent® (Wirkstoff Sunitinib) zur Marktreife gebracht. Zulassung 2006 erfolgt
Klinische Tests bei Patienten mit gastrointestinalem Stromakarzinom haben inzwischen gezeigt, dass die Zeit bis zum erneuten Wachstum der Tumoren unter Behandlung mit Sunitinib vier Mal so lang ist wie bei einer Placebo-behandelten Kontrollgruppe. Bei Patienten mit fortgeschrittenem Nierenzellkarzinom offenbarten die Studien sogar eine Reduktion der Tumorgröße. Bei jedem dritten Patienten mit Nierenzellkarzinom schrumpfte der Tumor um mehr als die Hälfte. In den USA wurde Sunitinib im Januar 2006 als Medikament gegen diese beiden Krebsarten offiziell zugelassen. „Bereits im Vorfeld der Zulassung können durch das beschleunigte Verfahren der FDA mehr als 1.700 Patienten mit dem neuen Präparat behandelt werden“, freut sich Ullrich. In Deutschland erfolgte die Zulassung und Markteinführung am 20. Juli 2006.
Steckbrief: Sutent® (Sunitinib) Hersteller: Pfizer Indikation: fortgeschrittenes Nierenzellkarzinom und gastrointestinales Stromakarzinom (GIST) Zulassung: Im Januar 2006 durch die amerikanische Arzneimittelbehörde FDA, in Europa bisher bedingte Marktzulassung, wenn andere Therapien (Interferon Alpha oder Interleukin -2) fehlgeschlagen sind. Weitere klinische Tests laufen derzeit mit Patienten, die an fortgeschrittenen Formen von Blasenkrebs, Brustkrebs, Gebärmutterhalskrebs, Dickdarmkrebs, Speiseröhrenkrebs, Kopf- und Nacken-Tumoren, Leberkrebs, Lungenkrebs, Melanom, Eierstockkrebs, Bauchspeicheldrüsenkrebs, Prostatakrebs und Hodenkrebs leiden. Die Studien befinden sich 2006 in verschiedenen Phasen der klinischen Prüfung (Phase I bis III) und werden meist in Kombination mit anderen Therapeutika durchgeführt. Bild: © MPG
Multispezifische Wirkstoffe im Trend
„Die Behandlung mit multispezifischen Wirkstoffen, die die Signalübertragung bei Tumorzellen hemmen, stellt einen neuen Meilenstein in der Krebstherapie dar, weil sie in vielfältiger Weise kritische Krebszell-Funktionen angreift und von den Patienten gut vertragen wird“, fasst Ullrich den Trend der Forschung zusammen. Und er muss es wissen – denn der Wissenschaftler ist der erfolgreichste Krebsforscher Deutschlands. 60 angemeldete Patente und vier Ausgründungen von Biotechnologie-Unternehmen zieren mittlerweile seine Bilanz.
VEGF-Rezeptor © MMCD
109
Was sonst noch geschah Contergan-Wirkstoff Thalidomid als Krebsmittel
In den 1960er-Jahren erlangte Thalidomid unter dem Markennamen Contergan traurige Berühmtheit, weil es schwere Missbildungen auslöste. Doch jetzt feiert es eine Renaissance als Krebsmedikament. In mehreren Ländern, darunter den USA, Australien und der Türkei ist es als Wirkstoff gegen das Multiple Myelom, eine Krebserkrankung des Knochenmarks, zugelassen. Zahlreiche Studien – allein 80 im Jahr 2005/2006 – untersuchen zurzeit weitere Anwendungsmöglichkeiten in der Krebstherapie. (National Cancer Institute, Mai 2006) Neues Zielgen für Krebstherapie Immunfluoreszenzmikroskopische Aufnahme einer sich teilenden menschlichen Zelle. Die Chromosomen sind blau, die Mikrotubuli der Teilungsspindel grün und die beiden Zentrosomen gelb/orange eingefärbt. Skala: 10 Mikrometer © Max-Planck-Institut für Biochemie
Krebsforscher der Johann Wolfgang Goethe-Universität in Frankfurt am Main haben mit dem Protein Polo-like kinase 1 (Plk1) ein Krebsgen entdeckt, das sich als Zielgen für die gezielte molekulare Therapie von Tumoren eignet. Das Protein Plk1 wird für die Reifung der Zentrosomen, für die Ausbildung des Spindelapparates, die Trennung der Chromosomen und für die Trennung der bei der Mitose entstehenden Tochterzellen benötigt. Hemmt ein Medikament Plk1, ist keine Zellteilung mehr möglich. Ein Pharmaunternehmen entwickelt bereits erste Hemmstoffe gegen Plk1 und testet diese in klinischen Versuchen an Patienten. (NATURE REVIEWS CANCER April 2006) Impfung mit Krebszellen gegen Krebs
Eine Impfung mit körpereigenen Krebszellen kann die Überlebenszeit von Patienten mit bestimmten Hirntumoren, dem Glioblastom, verlängern. Die Krebszellen werden dafür entnommen und mit einem für Menschen unschädlichen Vogelvirus markiert. Damit sind sie für das Immunsystem „enttarnt“ und aktivieren die Abwehr gegen das Glioblastom. In einer ersten Studie am Menschen zeigte das Verfahren Wirkung. (Universität Heidelberg/ Deutsches Krebsforschungszentrum, November 2005)
Sterbende Krebszelle © National Cancer Institute (NCI)
110
KÖRPER, GEIST, GEHIRN
Wissen hoch 12: Der auf Ihren Forschungsar-
Ist bei diesen nicht die Gefahr von Nebenwir-
beiten beruhende Wirkstoff Sunitinib setzt an
kungen größer?
der Angiogenese, der Bildung neuer Blutgefäße
Die Gefahr besteht, doch wie die Erfahrungen mit den ersten derartigen Medikamenten in den letzten zehn Jahren klinischer Prüfung gezeigt haben, sind die Nebenwirkungen schwächer als erwartet.
für die Versorgung des Tumors an. Was können Angiogenesehemmer zukünftig möglicherweise leisten – und was nicht?
Spezifische Angiogenesehemmer werden in der Zukunft hauptsächlich als Bestandteile von Kombinationstherapien eingesetzt werden. Da Sutent® ein multispezifisches Krebsmedikament darstellt, also nicht nur die Tumorangiogenese blockiert, sondern auch andere für wichtige Krebszelleigenschaften essenzielle Proteine inaktiviert, bewirkt es diesen Kombinationseffekt bereits alleine. Ihr Tyrosinkinase-Hemmstoff zielt auf die Blockade der zellulären Kommunikation. Warum gerade die Tyrosinkinase? Sehen Sie noch weitere potenzielle Ansatzstellen in der Signal-
Interview
Welche aktuellen Ansätze bei der Suche nach neuen Krebsmedikamenten halten Sie noch für besonders Erfolg versprechend?
Die Entwicklung weiterer multispezifischer Kinasehemmer, die in der Zukunft dem Onkologen ein Breitbandspektrum von Medikamenten zur Verfügung stellt, welches je nach Krebstyp eingesetzt werden kann. Außerdem halte ich die Weiterentwicklung von Wirkstoffen für essenziell, die das Immunsysten stärken und damit dem Körper die Möglichkeit geben, sich selbst zu wehren.
Prof. Axel Ullrich, Direktor am MaxPlanck-Institut für Biochemie in Martinsried, zählt zu den erfolgreichsten Krebsforschern weltweit. Auch das Brustkrebsmedikament Herceptin® geht auf seine Forschungen zurück. © MPG
kaskade?
Tyrosinkinasen sind Enzyme, die bei der Vermittlung von zellulären Signalen eine zentrale Rolle spielen. Abnorme Veränderungen in ihrer Funktion, die zum Beispiel durch Mutationen in den entsprechenden Genen verursacht werden können, spielen häufig eine kausale Rolle bei der Krebsprogression und stellen daher ideale Zielmoleküle für die Entwicklung von neuartigen Krebsmedikamenten dar.
Wird die Medizin eines Tages den Krebs komplett besiegen können? Oder müssen wir auch zukünftig mit diesem „Damoklesschwert“ leben?
Wenn wir es schaffen würden Krebs zu einer chronischen Krankheit zu machen, mit der wir leben können, wäre das schon ein großer Sieg. Krebspatientin bei der Chemotherapie © National Cancer Institute (NCI)
Was macht die multispezifischen Wirkstoffe – zu denen Sunitinib gehört – so interessant?
Krebs ist eine äußerst komplexe Erkrankung, die durch Defekte in einer Vielzahl von zellulären Signalübertragungsprozessen verursacht wird. Dieser Komplexität wird durch die multispezifische Wirksamkeit von Sutent® Rechnung getragen. Der Krebstumor wird also an mehreren Fronten angegriffen.
111
Ein Schachbrettmuster (links) als visueller Reiz ruft Neuronenaktivität im Gehirn hervor, die mit Elektroden (vorne) und funktioneller Magnetresonanztomographie (hinten) aufgezeichnet wurde. © Max-PlanckInstitut für biologische Kybernetik
Der neue Blick ins Gehirn Unser Gehirn ist nicht nur in der Lage, unsere Bewegungen im Raum zu steuern, sondern es koordiniert auch die Informationen unserer fünf Sinne über die Umwelt; es erlaubt uns zu sprechen, zu denken und zu fühlen – ohne dieses oberste Steuerungs- und Schaltorgan wären wir nichts. Aber was passiert in unseren Köpfen wenn wir denken? Welche Signale lassen Bilder oder Sätze im Kopf entstehen? Und wie formt sich aus den vielen Eindrücken das Bewusstsein unserer selbst und unserer Umwelt? Antworten auf diese Fragen suchen Wissenschaftler schon seit Jahrhunderten. Inzwischen ist das Wissen um die Vorgänge in unserem Kopf zwar gewachsen, aber noch immer klaffen große Lücken in der „Landkarte des Bewusstseins“. Um diese zu füllen, setzen Hirnforscher heute vor allem auf so genannte
112
bildgebende Verfahren – Techniken, die einen immer genaueren Einblick in die Vorgänge in unserem Gehirn ermöglichen. Dem Gehirn beim Denken zusehen
Mithilfe der Computertomografie (CT) und der Magnetresonanztomografie (MRT)
KÖRPER, GEIST, GEHIRN
können viele Details im Gehirn sichtbar gemacht und so beispielsweise Tumore oder Blutgerinnsel identifiziert werden. Für die medizinische Diagnostik sind sie heute daher unverzichtbar geworden. Tatsächlich werden hierbei aber nur Strukturen sichtbar – Informationen über die Gehirnfunktionen, die ja die Grundlage unseres Denkens und Fühlens bilden, erhält man auf diesem Wege nicht. Aufschluss über die Gehirnaktivität liefern funktionelle Verfahren wie die Positronen-Emissions-Tomografie (PET) oder die funktionelle Magnetresonanztomografie (fMRT). Aus der modernen Neurowissenschaft kaum mehr wegzudenken, zeigen diese farbigen Aufnahmen, wo im Gehirn beispielsweise beim Lesen oder Hören hohe oder niedrige Aktivität herrscht. Sie erlauben es den Wissenschaftlern gewissermaßen, dem Gehirn beim Denken zuzusehen – bis auf weniger als einen Millimeter genau können Forscher die Aktivitätsmuster im Gehirn studieren und so die Entwicklung neuronaler Netzwerke für das Sehen, Sprechen und Hören untersuchen.
Professor Dr. Nikos K. Logothetis, Direktor am Max-Planck-Institut für biologische Kybernetik, erforscht die neuralen Mechanismen unserer Wahrnehmung. © Max-Planck-Institut für biologische Kybernetik
Wie aussagekräftig sind die Aufnahmen?
Nach einer Phase der Euphorie macht sich unter Wissenschaftlern allerdings Skepsis breit, wie aussagekräftig die bunten Bilder wirklich sind. Mit der fMRT lassen sich zwar Unmengen von Daten produzieren, vielfach fehlt es aber an Hintergrundinformationen oder Grundlagen, um die Messwerte richtig interpretieren zu können. So klafft eine große Lücke zwischen der räumlich aufgelösten Betrachtung der Hirnaktivität mittels funktioneller Magnetresonanztomografie und den vielen auf der Basis elektrophysiologischer Ableitungen am Tiermodell errungenen Erkenntnissen. Nikos K. Logothetis und seinen Mitarbeitern vom Max-PlanckInstitut für biologische Kybernetik in Tübingen ist es gelungen, das Verständnis für die Grundlagen der fMRT maßgeblich zu erweitern und damit die kognitive Neurobiologie einen entscheidenden Schritt voranzubringen.
Taktile Reize der Hörrinde. Experimente mithilfe der hochauflösenden Magnetresonanztomografie zeigen, dass akustische Aktivität in der Hörrinde durch gleichzeitige Stimulation der Hand verstärkt wird. Diese sensorische Integration (blaue Region) findet nicht in der primären Hörrinde (rote Region) statt, sondern außerhalb dieser, in der sekundären Hörrinde (gelb umrahmtes Gebiet). © Max-Planck-Institut für biologische Kybernetik
113
fMRT Mehr als nur bunte Bilder Die funktionelle Magnetresonanztomografie (fMRT) misst die räumlichen und zeitlichen Veränderungen des Blutzuflusses und der Sauerstoffkonzentration im Gehirn. Sie misst damit quasi Sekundärsignale, denn die Gehirnaktivität selbst wird so nur indirekt erfasst. Richtig interpretieren können die Hirnforscher die fMRT-Signale daher nur dann, wenn sie die Beziehung zwischen diesen Signalen und der ihnen zugrunde liegenden neuronalen Aktivität verstehen. Eingangssignale sichtbar gemacht
fMRT-Aufnahme der primären Sehrinde eines Patienten mit Netzhautverletzung. Vorne: Signale vom Punkt des schärfsten Sehens der Netzhaut werden im roten Bereich verarbeitet. Der von Konturen umgebene gräuliche Bereich ohne Aktivität entspricht der im Hintergrundbild weißlichen Netzhautverletzung. © Max-Planck-Institut für biologische Kybernetik
114
Ein wichtiger Schritt hin zu diesem Verständnis gelang Logothetis und seinen Mitarbeitern am Max-Planck-Institut für biologische Kybernetik. Sie wiesen mithilfe von Spezialelektroden und einer aufwändigen Datenverarbeitung nach, dass die Signale der funktionellen Magnetresonanztomografie tatsächlich Veränderungen der Neuronenaktivität widerspiegeln. Man kann sogar zwischen ein- und ausgehenden Nervenimpulsen unterscheiden: Denn die Forscher stellten fest, dass Änderungen des Sauerstoffgehalts das Einlaufen von Signalen in die jeweilige Hirnregion und deren Verarbeitung widerspiegeln, nicht aber die Ausgangssignale, die an andere Hirnregionen weitergegeben werden. „Wir haben jetzt erstmals die Möglichkeit, zu verstehen, was einzelne Neurone tun und wie sie ihre Aufgabe im Kontext funktionsspezifischer neuronaler Netzwerke erfüllen“, sagt Logothetis.
Das Gehirn rechnet auch ohne fMRT-Signal
Die experimentellen Untersuchungen der Tübinger ergaben außerdem, dass das Signal-Rausch-Verhältnis bei fMRT-Daten sehr viel kleiner ist als bei elektrophysiologischen Ableitungen. Ein Teil des „echten“ Signals kann also vom Hintergrundrauschen nicht getrennt werden und wird deshalb nicht erkannt. „Dies hat zur Folge, dass bei der üblichen statistischen Auswertung menschlicher fMRT-Daten die Ausdehnung der neuronalen Aktivität im Gehirn unterschätzt wird“, so Logothetis. Kognitionswissenschaftler müssen sich daher in Zukunft bei der Interpretation ihrer fMRTDaten darauf einstellen, dass das scheinbare Fehlen eines fMRT-Signals nicht unbedingt bedeutet, dass in diesem Hirnbereich keine neuronale Informationsverarbeitung stattfindet. Vom Nutzen negativer Signale
Immer wieder registrieren die Wissenschaftler in ihren Studien auch Fälle, in denen Blutfluss und Sauerstoffgehalt des Gehirns anhaltend vermindert sind. Was aber ist hierfür die Ursache? Auch das konnten die Max-Planck-Wissenschaftler in ihren jüngsten Untersuchungen zeigen: Die fehlenden Signale sind nicht etwa auf einen „Stealing effect“ zurückzuführen – das heißt eine Abnahme des Blutflusses in einem Areal aufgrund der Zunahme in einem anderen – sondern werden tatsächlich durch eine Abnahme der neuronalen Aktivität ausgelöst. Das eröffnet wertvolle Einblicke gerade auch in krankhafte Veränderungen des Hirnstoffwechsels: „Unsere Studie ermöglicht es den Forschern, die negativen Signale der funktionellen Hirnbildgebung zu nutzen, um daraus auf Abschwächungen der Hirnaktivität in Verbindung mit bestimmten kognitiven Aufgaben oder neurologischen Erkrankungen zu schließen“, erklärt Logothetis.
KÖRPER, GEIST, GEHIRN
PET-Aufnahme eines gesunden Gehirns. Deutlich sind die Unterschiede in der Glukoseanreicherung zwischen grauen Gehirnzellen (rötlich-gelb) und weißen Gehirnzellen (bläulich-grün) erkennbar. © National Cancer Institute (NCI)
Magnetresonanz-Schnittbild durch das Gehirn eines Patienten mit Gehirnmetastase (hellblau) im Hinterkopf. © National Cancer Institute (NCI)
Positronen-Emissions-Tomographie (PET)
Funktionelle Magnetresonanztomographie (fMRT)
Eingesetzte Strahlung: keine Marker/Kontrastmittel: Radionuklide – radioaktive Isotope der Elemente Fluor, Kohlenstoff, Stickstoff und Sauerstoff. Am häufigsten als Marker eingesetzt wird eine mit radioaktivem Fluor markierte Glukoseform (18F-Fluor-Desoxyglukose (FDG)).
Eingesetzte Strahlung: Magnetfelder und Radiowellen
Funktionsweise: Nach Injektion oder Inhalation des Markers liegt der Patient in einem Ring aus Detektoren. Im Verlauf des radioaktiven Zerfalls entstehen Photonen – Lichtteilchen – die von den Sensoren registriert und deren Quelle lokalisiert wird. Aus der Gesamtheit aller Treffer entsteht durch Berechnungen ein dreidimensionales Modell und ein Schnittbild.
Funktionsweise: Die MRT, auch Kernspintomografie genannt, beruht auf den magnetischen Eigenschaften von Atomkernen. Mit starken Magnetfeldern werden die Wasserstoffatome im Körper zunächst einheitlich ausgerichtet. Radiowellenpulse stören diese Ausrichtung kurzzeitig, bei Abschaltung der Radiowellen fallen die Atome jedoch wieder in die ursprüngliche Ausrichtung zurück und senden dabei ein messbares Signal aus. In aufwändigen Rechenoperationen entsteht aus diesen ein dreidimensionales Bild. Das Magnetverhalten unterscheidet sich zum Beispiel auch bei sauerstoffreichem und -armem Blut und macht damit auch die stärkere Durchblutung von aktiven Gehirnbereichen sichtbar.
Anwendungen: Onkologie: Diagnose, Stadium und Lage von Tumoren; Neurologie: Gehirnstoffwechsel; Kardiologie: Durchblutung des Herzmuskels Räumliche Auflösung: gering (4-5 Millimeter) Zeitliche Auflösung: gering
Marker/Kontrastmittel: nicht essenziell, Flüssigkeiten mit abweichenden magnetischen Eigenschaften werden zur Erhöhung des Kontrasts eingesetzt.
Anwendungen: vor allem in der Neurologie und Neuropsychiatrie, zeigt zum Beispiel Unterschiede im Gehirnstoffwechsel bei Aktivität, aber auch bei psychischen Erkrankungen. Räumliche Auflösung: etwa 1 Millimeter Zeitliche Auflösung: gering
115
Helfer an der Südseite der Wittower Fähre auf Rügen © Holger Vonberg
Vogelgrippe – das Virus erreicht Deutschland Am 16. Februar 2006 bestätigte das Nationale Referenzlabor für aviäre Influenza am Friedrich-Loeffler-Institut (FLI) die ersten Fälle von Vogelgrippe in Deutschland. Spaziergänger hatten einige Tage zuvor im Norden der Insel Rügen nahe der Wittower Fähre zwei tote Schwäne gefunden. Veterinärmedizinische Untersuchungen ergaben, dass die Tiere mit dem Erreger H5N1 infiziert waren. Damit wurde endgültig Wirklichkeit, was Wissenschaftler ohnehin längst befürchtet hatten: Dass nämlich die Ausbreitung des Vogelgrippe-Virus über infizierte Zugvögel von Südostasien nach Europa auch vor den deutschen Grenzen nicht halt machen würde. In vielen Bundesländern darunter Bayern, Baden-Württemberg und Brandenburg wurden in den folgenden Tagen und Wochen
116
weitere Fälle von Vogelgrippe bei Wildvögeln registriert. Vor allem Höckerschwäne waren betroffen. Später starben an dem Virus auch drei Hauskatzen und – weltweit erstmals – ein Steinmarder. Um die Gefahr für den Menschen so gering wie möglich zu halten und vor allem ein Übergreifen der Tierseuche auf Zuchtgeflügel zu verhindern, leiteten die zustän-
KÖRPER, GEIST, GEHIRN
digen Behörden in den betroffenen Gebieten umgehend entsprechende Maßnahmen ein. Die Fundorte von verendeten Tieren wurden abgeriegelt und Sperrzonen errichtet. Sogar die Bundeswehr musste beim Kampf gegen die Tierseuche helfen. Zusammen mit dem Technischen Hilfswerk desinfizierten die Soldaten tagelang Fahrzeuge und Menschen, die nach Rügen oder von der Insel auf das Festland fahren wollten. Vogelgrippe auch bei Zuchtgeflügel
Weder diese Maßnahmen noch die Stallpflicht für Hühner, Puten und Gänse und ein Verbot für Geflügelmärkte konnten letztlich das Einschleppen des Virus auf eine Geflügelfarm in Mutzschen bei Leipzig verhindern: Am 4. April 2006, rund zwei Monate nach dem ersten Auftreten der Seuche in Deutschland, diagnostizierte das FLI dort einen Befall des Tierbestandes mit H5N1. 800 Puten starben an der Vogelgrippe, mehrere tausend Puten, Gänse und Hühner mussten von Spezialisten getötet werden, um eine weitere Ausbreitung der Seuche und damit enorme Schäden in der Landwirtschaft zu verhindern. Die Ursache für diesen Virus-Ausbruch ist bis heute nicht endgültig geklärt, vermutet wird eine Ansteckung durch direkten oder indirekten Kontakt mit infizierten Wildvögeln. Mit Mutzschen aber war der Höhepunkt des ersten Vogelgrippe-Ausbruchs in Deutschland bereits erreicht. Die Keulungen und andere Maßnahmen zur Eindämmung der Seuche zeigten Wirkung. Innerhalb von wenigen Wochen flaute die Epidemie ab und kam schließlich ganz zum Erliegen.
starben 54 der bislang in diesem Jahr gemeldeten 84 infizierten Personen. Anders als das humane Grippevirus ist H5N1 aber für den Menschen in der Regel nicht ansteckend, weil es auf Geflügel spezialisiert ist. Lediglich Personen, die in sehr engen Kontakt zu Geflügel kommen – wie beispielsweise auf den Geflügelmärkten Asiens –, können sich infizieren. Während das Vogelgrippe-Virus für Schlagzeilen in den Tageszeitungen und Fernsehnachrichten sorgte, blieb völlig unbeachtet, dass die Zahl der Menschen, die jedes Jahr an der ganz „normalen“ Grippe sterben weit höher liegt: Im Durchschnitt verursachen Influenzawellen jedes Jahr schätzungsweise 10.000 Todesfälle in Deutschland. Das Grippevirus hat sich dabei eine besonders clevere Strategie ausgedacht, um sich auszubreiten: Es verändert sich laufend – und das ist auch der Grund, warum wir jedes Jahr einen neuen Grippe-Impfstoff benötigen.
H5N1-Virionen © CDC, Cynthia Goldsmith, Jackie Katz
Vogelgrippe-Virus H5N1 (gold eingefärbt) © CDC, Cynthia Goldsmith
Zwischen Hysterie und berechtigter Sorge
Das Vogelgrippe-Virus ist für den Menschen bereits heute äußerst letal, das heißt, wer sich infiziert, kann daran sterben: im Jahr 2005 überlebten 41 von 95 Menschen die Infektion nicht, bis Anfang Juni 2006
117
Ausbruchs- und Verdachtsfälle von aviärem Influenzavirus © Friedrich-Loeffler-Institut (FLI)
118
KÖRPER, GEIST, GEHIRN
Trojanische Pferde verbreiten das Virus
Die eigentliche Gefahr bei der Vogelgrippe besteht darin, dass sich eine an Grippe erkrankte Person über den Kontakt mit Geflügel mit dem Virus H5N1 infiziert. Die beiden Virus-Arten könnten dann Gene miteinander austauschen. Dabei könnte ein neues Super-Virus entstehen, das die hohe Ansteckungskraft des humanen und die Letalität des Vogelgrippe-Virus besitzt. Die Frage wäre dann: Wer ist schneller – das sich ausbreitende Virus oder die Impfstoffentwickler? Etwa fünf bis sechs Monate benötigen wir heute, um einen neuen Grippe-Impfstoff zu entwickeln und zu produzieren. Zur Verbreitung des Virus tragen vor allem jene Organismen bei, die sich zwar infizieren, aber selber nicht erkranken. Für das Vogelgrippe-Virus stellen Enten ein solches trojanisches Pferd dar. Sie sind relativ widerstandsfähig gegenüber einer Infektion mit H5N1 und erkranken daran nicht mehr. Da sie aber trotzdem das Virus über Kot und Sekrete ausscheiden, hat sich der Erreger hier ein kaum kontrollierbares stilles Reservoir erobert. Springt das Virus über?
Doch auch ohne einen Gen-Austausch mit humanen Influenzaviren könnte das Vogelgrippe-Virus auf den Menschen überspringen: Amerikanische Wissenschaftler haben den Erreger der Spanischen Grippe untersucht, die zwischen 1918 und 1920 grassierte und weltweit Millionen Todesopfer forderte. Dieser Erreger gehört zum Subtyp H1N1. Er enthielt, wie die Forscher zeigen konnten, keine Abschnitte von humanen Influenzaviren, war also ein reines Vogelvirus, das es durch eine Reihe genetischer Veränderungen geschafft hatte, sich an den Menschen anzupassen. Ein Vergleich zeigte, dass einzelne genetische Merkmale des Erregers der Spanischen
Grippe inzwischen auch bei H5N1 zu finden sind, allerdings bislang nie im selben Virus. Und diese Mutationen scheinen vorübergehender Natur zu sein, die sich nicht in den zirkulierenden H5N1-Stämmen festgesetzt haben. Trotzdem sind sich Wissenschaftler wie Stefan H. E. Kaufmann vom Max-PlanckInstitut für Infektionsbiologie sicher, dass das Vogelgrippe-Virus irgendwann auf den Menschen überspringen wird: „Es ist keine Frage, ob es passiert“, sagt der renommierte Immunologe, „sondern wann es passiert.“
WAS SONST NOCH GESCHAH H5N1: Durch kleine Mutation zum Menschenvirus Das H5N1 Virus ist hoch ansteckend und tödlich – für Vögel. Bisher traten Infektionen mit Vogelgrippe bei Menschen dagegen nur in begrenztem Umfang auf und eine Übertragung von Mensch zu Mensch ist bisher nicht nachgewiesen. Doch das könnte sich schon bald ändern. Wie Wissenschaftler um Ian Wilson vom Scripps Forschungsinstitut im März 2006 in einer Studie belegten, könnten schon kleine Mutationen des aggressiven Virenstamms H5N1 seine Bindungsstellen so verändern, dass er statt des Verdauungstrakts von Vögeln die Atemwege von Menschen befällt. Damit wäre der Weg frei für eine Mensch-Mensch-Übertragung und die Gefahr einer weltweiten Grippeepidemie mit möglicherweise viele Millionen Toten würde sich deutlich erhöhen. (SCIENCE, März 2006) Wer soll bei Pandemien zuerst geimpft werden? Pandemien haben nicht nur verheerende Folgen, sie stellen die Gesundheitsbehörden und Ärzte auch vor eine schwierige Entscheidung: Wer soll bei knappen Impfstoffen bevorzugt geimpft werden? Sollte die Vogelgrippe sich von einer Tierseuche zu einer von Mensch zu Mensch übertragbaren Krankheit verändern, könnten Millionen erkranken. Im ersten Jahr einer Pandemie, so schätzen Experten, wären wegen Engpässen bei der Impfstoffproduktion bis zu 90 Prozent der Bevölkerung ungeschützt. Bei der Verteilung der knappen Impfstoffdosen sollte das oberste Ziel sein, so viele Leben wie möglich zu retten. Nach bisherigen Richtlinien sollen neben den Beschäftigten im Gesundheitswesen und Katastrophenschützern, Kleinkinder unter zwei Jahren und ältere Menschen ab 65 als erstes mit Impfstoffen versorgt werden.
Wissenschaftler der Universität von Vermont und der amerikanischen National Institutes of Health (NIH), haben nun in der Fachzeitschrift SCIENCE in Frage gestellt, ob diese Strategie wirklich die meisten Leben retten könnte. Ihrer Ansicht nach gibt es einen großen Unterschied zwischen dem Retten der meisten Leben und dem der meisten noch zu erwartenden Lebensjahre. Sie plädieren daher dafür, vor allem junge Erwachsene zu impfen, denn diese hätten noch viele Lebensjahre vor sich und wären im Gegensatz zu Kleinkindern auch schon alleine überlebensfähig. „Es wäre schön, wenn wir gar nicht erst vor eine solche Entscheidung gestellt werden würden“, betonen die Wissenschaftler, „aber an einem bestimmten Punkt wird es nun mal wahrscheinlich, dass wir mit einer Pandemie oder etwas ähnlichem konfrontiert werden, die uns vor ein solches Dilemma stellt.“ (SCIENCE, Mai 2006)
119
120
QUANTEN, LASER, ZAHLENSPIELE Woraus besteht unsere Materie? Wie hat alles begonnen? Und was hält die Welt im Innersten zusammen? Bis heute haben Physiker auf diese Fragen keine eindeutigen Antworten. Selbst geniale Forscher wie Albert Einstein, Max Planck oder Erwin Schrödinger konnten nur Teilantworten liefern. Zwar gibt es heute mit der Stringtheorie und der Schleifen quantengravitation zwei viel versprechende Anwärter für ein neues, umfassendes Erklärungsmodell der Physik, beide aber sind zurzeit noch reine Gedankengebäude. Von 2007 an jedoch könnte sich dies ändern: Denn dann nehmen technische Instrumente und Geräte ihre Arbeit auf, die erstmals die Chance bieten, Indizien für die eine oder andere Theorie experimentell zu belegen. Der Herbst 2005 brachte ein besonderes Ereignis für die deutsche Physikergemeinde: Denn der renommierte Laserforscher Theodor W. Hänsch erhielt den Physik-Nobelpreis. Ausgezeichnet wurde der MaxPlanck-Direktor für die Entwicklung des Laserfrequenzkamms – einer völlig neuartigen Methode, mit der sich zum ersten Mal die Frequenz von Lichtwellen direkt und genau messen lässt. Gleichzeitig eröffnet dieses „Laserlineal“ neue Möglichkeiten, auch die Zeit exakter zu bestimmen. Damit schafft es gleichzeitig eine wichtige Voraussetzung für zukünftige experimentelle Tests der beiden konkurrierenden physikalischen Theorien.
Mit Fädchen oder Schleifen zum neuen Bild der Welt
122
Ein Lineal für das Licht
130
Spiegelaufbau für ein Laserexperiment mit Nanopartikeln © Harald Frater
121
Künstlerische Darstellung des gequantelten Raums, wie ihn die Schleifenquantengraviation postuliert. © Max-Planck-Institut für Gravitationsphysik
Mit Fädchen oder Schleifen zum neuen Bild der Welt Wir leben in einer zweigeteilten Welt – zumindest in Bezug auf die Theorien, auf denen unser Weltbild gründet. Während Einsteins Theorie der Allgemeinen Relativität die Kräfte beschreibt, die den Kosmos zusammenhalten, regelt die Quantentheorie die Gesetzmäßigkeiten im Reich der kleinsten Teilchen. Beide Theorien funktionieren für sich genommen wunderbar, versagen aber komplett in der Welt der jeweils anderen. Gleichzeitig gibt es noch immer Phänomene, die sich weder mit der einen noch mit der anderen Theorie befriedigend erklären lassen. Daher suchen die Physiker fieberhaft nach einer allgemeingültigen Theorie. In den vergangenen Jahren konzentrierten sie sich dabei vor allem auf zwei Kandidaten: die Stringtheorie und die Schleifen-Quantengravitation. Beide faszinieren durch neue Ideen, beide bieten Lösungen für bisher Unerklär-
122
bares, unterscheiden sich jedoch in ganz grundsätzlichen Eigenschaften voneinander. Für beide aber könnte 2007 ein entscheidendes Jahr werden, denn dann sind erstmals Experimente möglich, die Indizien für die Richtigkeit der einen oder anderen Theorie liefern könnten.
QUANTEN, LASER, ZAHLENSPIELE
Strings statt Billardkugeln
Das Grundprinzip der Stringtheorie geht davon aus, dass nicht kugelförmige Teilchen die Grundbausteine aller Materie und ihrer Wechselwirkungen sind, sondern Strings – winzigste Fädchen. Die nur rund 10-33 Zentimeter langen Strings schwingen ähnlich wie die Saiten einer Geige oder eines Klaviers und erzeugen dadurch verschiedene „Töne“ und „Resonanzen“. Je nach Resonanzmuster dieser Schwingungen entsteht so entweder ein Elektron oder ein Quark oder eines der vielen anderen Grundbausteine der Materie. Auch die Kräfte der Natur und ihre Überträger gehen, so die Vorstellung der Stringtheoretiker, auf die Vibrationen der Strings zurück. Dieser auf den ersten Blick elegante Ansatz hat jedoch einige Haken: Zum einen gibt es bisher nicht die eine Stringtheorie, die alle physikalischen Phänomene erklärt, sondern mehrere, sich teilweise deutlich unterscheidende Ansätze. So gehen einige von offenen, andere von zu Ringen geschlossenen Strings aus, einige benötigen zusätzliche Teilchenarten, andere nicht. Ein weiteres Problem: Die Stringtheorie bräuchte mindestens zehn Dimensionen, um auch alle Gesetzmäßigkeiten der Quantenphysik integrieren zu können. Das wirft allerdings die Frage auf, wo sich denn diese sechs zusätzlichen Dimensionen in unserer vierdimensionalen Welt verstecken. Hier gibt es zurzeit zwei Hypothesen: Nach der so genannten Kaluza-Klein-Kompaktifizierung könnten die sechs zusätzlichen Raumdimensionen so winzig klein zusammengerollt sein, dass sie sich mit der heutigen Technik nicht nachweisen lassen. Die Braneworld-Theorie geht dagegen von der Existenz eines höherdimensionalen Raumes aus, in dem unsere vierdimensionale Welt eine Untereinheit, eine Membran (kurz: „Bran“) bildet. Da fast alle Materie und Kräfte unseres Universums in dieser Bra umgebenden höherdimensionalen Raumzeit als Schleifengebrodel
Im Gegensatz zur Stringtheor mals 1987 vorgestellte Schleife tation (Loop Quantum Gravity) lierten vier Dimensionen aus. Alle ziert sie diese gegenüber Einstein Raumzeitgefüge ist nun nicht me lich, sondern in winzige, unteilba gegliedert – den Loops oder Sc Schleife hat in etwa die Ausdehnu Zentimetern; das entspricht der einer bereits in der Quantentheo kleinsten Einheit. Wegen dieser e
Die Art der Schwingungen – hier von geschlossenen Strings – bestimmen, welches Elementarteilchen sie bilden. © MMCD
Strings als kleinste „Bausteine“ von Elementarteilchen wie hier Quarks © MMCD
Mit solchen Bildern lässt sich die Konstruktion des gequantelten Raums verdeutlichen. Oben ein Spin-Netzwerk aus Polyedern, unten die zeitliche Entwicklung von Spins. © MaxPlanck-Instistut für Gravitationsphysik
verändernden winzigen Verknüpfungen. Doch auch bei dieser Theorie bleiben bisher Fragen offen. Denn sie funktioniert möglicherweise nur, wenn einige der fundamentalen Postulate der Allgemeinen Relativitätstheorie zu Licht und Geschwindigkeit außer Kraft gesetzt werden. So impliziert die Schleifen-Quantengravitation, dass die Lichtgeschwindigkeit energieabhängig ist. Dies ist aber bisher weder theoretisch fundiert noch experimentell bewiesen. An den Grenzen der Zeit…
Größe sind die Schleifen für uns weder zu sehen noch zu spüren. Ein Netzwerk aus miteinander verbundenen Schleifen bildet sozusagen das Grundgewebe des Universums. Die bekannten Elementarteilchen entsprechen in der Schleifen-Quantengravitation KnotenBausteine der Schleifen-Quantengravitation punkten mit Das kleinste denkbare Volumen in der Raumvorstellung der bestimmten EigenSchleifen-Quantengravitation umfasst 10-99 Kubikzentimeter schaften, die Beweoder ein Volumenquant. Dieses steht über Flächen mit angrengungen der Teilchen zenden Volumenquanten in Verbindung. Dieses zusammengesetzte Gebilde und seine Gesetzmäßigkeiten lassen sich auch als entsprechen Veränso genanntes Spin-Netzwerk darstellen. Dabei entsprechen die derungen in der Knoten den Volumenquanten, die Graphen (Linien) den GrenzTextur dieses Netzes. flächen. Zahlen an den Graphen geben die Anzahl der angrenDadurch ist der zenden Flächenquanten an. Beliebige Volumina lassen sich so als komplizierte Spin-Netzwerke darstellen. Die Knoten und Graphen gesamte Raum kein in diesem Netzwerk sind jedoch nicht konstant, sondern veränstarrer Hintergrund, dern sich über die Zeit: Knoten werden zu Graphen und umgesondern ähnelt eher kehrt. Das dadurch wabernde Raumzeitgebilde wird auch als einem Gebrodel aus Spin-Schaum bezeichnet. sich fortwährend
124
Beide neuen Theorien bieten Lösungen für einige der nach der bisherigen Physik nicht erklärbaren Phänomene an. Eines davon ist der Urknall. Hier stoßen Astrophysiker an die Grenzen des Weltbilds: „Wenn wir das auf der Basis von Einsteins Relativitätstheorie extrapolieren, finden wir ein totales Desaster. Dinge brechen vollständig zusammen und die Theorie ergibt keinen Sinn mehr“, erklärte David Gross, Physik-Nobelpreisträger des Jahres 2004 in einem Interview des USSenders PBS. „Unsere Schlussfolgerung ist nicht, dass das Universum keinen Sinn macht, aber dass die Gleichungen falsch sind. Sie sind vielleicht auf spätere Phasen anwendbar, nicht aber auf den Beginn des Universums.“ Dieses Problem haben die beiden neuen Theorien nicht. Sie lösen es auf jeweils unterschiedliche Weise, sind sich jedoch darin einig, dass der Urknall wahrscheinlich nicht der Beginn von allem war. Wie von Thomas Thiemann vom MaxPlanck-Institut für Gravitationsphysik, einem der weltweit führenden Vertreter der LoopTheorie, gezeigt wurde, wird die Dichte auch dann nicht unendlich, wenn der gesamte Raum auf einen Punkt zusammenschrumpft. Dieses Resultat hat weitreichende Konsequenzen für die Kosmologie: „Der Raum wird praktisch in sich selbst umgestülpt. Das kann mit einem ideal kugelförmigen Luftballon
QUANTEN, LASER, ZAHLENSPIELE
veranschaulicht werden, aus dem die Luft entweicht“, erklärt Martin Bojowald, Loop-Theorie-Forscher vom Institute for Gravitational Physics and Geometry. Beim Urknall bewegten sich, in einem vereinfachten Modell betrachtet, die Wände des Ballons aufeinander zu, bis sie sich berührten und sogar durchdrangen. Dadurch kehrte sich das Innere nach außen, die Schwerkraft wurde negativ und wirkte nun abstoßend statt anziehend. Dieser Rückstoß dehnte den Ballon wieder aus und das Universum, wie wir es kennen, entstand. Auch für Stringtheoretiker ist der Urknall nicht gleichbedeutend mit dem Anfang von allem. Nach der Braneworld-Theorie wäre er stattdessen die Folge einer Kollision zweier Branen im höherdimensionalen Raum. Die Bewegungsenergie der Branen wird beim Aufprall in Materie und Strahlung umgewandelt und bildet so das Universum in der uns bekannten Form. …und der Materie
Wird ein Materieteilchen in einem Schwarzen Loch zu unendlicher Dichte zerquetscht, wie es die Allgemeine Relativitätstheorie postuliert? Oder entkommt es diesem Zustand, weil seine Position bis zuletzt unsicher ist, wie es die Quantentheorie besagt? Eine Antwort auf diese Fragen glauben sowohl die Stringtheorie als auch die Schleifen-Quantengravitation gefunden zu haben. Die mathematischen Modelle beider Theorien heben die von Einstein postulierte unendliche Dichte auf und räumen Materie zudem eine Chance ein, der Singularität zu entkommen. Dies könnte etwa die so genannte Hawking-Strahlung erklären, ein von Stephen Hawking postulierter Energiestrom, der von Schwarzen Löchern ausgeht. Noch allerdings sind Stringtheorie und Schleifen-Quantengravitation reine Spekulation. Direkte experimentelle Beweise kann keine der beiden Theorien vorweisen.
Unser Universum entspricht einer „Scheibe“ im höherdimensionalen Raum der Braneworld. Die gesamte Materie und drei der vier Grundkräfte unseres Universums sind in unserer „Bran“ gefangen. Nur die Gravitationskraft kann aus ihr entweichen. © MMCD/NASA
Die Sonde Wilkinson Microwave Anisotropy Probe (WMAP) misst den Mikrowellen-Hintergrund des Kosmos und liefert so auch indirekte Daten über den Urknall und die Frühzeit des Universums. © NASA/ WMAP Science Team
125
Im Inneren eines Schwarzen Lochs greifen Einsteins Gleichungen nicht mehr. ©NASA/CXC, M.Weiss
Gravitation: Ausreißer im Teilchenzoo Das heutige Standardmodell der Physik kann drei der vier Grundkräfte der Natur in einem Erklärungsmodell zusammenfassen. In diesem existieren zwei Grundtypen von Teilchen: einerseits die Materieteilchen oder Fermionen und andererseits die Überträger von Kräften, die Bosonen. Zu den Fermionen gehören beispielsweise Quarks und Elektronen. Jeder der drei integrierten Kräfte sind jeweils eines oder mehrere Arten von Bosonen zugeordnet. So sind die Photonen Träger der elektromagnetischen Anziehungskräfte, Gluonen bewirken die starke Wechselwirkung, die Kraft, die den Atomkern zusammenhält. Völlig außen vor bleibt bisher jedoch die vierte Grundkraft, die Gravitation. Genau diese Integration versuchen sowohl Stringtheorie als auch Schleifen-Quantengravitation. Abschließend gelungen ist dies jedoch bisher keinem der beiden Modelle.
126
Hoffnung auf kollidierende Teilchen
Doch das könnte sich bald ändern: Im Jahr 2007 geht in Genf in der Schweiz der Large Hadron Collider (LHC) in Betrieb, ein Teilchenbeschleuniger, der tiefer in die Geheimnisse der Materie vordringt als das jemals zuvor möglich war. In ihm können die Physiker Protonen und Bleikerne mit extrem hoher Energie aufeinanderprallen lassen und durch diese Kollisionen auch bisher unentdeckte Teilchenarten und Phänomene nachweisen – so jedenfalls die große Hoffnung. Genau darauf setzen die Stringtheoretiker. Sie erhoffen sich vom Teilchenbeschleuniger endlich erste Indizien dafür, dass ihre Theorie kein reines Gedankengebäude ist. „Wenn einige der Vorhersagen der Stringtheorie durch Experimente im Large Hadron Collider bestätigt werden, dann wäre es durchaus möglich, dass die Stringtheorie einmal genauso akzeptiert werden könnte wie heute die Allgemeine Relativität“, erklärt Brian Greene, Physiker an der Columbia Universität und einer der bekanntesten Vertreter der Stringtheorie.
Hinweis auf die versteckten Dimensionen geben könnten. „Wenn der Energieverlust genau dem entspricht, was wir erwarten, könnte das ein sehr starker Beweis dafür sein, dass die Energie in diesen Extradimensionen versickert ist“, so Greene. Ein weiteres Indiz für die Stringtheorie wäre der Beleg für eine Supersymmetrie. Nach dieser muss es für jedes heute bekannte Elementarteilchen der Materie einen bisher unbekannten Partner in Form eines Wechselwirkungsteilchens geben. Aus diesen könnte etwa die Dunkle Materie zusammengesetzt sein – ein Phänomen, das sich mit dem bisherigen physikalischen Weltbild ebenfalls noch nicht erklären lässt. „Wir haben eine Liste, eine Art Periodensystem von allen Teilchen in unserer Theorie. Aber die Astronomen haben entdeckt, dass der größte Teil der Materie im Universum nicht auf unserer Liste vorkommt. Sie ist etwas anderes und wir haben keine blasse Ahnung, was“, erklärt Sheldon Glashow, Physik-Nobelpreisträger des Jahres 1979. Da die von der Supersymmetrie postulierten aber noch fehlenden „Superpartner“ sehr energiereich und schwer sind, ließen sie sich mit bisherigen Teilchenbeschleunigern nicht nachweisen. Mit dem LHC aber rückt das zumindest in den Bereich des Möglichen. „Wenn diese Teilchen gefunden werden, beweist das noch nicht die Richtigkeit der Stringtheorie. Es zeigt vielmehr, dass der Aspekt der Supersymmetrie der Theorie korrekt ist“, so der Stringtheoretiker Greene. „Aber es könnte ein starkes Indiz dafür sein, dass die Stringtheorie auf dem richtigen Weg ist.“ Gammastrahlen als Lichtgeschwindigkeitsmesser
Versteckte Dimensionen und Supersymmetrie
Greene und seine Mitstreiter hoffen beispielsweise, dass winzigste Energieverluste in den Hochenergie-Kollisionen einen
Doch auch für die Vertreter der SchleifenQuantengravitation kann das Jahr 2007 möglicherweise den entscheidenden Durchbruch bringen. Denn dann soll das Gamma-
QUANTEN, LASER, ZAHLENSPIELE
strahlenobservatorium GLAST (Gamma-ray Large Area Space Telescope) in die Umlaufbahn starten. Der Satellit soll energiereiche Strahlung messen, die Milliarden Jahre lang im Weltall unterwegs war – und könnte damit genau die experimentellen Belege liefern, die bisher noch fehlen. Denn die von der Theorie postulierte Rasterung des Raums in minimale Einheiten von einer Planck-Länge könnte bedeuten, dass die Lichtgeschwindigkeit nicht immer absolut gleich ist, wie noch von Einstein postuliert. Stattdessen müsste sie je nach Energiegehalt der Strahlung variieren – allerdings um einen extrem geringen Wert. Messen könnte man dies beispielsweise, indem man vergleicht, wie lange zwei Photonen unterschiedlicher Energie aus einem zehn Milliarden Lichtjahre entfernten Gammastrahlenausbruch bis zur Erde unterwegs waren. Die Theorie der Schleifen-Quantengravitaton impliziert, dass das etwas rötere, weil energieärmere Photon um ein Weniges früher ankommen müsste als
das blauere, energiereichere Photon. Sollte sich dies bestätigen, wäre es ein wichtiges Indiz für die Richtigkeit der Schleifen-Quantengravitation.
Das Licht dieser Milliarden von Lichtjahren entfernten Sterne und Galaxien stammt aus der Frühzeit des Universums. ©NASA/STScI
Hoffen auf experimentelle Bestätigung
Noch stehen die beiden großen Theorien als konkurrierende Modelle anscheinend unvereinbar nebeneinander. Beide haben zahlreiche Verfechter, beide sind bisher reine Gedankengebäude. Die neuen Versuche müssen nun zeigen, ob demnächst eine von beiden die entscheidende experimentelle Bestätigung erhält, oder ob vielleicht sogar beide falsch liegen. „Das Gute an der Wissenschaft ist, dass man diese Schocks aus der realen Welt erhält“, so Lee Smolin, der Mitbegründer der Schleifen-Quantengravitation, zu den Experimenten. „Man kann für ein paar Jahre in einer imaginären Welt leben, aber am Ende ist es die Aufgabe der Wissenschaft, das zu erklären, was wir auch wirklich beobachten.“
Kryomagneten wie dieser sorgen für die Beschleunigung der Teilchen im LHC. © CERN, Maximilien Brice
127
Interview
Wissen hoch 12: Stringtheorie und SchleifenQuantengravitation (LQG) werden zurzeit als viel versprechende Kandidaten für eine umfassende Theorie gehandelt, die sowohl quantenmechanische als auch relativistische Phänomene erklären kann. Wo sehen Sie den Hauptunterschied zwischen beiden?
Dr. Thomas Thiemann arbeitet am MaxPlanck- Institut für Gravitationsphysik in Potsdam und gehört zu den weltweit renommiertesten Vertretern der SchleifenQuantengravitation. © MPG
1. Stringtheorie und Schleifen-Quantengravitation sind schon in ihrem Grundansatz fundamental verschieden: Die SchleifenQuantengravitation baut das fundamentale Prinzip der so genannten Hintergrundabhängigkeit manifest ins Theoriegebäude ein, in der derzeitigen Formulierung der Stringtheorie ist dieses Prinzip explizit verletzt. Die Hintergrundunabhängigkeit ist ein Grundpfeiler der Einstein’schen Gravitationstheorie (Allgemeine Relativitätstheorie) und besagt, dass die Raumzeit kein starres Gebilde ist, sondern ein dynamisches Objekt, dass sich fortlaufend in tandem mit der umgebenden Materie verändert. Genau das ist der Inhalt der Einstein‘schen Grundgleichungen der Gravitation. 2. Die Schleifen-Quantengravitation ist ein universeller Rahmen zur Vereinigung zweier Prinzipien: der Allgemeinen Relativitätstheorie und der Quantenmechanik. Stringtheorie ist der Versuch einer vereinheitlichten Deutung aller Teilchen, inklusive des Gravitons, als Anregungen eines Objektes, des Strings. Es geht hier also eher um die Vereinigung der Teilchen als um die Vereinigung der Prinzipien. 3. Stringtheorie funktioniert nur supersymmetrisch und in zehn Dimensionen. SchleifenQuantengravitation kommt ohne Supersymmetrie aus und funktioniert auch in vier Dimensionen. 4. Stringtheorie sagt den Teilchengehalt der Welt voraus, wenn man zusätzlich noch
128
vorschreibt, wie man die Theorie kompaktifiziert – wofür es viele (10500) Möglichkeiten gibt. Die Schleifen-Quantengravitation will dies bewusst nicht tun, denn zwischen der Energieskala des LHC und der Planck-Skala klaffen 16 Größenordnungen, also mehr als zwischen einem Millimeter und der Längenskala eines Quarks; und es wäre überraschend, wenn wir da nicht noch Substrukturen finden würden. Schleifen-Quantengravitation funktioniert mit jedem Teilchengehalt, sie will ja nur Prinzipien vereinigen, nicht Teilchenspezies. 5. Die Schleifen-Quantengravitation benötigt keine Zusatzannahmen, sondern geht nur von bekannten Naturprinzipien aus. Sind beide Theorien wirklich komplett unvereinbar oder könnte die Wahrheit nicht vielleicht doch irgendwo in der Mitte liegen? Wäre eine Kombination beider denkbar und möglich?
Wie in Frage 1 angedeutet basieren beide Theorien auf entgegengesetzten Grundannahmen. Ich sehe derzeit keine Möglichkeit die Theorien zusammenzuführen. Was wäre für Sie ein sicheres Anzeichen dafür, dass die Schleifen-Quantengravitation komplett daneben liegt? Und woran ließe sich erkennen, dass die Stringtheorie falsch sein muss?
Die Schleifen-Quantengravitation ist eine ganz bestimmte Inkarnation einer viel allgemeineren Methode, Quantenmechanik und Allgemeine Relativitätstheorie zusammenzuführen. Um diese Methode der so genannten kanonischen Quantisierung praktisch anzuwenden, muss man gewisse Wahlen treffen. Diese Wahlen sind klassisch alle äquivalent, aber nicht mehr notwendigerweise in der Quantentheorie. Sollte also Schleifen-Quantengravitation nicht funktionieren, dann würde das eine konkrete Realisierung der kanonischen Quantisierung ausschließen, aber nicht die Methode überhaupt.
QUANTEN, LASER, ZAHLENSPIELE
Sicheres Zeichen für ein Versagen der Schleifen-Quantengravitation oder Stringtheorie wäre es, wenn es nicht gelänge, die bekannten Naturphänomene bei niederen Energien (Standardmodell) zu reproduzieren. Der Kontakt mit der Niederenergiephysik ist in beiden Theorien aus unterschiedlichen Gründen schwierig: Die Schleifen-Quantengravitation benötigt eine nicht störungstheoretische Formulierung, während die Physik des Standardmodells störungstheoretisch beschrieben wird. Hier besteht also ein Sprachproblem. In der Stringtheorie besteht das Problem darin, dass man den Teilchengehalt des Standardmodells finden muss, insbesondere müssen alle Superpartner bei niedrigen Energien abwesend sein. Bisher hat man noch keine Kompaktifizierung gefunden, die das in allen Details leistet. Wie schätzen Sie die Entwicklung der nächsten Jahren ein?
Ich verspreche mir viel vom Large Hadron Collider und von den Hochpräzisionsmessungen der Kosmologie wie beispielsweise durch die Satelliten WMAP (NASA) und PLANCK (ESA), die den Nachhall des Urknalls in Form der kosmologischen Hintergrundstrahlung messen. Sollte der Large Hadron Collider keine Supersymmetrie finden, wäre die Stringtherie zwar nicht widerlegt, aber es wird zunehmend schwieriger zu zeigen, dass es eine Stringtheorie gibt, die bei niedrigen Energien keine Superteilchen enthält, da diese zerfallen sind. Es wäre auch spannend, das Higgs Teilchen nicht zu finden, denn dann müsste man die gesamte Elementarteilchenphysik neu überdenken. Von WMAP oder PLANCK erhoffe ich mir, dass sie einen Fingerabdruck der Quantengravitationseffekte, die zweifellos am Urknall zum Tragen kommen, aufzeigen, damit man einen experimentellen Bezug der Schleifen-Quantengravitation hat. Ebenfalls interessant werden
weitere Messungen zur ominösen Dunklen Materie und Dunklen Energie, unter anderem durch diese Satelliten, und wie diese durch die Theorie beschrieben werden können. Kann es überhaupt eine endgültige „Theorie von Allem“ geben?
Viele Physiker glauben aus ästhetischen Gründen an die große Vereinheitlichung aller Naturphänomene unter ein Grundprinzip. Dass Quantenmechanik und Allgemeine Relativitätstheorie irgendwie miteinander harmonisieren müssen, steht außer Frage, da beide experimentell bestätigt sind. Ich bin jedoch skeptisch gegenüber der Überzeugung, dass alle Teilchenarten sich deuten lassen als verschiedene Anregungen eines Urteilchens. Es gibt keinen logischen Grund, der dies erzwingt – obwohl ich dies aus ästhetischen Gründen ebenfalls sehr begrüßen würde. Man kann natürlich in jeder Theorie hinterfragen, warum bestimmte ihrer Bestandteile so sind und nicht anders. Das hört entweder niemals auf oder man gelangt zu einer mathematisch eindeutigen Theorie, in der alles so sein muss wie es ist, aus Gründen der mathematischen Konsistenz. Es fällt mir schwer zu glauben, dass die Natur der Mathematik folgt, Mathematik ist meines Erachtens nur die Sprache der Physik.
Der PLANCK-Satellit der ESA soll ab Anfang 2007 wertvolle Daten über die kosmische Hintergrundstrahlung sammeln und dadurch Erkenntnisse über die Struktur des Universums liefern. © ESA
129
Nobelpreisträger Theodor Hänsch arbeitet am Prototyp des Laserfrequenzkamms. © MPG
Ein Lineal für das Licht Bis zum Jahr 1960 lag das Maß aller Dinge in Paris: Denn hier wurde – und wird bis heute –, streng gesichert hinter Schloss und Riegel, der Urmeter aufbewahrt. 102 Zentimeter lang ist er, x-förmig und besteht aus edelsten Metallen: Eine Legierung aus 90 Prozent Platin und zehn Prozent Iridium sorgt für größtmöglichste Stabilität und Konstanz. Die Messstriche auf diesem Eichstab ergaben bei Null Grad die damals weltweit gültige Bezugsgröße für das Längenmaß Meter. Da sich die Messtechniken jedoch zunehmend verfeinerten, reichte die Genauigkeit dieses Meterprototyps nicht mehr aus – ein neues Maß musste her. Dieses stammte zunächst aus dem Reich der kleinsten Teilchen: Die Generalkonferenz für Maß und Gewicht wählte dafür das 1.650.763,73fache der Wellenlänge, mit der
130
das Edelgas Krypton bei einem Übergang zwischen zwei bestimmten Zuständen Licht aussendet. Diese Messweise war immerhin um eine Größenordnung genauer als das
QUANTEN, LASER, ZAHLENSPIELE
Urmeter. Doch es ging noch besser: Seit 1983 ist das Meter definiert als die Strecke, die das Licht in 1/299.792.458 Sekunden durchläuft. Diese neue Definition genügte endlich auch den höchsten Ansprüchen der modernen Wissenschaft und Technik. Licht: Das unmessbare Messinstrument?
Wirklich allen Ansprüchen? Nicht ganz: Denn für manche Messungen fehlte immer noch ein passendes Lineal: für die Wellenlänge des Lichts zum Beispiel. Sichtbares Licht, beispielsweise im grünen Bereich, schwingt mit einer Wellenlänge von 500 Nanometern und einer Frequenz von 600.000 Gigahertz. Diese Schwingungsrate liegt um mehr als das Hunderttausendfache über allem, was elektronische Geräte erfassen können. Die Frequenz eines Lichtstrahls direkt zu messen, ist damit absolut unmöglich. Gleichzeitig ist das Licht seinerseits eines der wichtigsten Messinstrumente der modernen Astronomie, aber auch der Chemie und Physik: Die Wellenlänge des von Atomen oder Molekülen ausgesendeten Lichts zu messen, die Spektroskopie, verrät viel etwa über die Zusammensetzung von Gaswolken und fremden Himmelskörpern im All. Auch in das Verhalten von Atomen bei chemischen Reaktionen erhalten die Forscher mithilfe der Spektroskopie Einblick. Bisher allerdings konnten die Forscher die Wellenlänge nicht genau genug bestimmen, um mit diesen Messungen alle ihre Fragen zu beantworten – wie beispielsweise die quantenmechanische Beschreibung des Verhaltens einfacher Atome.
Bis 1960 der UrmeterPrototyp: Ein x-förmiger Balken aus einer PlatinIridium-Legierung. © National Institute of Standards and Technology
Spiegel
teildurchlässiger Spiegel Elektroden (Energiezufuhr) Resonator
Lichtlineal gesucht…
Ein Lichtlineal musste her. Aber wie? Am besten wäre es, die Lichtfrequenz zu messen. Sie lässt sich einfach in die Wellenlänge umrechnen und ist, weil sie die Zeit als Bezugsgröße hat (definiert als Schwingungen pro Zeiteinheit), genauer zu bestimmen als die Wellenlänge. Aber wie lässt sich die unglaublich schnelle Schwingungsrate in etwas mit unseren Messinstrumenten Erfassbares umwandeln? Lange schien das unmöglich, doch 2001 präsentierte der Physiker Theodor Hänsch vom Max-Planck-Institut für Quantenoptik in Garching eine geniale Lösung: Sein neu entwickelter Laserfrequenzkamm übersetzt eine hohe Frequenz in eine für unsere Elektronik messbare Mikrowellenschwingung. Für diese Erfindung erhielt Hänsch gemeinsam mit zwei amerikanischen Kollegen im Herbst 2005 den Nobelpreis für Physik. Herzstück des neuen Lichtlineals ist ein so genannter Titan-SaphirFemtosekundenlaser. Er emittiert eine Kette von ultrakurzen, tiefroten Laserlichtpulsen mit einer Pulswiederholfrequenz von einem Gigahertz. Jeder Puls dauert nur 25-mal eine Billiardstel Sekunde – eine
Laserstrahl Gas (z.B. Kohlendioxid)
Schematischer Aufbau eines einfachen Gaslasers Im Gegensatz zum Licht einer Glühlampe besteht Laserlicht aus Lichtwellen der gleichen Richtung, Wellenlänge und Phase. Ein Gaslaser erzeugt diese Lichtwellen, indem zunächst die Atome eines Gases durch Energiezufuhr angeregt werden. Photonen (Lichtteilchen) passender Wellenlänge befördern die Atome dann aus dem energiereichen zurück in den energieärmeren Zustand. Diese geben dabei ihrerseits Photonen ab. Das Licht wird verstärkt, da die Photonen im Resonator zwischen zwei Spiegeln hin- und herlaufen und dabei weitere Atome stimulieren, Photonen auszusenden. Gleichzeitig werden die Atome immer wieder in den energiereichen Zustand angeregt. Über den teildurchlässigen Spiegel treten einige Photonen als Laserstrahl aus dem System aus. Dieser Laserstrahl kann je nach Lasertyp kontinuierlich oder gepulst sein.
131
Oben: Spielarten des elektronmagnetischen Spektrums: rotes Laserlicht (links), Sonnenlicht (Mittte), Sonne betrachtet vom Ultraviolett Observatorium EIT (rechts) © Harald Frater, IMSI MasterClips, SOHO (NASA / ESA)
Wellenlänge
Frequenz
Radiowellen
< 10 km
> 30 kHz
Langwelle (LW)
< 10 km
> 30 kHz
Langwellenfunk
Mittelwelle (MW)
< 650 m
> 650 kHz
Mittelwellenfunk
< 10 m
> 30 MHz
Rundfunk, Fernsehen, Magnetresonanztomografie
1 mm - 1 m
300 MHz - 300 GHz
30 µm - 3mm
0,1 THz - 10 THz
Infrarotstrahlung (Wärmestrahlung)
780 nm - 1,0 mm
> 300 GHz
IR-Spektrometer, Infrarotastronomie, Nah-Infrarot: Fernbedienung, CD
sichtbares Licht
380 nm - 780 nm
> 384 THz
Beleuchtung, Laser, Farbwahrnehmung
Rot
640 - 780 nm
384 - 468 THz
Orange
600 - 640 nm
468 - 500 THz
Gelb
570 - 600 nm
500 - 526 THz
Grün
490 - 570 nm
526 - 612 THz
Blau
430 - 490 nm
612 - 697 THz
Violett
380 - 430 nm
697 - 789 THz
1 nm - 380 nm
> 789 THz
UV-Licht, Spektroskopie, Fluoreszenz, Phosphoreszenz, Banknotenprüfung
Röntgenstrahlen
10 pm - 1 nm
> 300 PHz
medizinische Diagnostik, Sicherheitstechnik, Röntgen-Strukturanalyse, Röntgen-Beugung
Gammastrahlen
< 10 pm
> 30 EHz
Ultrakurzwelle (UKW) Mikrowellen Terahertzstrahlung
UV-Strahlen
Das elektromagnetische Spektrum und seine Anwendungen © MMCD
132
technische Anwendungen
Bezeichnung
Radar Radioastronomie, Spektroskopie, Abbildungsverfahren
DVD, Laserpointer
Blu-ray-Disc
QUANTEN, LASER, ZAHLENSPIELE
für uns nicht auflösbare Abfolge von Laserblitzen. Im Laserfrequenzkamm werden diese kurzen Laserpulse durch eine Quarzfaser mit spezieller innerer Struktur geleitet. Die Faser wirkt wie ein Synthesizer: Sie verändert das Laserlicht durch bestimmte nichtlineare Prozesse, sodass an ihrem Ende aus dem tiefroten einfarbigen Laser ein weiß scheinendes Licht geworden ist. Das Besondere daran: Das Spektrum dieses Lichts besteht nun aus einem besonders dichten, gleichmäßigen Kamm von hunderttausenden einzelner scharfer Spektrallinien. Schwebende Welle übersetzt Frequenzen
Wie aber messen die Physiker damit die zuvor unmessbaren Lichtfrequenzen? Sie machen sich dafür das Phänomen der Schwebung zunutze. Diese entsteht etwa, wenn sich zwei nahe beieinander liegende Töne in der Musik zu einer Klangwelle überlagern. Deren Tonhöhe verändert sich dann leicht und der Ton scheint zu leiern – beim Stimmen einer Gitarre ist dies zu hören. In ähnlicher Form geschieht dies auch bei Messungen mit dem Laserfrequenzkamm: Die Lichtwelle unbekannter Frequenz überlagert sich mit der nächstliegenden Frequenzzinke des Kamms. Die extrem schnellen Lichtschwingungen
erzeugen eine schwebende Welle, die rund eine Million mal langsamer schwingt. Sie liegt im Bereich der Mikrowellen und kann von einem Frequenzzähler gemessen werden. Wollen die Wissenschaftler nun beispielsweise einen Laserstrahl unbekannter Frequenz analysieren, synchronisieren sie die Pulse des Frequenzkammlasers mit den Wellen des zu bestimmenden Lasers. Dadurch wird die sehr schnelle Schwingung des zu messenden Lasers um einen genau bekannten Faktor, zum Beispiel eine Million, herunter gesetzt. Die Anzahl der Pulse pro Sekunde wird dann mithilfe einer Cäsium-Atomuhr gemessen und diese Zahl mit dem Faktor multipliziert, um die Frequenz des Einfarbenlasers zu erhalten.
schwebende Welle
t
Amplituden der sich überlagernden Wellen
Prinzip einer schwebenden Welle Eine Überlagerung zweier Wellen von nahe beieinander liegender Frequenz erzeugt eine umschließende langsamer schwingende Welle. Die Amplitude dieser Schwebung nimmt periodisch zu und ab – je näher die Frequenzen beieinander liegen, desto langsamer schwingt die resultierende Welle. Dieser Effekt wird beispielsweise beim Stimmen von Musikinstrumenten ausgenutzt.
Wasserstofflinie im Visier
Mithilfe dieser Methode haben die MaxPlanck-Forscher um Hänsch bereits einen wichtigen Beitrag zur Quantenmechanik geleistet: Sie haben eine sehr schmale, im ultravioletten Strahlungsbereich liegende Spektrallinie des Wasserstoffs auf 14 Stellen genau vermessen. Der ermittelte Wert stimmte mit den von der Quantenmechanik vorhergesagten theoretischen Werten überein und trug so dazu bei, die Gültigkeit dieser physikalischen Grundtheorie erneut zu belegen.
Wesentliche Komponenten eines optischen FrequenzkammSynthesizers: modengekoppelter Titan-SaphirFemtosekundenlaser (Mitte), grüner Festkörperlaser (rechts), Spektralfarben des durch eine mikrostrukturierte Quarzfaser verbreiterten Lichts (oben). © Max-Planck-Institut für Quantenoptik
133
genau eine Million Zyklen = genau ein Pulsabstand
umlaufender Lichtpuls
Spektrometer
Frequenzkamm
Einfarbenlaser mit unbekannter Frequenz
genau bekannte Pulsrate: z.B. eine Milliarde Pulse pro Sekunde Elektronik zur Pulssynchronisation
Titan-Saphir-Pulslaser
© Max-Planck-Institut für Quantenoptik
Funktionsprinzip des optischen Frequenzkamms Nach jedem Umlauf in der Spiegelanordnung eines Titan-Saphir-Lasers (unten links) verlässt eine Kopie des umlaufenden Pulses den Laser durch einen teildurchlässigen Spiegel. Die dadurch entstehende Pulsabfolge lässt sich mithilfe der Frequenzkammtechnik und des Prinzips der „schwebenden Welle“ so mit der Frequenz eines Einfarbenlasers (oben links) synchronisieren, dass beispielsweise genau eine Million Zyklen dieses Lasers zwischen zwei Pulsen
liegen. Ist dies erreicht, so muss nur noch die Anzahl der kurzen Pulse pro Zeiteinheit, die jetzt im Gigahertzbereich liegt und damit einer elektronischen Erfassung zugänglich ist, gezählt und die sich daraus ergebende Frequenz mit einer Million multipliziert werden. Der Name der Technik rührt daher, dass das Spektrum des von dem Pulslaser emittierten Lichtes einem Kamm mit scharfen äquidistanten Zinken ähnelt.
Lineal als Uhrwerk
Der Frequenzkamm dient jedoch nicht nur als Lineal für Licht, er kann auch die Zeit in bisher nie erreichter Genauigkeit messen. Die genauesten Zeitangaben, darunter auch unsere offizielle Weltzeit, stammen heute von Cäsium-Atomuhren. Sie sind immerhin so genau, dass sie innerhalb von rund 13 Milliarden Jahren, ungefähr der Zeit, die seit dem Urknall vergangen ist, nur um fünf Minuten vor oder nachgehen würden. Pendel oder
Eine der weltweit genauesten CäsiumAtomuhren vom LPTF/ Paris im Garchinger Labor © Max-PlanckInstitut für Quantenoptik
134
Taktgeber dieser Atomuhren sind die regelmäßigen Schwingungen von Cäsiumatomen beim Übergang zwischen zwei energetischen Zuständen. Genau 9.192.631.770-mal in der Sekunde tickt diese Uhr. Das Pendel eines auf einem Frequenzkamm basierenden Uhrwerks könnte dagegen noch hunderttausendmal schneller schwingen – und so eine noch genauere Zeitunterteilung ermöglichen. Erste experimentelle optische Uhren sind bereits – unter anderem am Physikalisch-Technischen Bundesamt in Braunschweig – in Betrieb. Einen ersten Schritt hin zu einer noch genaueren optischen Uhr machten die Garchinger Physiker Ende 2005, als sie die bisher hauptsächlich im sichtbaren und infraroten Wellenbereich anwendbare Frequenzkammtechnik weit in den ultravioletten Strahlenbereich ausdehnten – und damit die Voraussetzungen für eine „Röntgenuhr“ mit noch höheren Pendelfrequenzen schufen.
QUANTEN, LASER, ZAHLENSPIELE
Vom Prototyp zur Anwendung
Der Prototyp des Laserfrequenzkamms im Max-Planck-Institut für Quantenoptik füllte mit seinem Gewirr von Kabeln, Lasern und Messapparaturen noch ein großes Labor. Inzwischen aber wird das Laserlineal auch kommerziell hergestellt und hat nur noch die Größe eines Schuhkartons. Die Grundlagen für neue Anwendungen sind damit gelegt. Zukünftig, so die Schätzungen der Forscher, könnte die neue Präzision in der Frequenzmessung überall dort große Fortschritte bringen, wo Entfernungen oder Zeiten
mit extrem hoher Genauigkeit gemessen werden müssen. So etwa in Empfängern des Global Positioning System (GPS) oder bei der Synchronisation von Prozessen in Hochgeschwindigkeitsdatennetzen. Doch nicht nur auf der Erde, auch im Weltraum gibt es potenzielle Einsatzmöglichkeiten: Auf LangzeitWeltraummissionen kann sich jede minimale Kursabweichung während der jahrelangen Flugdauer potenzieren – die Genauigkeit von optischen Uhren wäre auch hier ein Gewinn.
WAS SONST NOCH GESCHAH Laserpinzette sortiert Atome Auf dem Weg zum Quantencomputer haben Physiker eine weitere wichtige Hürde genommen: Mittels einer „Laserpinzette“ ist es ihnen gelungen, bis zu sieben Atome in Reih‘ und Glied zu sortieren. Ihren Erfolg dokumentierten sie in einem Film und berichteten im Juli 2006 in der renommierten Fachzeitschrift NATURE darüber. In dem Experiment bremste das Team um Dr. Arno Rauschenbeutel und Professor Dr. Dieter Meschede von der Universität Bonn mehrere Cäsiumatome für eine Dauer von etlichen Sekunden soweit ab, dass sie sich fast nicht mehr bewegten, und lud sie dann auf ein Förderband aus Laserstrahlen um. Dabei handelte es sich um eine stehende Lichtwelle aus aneinander gereihten Bergen und Tälern des elektromagnetischen Feldes – vergleichbar mit einem Stück Wellpappe. Die Atome setzen sich in die Täler dieser stehenden Lichtwelle. Ein zweites ähnliches Förderband verwendeten die Wissenschaftler als Pinzette, mit dem sie falsch platzierte Atome aus den Wellentälern des ersten Förderbands herauslösten und in andere Täler umlagerten. Atome so genau platzieren zu können, ist eine Voraussetzung, um mit ihnen in einem Quantencomputer zu rechnen. (NATURE, Juli 2006) Freie-Elektronen-Laser erreicht Rekordleistung bei kleinsten Wellenlängen Beim weltweiten Wettlauf um die höchste Laserleistung bei kürzesten Wellenlängen hat die FLASH-Anlage beim Forschungszentrum DESY in Hamburg im Sommer 2006 einen neuen Weltrekord aufgestellt: Der Freie-Elektronen-Laser erzeugt Laserstrahlen der extrem kurzen Grundwellenlängen zwischen 13,1 und 40 Nanometern. Die mittlere Energie dieser Laserlichtblitze erreicht dabei bis zu 70 Mikrojoule bei einer Wiederholrate von 150 Pulsen pro Sekunde. FLASH ist damit die einzige Laseranlage weltweit, die schnell gepulste, leistungsstarke und ultrakurze Lichtblitze im Röntgenbereich liefert. 2007 wollen die Forscher FLASH so umbauen, dass er noch kürzere und beliebig regelbare Grundwellenlängen liefert. (DESY, September 2006)
Arno Rauschenbeutel gelang das Sortieren von Atomen mittels einer „Laserpinzette“. © Universität Bonn
135
Interview
Wissen hoch 12: Wo liegen die Grenzen des Laserfrequenzkamms? Welche Frequenzen sind beispielsweise zu hoch oder zu niedrig um mit dem Instrument erfasst zu werden?
Dr. Thomas Udem ist Leiter des FrequenzkammProjekts am MaxPlanck-Institut für Quantenoptik in Garching und gehört dort zur Forschungsgruppe des Nobelpreisträgers Theodor Hänsch. © Thomas Udem
Die Grenzen der Genauigkeit des Frequenzkamms sind bislang unmessbar klein und deutlich kleiner als die Genauigkeit der besten Atomuhren. Das bedeutet: Der Vergleich von optischen Frequenzen mit einer CäsiumAtomuhr kann mit der vollen Genauigkeit der Atomuhr durchgeführt werden, selbst dann, wenn es sich um die weltbeste Atomuhr handelt. Die messbaren Frequenzen sind nach unten nicht beschränkt. Das bedeutet: Es gibt keine Lücke, wie zum Beispiel den TerahertzBereich, den der Frequenzkamm nicht abdecken könnte. Zu hohen Frequenzen ist die Anwendbarkeit durch die verfügbaren so genannten nichtlinearen Kristalle beschränkt, die gewöhnlich zum Vervielfachen von Laserfrequenzen (zum Beispiel um einen grünen Lasertrahl für einen Laserpointer zu erzeugen) eingesetzt werden. Diese Technologie hat bei etwa 200 Nanometer (1.500 Terahertz) ihre Grenze, weil es keine transparenten Kristalle in diesem Wellenlängenbereich gibt.
der Perioden des Pendels in Einheiten von Sekunden, Minuten und Stunden auf dem Ziffernblatt anzeigt. Die sehr viel schnelleren Perioden der Quarzuhr und die noch schnelleren Schwingungen der Atomuhr werden elektronisch gezählt. Aus dem Vergleich der verschiedenen Uhren erkennt man bereits, dass bessere Uhren schnellere „Pendel“ haben. Das ist seit langem bekannt und lässt sich auch theoretisch untermauern. Deswegen versucht man, die „Pendelfrequenz“ weiter zu steigern. Bei der optischen Atomuhr werden die Schwingungen der Elektronen statt der Rotation des Atomkerns ausgenutzt. Diese ist, je nach Atom, typischerweise 100.000-mal so schnell. Da die elektronischen Zähler bei den herkömmlichen Atomuhren bereits nah am Limit arbeiten, war es lange Zeit unklar, wie das „Uhrwerk“ der optischen Atomuhr funktionieren könnte. Mit dem Frequenzkamm ist dieses Problem nun auf einfache Weise gelöst. Optische Uhren „ticken“ schneller und könnten daher zukünftig genauer sein als die bisher gebräuchlichen Atomuhren. Wird die offizielle Weltzeit bald auf einer optischen Uhr beruhen? Was glauben Sie, wann das der Fall sein könnte?
Warum erleichtert bzw. ermöglicht der Frequenzkamm die Entwicklung einer optischen Uhr?
Jede Uhr besteht aus zwei Komponenten: Einem Taktgeber in Form eines periodischen Vorgangs (das „Pendel“) und einem Zähler (das „Uhrwerk“), der über die Anzahl der Perioden Buch führt. Verwendete periodische Vorgänge sind die Erdrotation (Sonnenuhr), Pendel (Pendeluhr), die Vibrationen eines Quarzkristalls (Quarzuhr) und die Rotation eines Atomkerns (Atomuhr). Die verwendeten Zähler sind genauso verschieden wie die Uhren. Eine Sonnenuhr hat gewöhnlich einen menschlichen Zähler, der die Anzahl der vergangenen Tage notiert. Eine Pendeluhr hat einen mechanischen Zähler, der die Anzahl
136
Durch die Entwicklung des Frequenzkamms wird sicherlich die Realisierung der Weltzeit und die Definition der SI-Sekunde geändert werden. Wann das geschehen wird, ist allerdings nicht so einfach vorherzusagen. Darüber entscheidet das Weltstandard Institut BIPM in Paris. Weil von diesen Entscheidungen die Normen und Maße, wie sie die Industrie weltweit verwendet, abhängen, werden diese Entscheidungen nicht leichtfertig gefällt und kommen oft erst viele Jahre, nachdem eine bahnbrechende Entwicklung den Stand der Technik verändert hat. Die ersten optischen Atomuhren existieren bereits und sind schon aus dem Stand um den Faktor zehn besser als die besten Cäsium-Atomuhren, die
QUANTEN, LASER, ZAHLENSPIELE
immerhin über 60 Jahre ständig verbessert wurden. Bevor sich das BIPM auf eine Neudefinition der SI-Sekunde einlässt, müssen allerdings noch andere Kriterien erfüllt sein. Ein wichtiger Punkt dabei ist der Aufwand, der notwendig ist, um eine Uhr, die auf der neuen Definition beruht, zu bauen, sowie die Auswahl des besten atomaren Taktgebers. Derzeit wird an einer ganzen Reihe solcher Taktgeber geforscht und es ist noch nicht klar, welches die beste Wahl sein wird. Was sind die nächsten Schritte? Woran arbeiten
metern (5.000 Teraherz) im extremen ultravioletten Bereich nachweisen. Die zu erwartende Kammstruktur bei diesen kurzen Wellenlängen sollte es ermöglichen, einzelne Moden des Kamms für die Spektroskopie zu verwenden. Weil bisher in diesem Wellenlängenbereich gar keine Laser zur Verfügung stehen, konnten für die Theorie wichtige Übergangsfrequenzen bisher nicht vermessen werden. Der neue kurzwellige Frequenzkamm könnte dies ändern und vielleicht sogar in ferner Zukunft ein Uhrwerk für eine Röntgenuhr bereit stellen.
Sie und ihre Kollegen jetzt?
Im Moment arbeiten wir an der Erzeugung von Frequenzkämmen mit sehr viel kürzeren Wellenlängen, als bisher durch die Verwendung von nichtlinearen Kristallen möglich ist. Der Prozess, der dies ermöglicht, findet statt bei der Fokussierung des Pulszugs, der den Frequenzkamm in einem Jet von Edelgasatomen erzeugt. Mittlerweile können wir mit der Methode Licht von bis zu 60 Nano-
Heute werden Frequenzkämme bereits kommerziell hergestellt und vertrieben. Sie haben nur noch die Größe eines Schuhkartons. © Max-Planck-Institut für Quantenoptik
137
138
SCHICHTEN, STOFFE, NANORÖHRCHEN Neue Techniken erfordern neue Materialien: Ohne sie lassen sich weder elektronische Bauteile weiter miniaturisieren noch Oberflächen optimieren. Doch um sie zu entwickeln, müssen Wissenschaftler heute nicht nur in den Bereich von nur mikro- und nanometergroßen Strukturen vordringen, sie arbeiten auch viel stärker als früher interdisziplinär. Chemiker, Physiker, Biologen und Ingenieure gemeinsam haben so beispielsweise die Kräfte und Strukturen enträtselt, die den Gecko an senkrechten Wänden halten. Aus den dabei gewonnenen Erkenntnissen entstehen nun neue Haftstrukturen für technische Anwendungen. Kohlenstoffnanoröhrchen gelten als viel versprechende Bausteine zukünftiger Computer und Elektronikbauteile. Denn sie sind so winzig, dass sich Mikrochips mit ihnen möglicherweise weiter verkleinern lassen als dies mit siliziumbasierten Schaltkreisen möglich ist. 2006 entstanden gleich mehrere Varianten und Prototypen von Transistoren und Bauteilen, in die Nanoröhrchen auf jeweils unterschiedliche Art und Weise integriert wurden.
Bionik – die Natur als Lehrmeister
140
Nanoröhrchen – Kohlenstoffwinzlinge als Bausteine für Computer der Zukunft
147
Graphitschichten im Modell © Chris Ewels www.ewels.info
139
Dank ungefähr einer Milliarde hierarchisch organisierter Nanohärchen an seiner Fußsohle kann der Gecko – im Unterschied zum Menschen – auch an Wänden und Decken spazieren gehen. © Max-Planck-Institut für Metallforschung
Bionik – die Natur als Lehrmeister Die Natur hat eine phantastische Vielfalt biologischer Konstruktionen hervorgebracht, deren Raffinesse nur Erstaunen auslösen kann: Verglichen mit den akrobatischen Flugkünsten der Stubenfliege muss selbst der modernste und wendigste Hubschrauber passen. Die hohle, sich selbst tragende Turmkonstruktion eines einfachen Grashalms können die menschlichen Architekten bisher in dieser Form nicht nachbauen und auch die komplexe, aber anpassungsfähige Struktur der tierischen und menschlichen Sinnesorgane ist technischen Sensoren noch immer weit überlegen.
400 bis 600 Mikrometer lange Lamellen an den Zehen des Geckos (Ausschnitt) © Max-PlanckInstitut für Metallforschung
Die Natur scheint ein geradezu unerschöpfliches Reservoir an genialen – und oft genial einfachen – Lösungen parat zu haben. Denn ihre Konstruktionen sind vor allem eins: effektiv bei maximaler Energie- und Materialausnutzung. Schließlich sind sie das Ergebnis eines seit Jahrmillionen ablaufenden „Optimierungsprozesses“ – der Evolution. Eine bloße 1:1 Kopie reicht nicht
Was liegt näher, als sich diese zum Vorbild zu nehmen? Die Bionik, eine Wissenschaft an der Grenze zwischen Technik und Biologie, tut genau dies. Als Grenzgänger zwischen den Disziplinen forschen die Wissenschaftler
140
dabei nach den Gesetzmäßigkeiten, die hinter den Konstruktionen der Natur stehen und versuchen, diese in die Technik und Materialforschung zu übertragen. Dabei geht es jedoch nicht darum, die Natur exakt nachzuahmen. „Die Natur liefert keine Blaupausen für die Technik. Die Meinung, man muss die Natur lediglich kopieren, führt in eine Sackgasse“, so Werner Nachtigall, einer der renommiertesten deutschen Bioniker. Ähnlich formuliert es auch der englische Forscher Julian Vincent: „Eine exakte Kopie der Natur wäre unklug, denn die Natur ist nicht nur unglaublich komplex, in ihr herrschen auch völlig andere Bedingungen.“
SCHICHTEN, STOFFE, NANORÖHRCHEN
Die richtigen Fragen stellen
Wer daher fliegen will wie ein Vogel, muss zunächst analysieren, warum der Vogel überhaupt fliegen kann, welche Gesetzmäßigkeiten dahinter stecken. Erst dann kann die daraus gewonnene Erkenntnis in eine technische Struktur umgesetzt werden. „Entscheidend ist“, so betont auch Werner Nachtigall, „dass wir mit dem Know-how der Technik und Physik an die Natur herangehen und die richtigen Fragen stellen.“ So arbeiten am Max-Planck-Institut für Metallforschung in Stuttgart Materialwissenschaftler und Biologen gemeinsam daran zu klären, wie sich mikromechanische Konzepte, Theorien und Methoden auf biologische Phänomene anwenden lassen. Die Forscher um Eduard Arzt untersuchen dabei die Struktur und Funktion von biologischen Haft-, Reibungs- und Verklammerungssystemen auf einer Skala von wenigen Mikro- bis Nanometern. Die große Herausforderung besteht vor allem darin, den Untersuchungsgegenstand bei diesen Größenordnungen überhaupt experimentell fassbar zu machen. Ihre Studienobjekte sind vor allem Insekten, die über eine Vielzahl ganz unterschiedlicher Haftsysteme verfügen, aber auch Wirbeltiere wie der Gecko.
Naturpatent Klettverschluss In Ausnahmefällen kann auch das direkte „Abgucken“ von der Natur zu funktionierenden Ergebnissen führen. Eines dieser Beispiele ist der Klettverschluss. Die Idee dazu kam dem Belgier Georges de Mestral, als er seinem Hund zum x-ten Mal Kletten aus dem Fell entfernen musste. Er legte sie unter das Mikroskop und entdeckte, dass die scheinbar gerade endenden Stacheln der Klette in Wirklichkeit an ihrer Spitze winzige elastische Häkchen trugen. Mestral sah in diesem System eine Möglichkeit, auf einfache Weise zwei Materialien reversibel zu verbinden: Wenn eine Seite des Verschlusses das Prinzip der elastischen Häkchen kopiert und die andere die Schlingen eines Stoffes, haften beide aneinander, können aber auch wieder gelöst werden, ohne das Material zu zerstören. Der Klettverschluss war geboren.
Je kleiner desto „klebriger“
Der Gecko kann sich kopfüber an nahezu allen Oberflächen festhalten. Deshalb wird das feinhaarige Haftsystem seines Fußes intensiv erforscht: An der Sohle eines Gecko-Fußes sitzen etwa eine Milliarde so genannter Spatulae – winzige, etwa 200 Nanometer breite und ebenso lange Hafthärchen. Diese sind für den direkten Kontakt des Geckos mit seiner Umgebung verantwortlich. Die Nano-Hafthärchen sitzen an den so genannten Setae, die etwa 100 Mikrometer lang sind und mit einer Breite von sechs Mikrometern gerade einmal ein Zehntel des Durchmessers eines menschlichen Haares erreichen. Die reihenförmig angeordneten Setae bilden wiederum 400 bis 600 Mikrometer lange
Nano-skalige Fibrillenstrukturen in den haarigen Haftungsstrukturen von Käfer, Fliege, Spinne und Gecko. Die Zahl der Oberflächenhaare erhöht sich mit dem Körpergewicht der Tiere. Dabei verfügt der Gecko über die höchste Dichte unter allen bisher untersuchten Tierarten. © Max-Planck-Institut für Metallforschung, Gorb
141
Lamellen, die bereits mit dem menschlichen Auge gut zu sehen sind. Dieses sich über drei Ebenen immer feiner verästelnde Haftsystem erlaubt es dem Gecko, mit seinen Füßen auf nahezu allen Oberflächen zu haften und selbst kopfüber an der Zimmerdecke zu marschieren. Würde der Gecko alle Hafthaare zugleich an die Wand drücken, könnte er bis zum Zehnfachen seines Körpergewichts tragen. Die Maxime scheint zu lauten: Je kleiner, desto „klebriger“. Das jedenfalls haben die Max-Planck-Wissenschaftler schon im Jahr 2004 festgestellt, als sie die Haftstrukturen von Käfern, Fliegen, Spinnen und Geckos verglichen: Mit wachsendem Körpergewicht der „Haftkünstler“ nimmt die Feinheit und Dichte der Strukturen zu. Streit um die Haftkraft
Der dünne Wasserfilm zwischen dem Substrat und der Spitze bewirkt eine Anziehung, die Kapillarkraft.Der Meniskus entsteht durch die Oberflächenspannung des Wassers. © MMCD
Doch was lässt diese feinen Härchen so extrem gut haften? Um zwei Oberflächen – in diesem Fall den Geckofuß und eine Wand – in engem Kontakt aneinander zu binden, kommen theoretisch immerhin elf verschiedene Kräfte und Wechselwirkungen in Frage. strat Aber welche davon nutzt der Gecko? Als aussichtsreichste Kandidaten gelten einerseits die Kapillarkraft, andererseits die so genannten van-der-WaalsKräfte. Ladungsunterschiede oder Wasserkraft?
Van-der-Waals-Kräfte treten zwischen zwei Atomen oder Molekülen auf, deren elektrische Ladung asymmetrisch verteilt ist: an einem Ende des Moleküls überwiegt die negative Ladung, am anderen die positive. Die Anziehungskräfte zwischen den jeweils entgegen gesetzten Ladungen zweier Mole-
142
küle sorgen für eine schwache Bindung zwischen ihnen. Diese Kraft wirkt jedoch nur auf sehr kurze Entfernungen, die Moleküle müssen sich dafür fast berühren. Unebenheiten oder Verunreinigungen schwächen diese Anziehungskraft, von Natur aus stark asymmetrische, polare Substanzen stärken die Ladungsdifferenzen und damit auch die Haftkraft. Kapillarkräfte dagegen beruhen auf der Bildung eines dünnen Wasserfilms zwischen zwei Oberflächen. Sie lassen beispielsweise das Wasser in den dünnen Leitungsbahnen der Pflanzen oder einem Glasröhrchen in die Höhe steigen. Gleichzeitig bewirken sie aber auch eine Anziehung – Adhäsion – zwischen den beiden durch den Wasserfilm verbundenen Oberflächen. Voraussetzung für die Entstehung von Kapillarkräften ist jedoch das Vorhandensein von Wasser. Klar war jedoch, dass das „trockene“ Haftsystem des Geckos in jedem Fall ohne eigene Sekretausscheidung – wie man sie zum Beispiel von Fliegen kennt – funktioniert. 1:0 für van-der-Waals
Eine Forschergruppe um Kellar Autumn am Lewis & Clark College in Portland, Oregon hält daher die van-der-Waals-Kräfte für entscheidend. Im Jahr 2002 führten die Wissenschaftler Experimente durch, bei denen sie die Haftung von ganzen Geckozehen, aber auch einzelnen Setae an verschiedenen Wasser abweisenden und Wasser anziehenden Oberflächen testeten. In weiteren Versuchen spannten sie künstlich hergestellte Geckohaare aus Polymeren in eine Messapparatur ein, um auch deren Haftverhalten zu ermitteln. Das Ergebnis: Die „Klebkraft“ sowohl der ganzen Zehen als auch
SCHICHTEN, STOFFE, NANORÖHRCHEN
der einzelnen Setae war an Wasser abweisenden und Wasser anziehenden Oberflächen nahezu gleich. Wären aber Kapillarkräfte im Spiel, müsste die Haftung an den Wasser abweisenden Oberflächen deutlich geringer ausfallen. Für Autumn stand daher fest: „Nach diesen Versuchen können wir nun endlich die 30 Jahre alte Theorie der Wasseradhäsion widerlegen.“ Für die Bioniker folgte daraus, dass der Entwicklung von „trockenen“ künstlichen Haftstrukturen nichts mehr im Wege stand. Stehen van-der-Waals-Kräfte im Vordergrund, könnten solche Materialien unter Wasser sogar genauso gut „kleben“ wie an der Luft. Hafthärchen im Visier
Photodetektor
Laserstrahl
Abtastnadel ("Cantilever") Spitze
Oberfläche
Doch noch war das letzte Wort in dieser Sache nicht gesprochen: Denn Ende 2005 erschienen gleich zwei Veröffentlichungen, die Autumns van-der-Waals-Theorie eindeutig widerlegten. Eine davon stammt von den Stuttgarter Max-Planck-Forschern um Eduard Arzt und ihren Kollegen der Universitäten des Saarlands. Gemeinsam war es den Wissenschaftlern gelungen, das Haftverhalten nicht nur einzelner Setae, sondern sogar einzelner Spatulae, der nur 200 Nanometer kleinen Hafthärchen des Geckofußes, gezielt zu analysieren – ein technisches Meisterstück. Mithilfe einer Nadelspitze trennten die Forscher dazu zunächst eine einzelne Seta ab und fixierten das isolierte Haar unter dem Binokularmikroskop mittels eines Klebstofftropfens an der Abtastnadel eines Rasterkraftmikroskops. Dieser Tropfen besaß in etwa die Größe der für den Transfer verwendeten Spitze einer menschlichen Wimper und wurde samt Seta nun in einem Focussed Ion Beam-Mikroskop, einem modifizierten Elektronenmikroskop weiter bearbeitet, bei dem der Elektronenstrahl durch einen wesentlich stärkeren GalliumIonen-Strahl ersetzt ist. Mit diesem Ionenstrahl können die Forscher – ähnlich einer Laserkanone, nur viel kleiner – gezielt einzelne Bereiche des Probematerials herausschneiden. In diesem Fall schnitten sie entlang der Seta an jeder Haarverzweigung einen Ast ab und reduzierten so die Anzahl der Spatulae von ursprünglich mehreren hundert auf weniger als fünf. Geckos – Kletterkünstler dank Mikrostrukturen an den Füßen © Silke Golembski
Atome der Spitze Kraft
Oberflächenatome Funktionsprinzip eines Rasterkraftmikroskops © MMCD Rasterkraftmikroskop Das Rasterkraftmikroskop (engl. Atomic Force Mikroscope, kurz AFM) erlaubt das fast atomgenaue mechanische Abtasten von Oberflächen und gehört damit zusammen mit dem Rastertunnelmikroskop zu den auflösungsstärksten Werkzeugen der Wissenschaft. 1986 von Gerd Binnig, Calvin Quate und Christoph Gerber entwickelt, bildet es nicht nur morphologische, chemische und magnetische Eigenschaften von Strukturen ab, es kann auch zur Messung von Anziehungs- oder Reibungskräften eingesetzt werden. Dabei wird gemessen, wie viel Kraft aufgewendet werden muss, um die Spitze der Messsonde nach dem Kontakt mit einer Probenoberfläche wieder von ihr zu lösen.
143
1:1 unentschieden?
Schale von Haleotis laevigata. In den Kreisen sind Einblicke in die Feinstruktur des Perlmutts mit von links nach rechts steigender Vergrößerung gezeigt. Rot: Rasterelektronenmikroskopische Aufnahme, gelb: Aufnahme mit dem Transmissionselektronenmikroskop (TEM). Orange: Hochaufgelöste TEM-Aufnahme. © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
Arzt und seine Kollegen führten nun verschiedene Versuchsreihen durch: Zum einen testeten sie, wie stark die einzelnen Hafthärchen an Wasser anziehenden beziehungsweise Wasser abweisenden Oberflächen„klebten“, zum anderen, wie sich dieses Haftverhalten bei verschiedenen Luftfeuchtigkeiten und damit einhergehend dem Benetzungsgrad der Oberfläche veränderte. Als Messinstrument diente das Rasterkraftmikroskop, an dessen Spitze die Hafthärchen befestigt waren und gezielt auf die einzelnen Oberflächen abgesenkt wurden. Dabei zeigte sich Überraschendes: Im Gegensatz zu den Ergebnissen der amerikanischen Forscher hafteten die Härchen auf den Wasser anziehenden Oberflächen sehr viel besser als auf Wasser abweisenden. Gleichzeitig verstärkte sich die „Klebkraft“ mit steigender Luftfeuchtigkeit. „Dieses auffallende Verhalten deutet darauf hin, dass die ultradünnen Wasserschichten zwischen Spatulae und Substrat einen eindeutigen Einfluss auf die Stärke der Haftkräfte ausüben“, so das Fazit von Arzt. Im Klartext hieß das: Nicht nur van-der-Waals-Kräfte, sondern auch Kapillarkräfte sind hier am Werk. Steht es also jetzt unentschieden im Disput um die Haftkräfte des Geckos? Lehren für die Technik
Multifunktionale Materialien In der Technik hat meist jedes Bauteil eine bestimmte Funktion. Anders in der Natur: Hier übernehmen die meisten Materialien gleich mehrere Aufgaben. So verbindet das Perlmutt der Muschelschalen enorme Festigkeit mit interessanten optischen Eigenschaften und verhindert gleichzeitig, dass sich Verunreinigungen festsetzen können. Grundlage für diese Multifunktionalität bilden Mikrostrukturen des „Baustoffs“. Die Forschung arbeitet daran, aus diesen Grundprinzipien neue künstliche Materialien zu entwickeln. Potenzielle Anwendungen dafür finden sich in der Optik, Mikroelektronik und Sensorik, aber auch in Form von stark verbesserten Strukturmaterialien für den Flugzeug-, Hochhaus- und Brückenbau.
144
Augenfällig ist zurzeit zumindest eines: Das „klebrige Geheimnis“ des Geckos beruht primär auf der extrem feinen Struktur seiner Hafthärchen an den Fußsohlen, lässt sich aber durch Feuchtigkeit noch weiter verbessern – eine Erkenntnis, die gerade bei der Entwicklung künstlicher Haftstrukturen wichtig ist. Die Stuttgarter Forscher haben inzwischen aus ihren Erfahrungen mit Fliege, Gecko und Co. mathematische Modelle entwickelt, die die Hafteigenschaften von Materialien – egal ob biologisch oder künstlich – theoretisch beschreiben. Der große Vorteil: Mithilfe dieser Gesetzmäßigkeiten können sie nun technische Oberflächen mit ähnlich guten Hafteigenschaften entwickeln. „Geckohaftung“ statt Kleben und Schweißen
Und der Bedarf ist da: Denn Verbindungstechniken wie Schweißen oder Kleben sind zwar stabil, aber auch aufwändig und teuer. Einmal auf diese Weise verbundene Bauteile lassen sich zudem nicht mehr ohne Materialverlust voneinander lösen – ungünstig, wenn Reparaturen durchgeführt werden müssen oder aber der Werkstoff recycelt werden soll. Eine Alternative wären Klettverschlüsse, diese müssen aber immer einen entsprechend angepassten „Haftpartner“ haben und verfilzen mit der Zeit.
SCHICHTEN, STOFFE, NANORÖHRCHEN
Und genau hier setzen Arzt und seine Kollegen an: Sie haben bereits ein Verfahren entwickelt und patentieren lassen, mit denen sie eine Art Verschluss nach dem Vorbild der Natur erzeugen können. Diese Haftsysteme erlauben Verbindungen von Werkstoffen so fest wie Schweißen oder Kleben, aber reversibel. Darüber hinaus verschmutzen die neuen Haftstrukturen im Gegensatz zu konventionellen Klebebändern nicht so leicht. Und im Vergleich zu herkömmlichen Klettverschlüssen benötigen sie kein speziell strukturiertes Gegenüber mehr. Die Wissenschaftler können zudem die feinen Strukturen auf der Materialoberfläche, wie die Dicke der Säulen, die Abstände, die Elastizität und Form, gezielt modifizieren. Die Hafteigenschaften der Oberflächen lassen sich so exakt auf die jeweiligen technischen Anforderungen einstellen – beste Voraussetzungen für vielfältige Einsatzmöglichkeiten im Alltag.
Gleitfalle der Kannenpflanze Nepenthes alata. Im Hintergrund: Rasterelektronenmikroskopische Aufnahme der oberen und unteren Wachsschicht. Die eingefügten Schemata erklären, auf welche Weise die beiden Wachsschichten die Haftkraft der Insekten reduzieren. © MaxPlanck-Institut für Metallforschung
WAS SONST NOCH GESCHAH Antihaft-Beschichtung lässt Insekten keine Chance Nicht eine möglichst gute Haftung, sondern das genaue Gegenteil stand im Mittelpunkt einer gemeinsamen Studie von Wissenschaftlern der Universität Hohenheim und des Max-PlanckInstituts für Metallforschung: Sie untersuchten die Struktur der Antihaft-Beschichtung an der „Fangkanne“ der fleischfressenden Kannenpflanze Nepenthes. Am oberen Innenrand der Kanne liegt eine Gleitzone, auf der angelockte Insekten ausrutschen und in die Verdauungsflüssigkeit hinabfallen. Es zeigte sich, dass das Wachs der Gleitzone die Beute gleich durch eine Doppelstrategie abstürzen lässt: Die Kristalle der oberen, weicheren Wachsschicht verschmutzen die Haftorgane an den Füßen der Insekten und verringern so deren Halt. Die zweite, darunter liegende Wachsschicht besteht aus schrägen Plättchen, die die Oberfläche uneben machen und die Haftfläche für die Beutetiere reduzieren. (JOURNAL OF EXPERIMENTAL BIOLOGY, Januar 2006) „Nano-Pfosten“ senken Reibung Eine neue extrem wasserabweisende Oberfläche, entwickelt von Forschern der University of California in Los Angeles, könnte zukünftig Unterseeboote oder andere Wasserfahrzeuge nahezu reibungsfrei durch das Wasser gleiten lassen. Die Nanostrukturen des neuen Materials erzeugen eine Art stabiles Luftpolster zwischen der Flüssigkeit und der festen Oberfläche und minimieren so die Reibung. Auf einem Grundsubstrat sitzen dabei winzige, nur einen Mikrometer hohe, angespitzte „Pfosten“ aus einem wasserabweisenden Material. Sie sind so dicht gepackt, dass sich zwischen ihnen ein dünnes Luftpolster halten kann. Wasser hingegen kann wegen seiner Oberflächenspannung nicht in die Zwischenräume der Nano-Pfosten eindringen und so bleibt der Luftraum erhalten. Ähnliche Ansätze, den Reibungs-
widerstand zu senken, gab es zwar auch zuvor schon, doch erst den kalifornischen Wissenschaftlern gelang es, die Nano-Pfosten so dicht zu setzen, dass das Prinzip selbst bei Flüssigkeiten unter Druck noch funktioniert. (PHYSICAL REVIEW LETTERS, Februar 2006) Was Miesmuscheln so klebrig macht Dihydroxyphenylalanin, kurz Dopa, ist der Schlüsselfaktor bei der Bildung des Klebstoffs, den beispielsweise Miesmuscheln nutzen, um sich festzusetzen. Das kleine Molekül verknüpft unter anderem die verschiedenen Eiweißfäden im zuerst flüssigen Haftmittel fest miteinander und härtet den Bioklebstoff auf diese Weise. Die Substanz, die interessanterweise als Wirkstoff für die Behandlung der Parkinson-Krankheit eingesetzt wird, gilt auch als wichtigster Faktor für die ungewöhnlich hohe Haftfähigkeit des Klebstoffs auf nassen Oberflächen. Wie genau Dopa diese gute Haftung ermöglicht, war bislang allerdings nicht bekannt. Forscher der Northwestern University fanden heraus, dass Dopa unter den im Meer herrschenden Bedingungen in zwei verschiedenen Formen vorkommt, und sie konnten mithilfe des Rasterkraftmikroskops zeigen, dass eine dieser Varianten sehr gut an Metallen oder Mineralien haftet, während die andere eine starke Bindung mit organischen Materialien aller Art eingeht. Auf diese Weise gelingt es den Muscheln, sowohl metallische Schiffsrümpfe als auch Holz oder gar die Haut von Walen zu besiedeln. Die Forscher hoffen, durch das bessere Verständnis des Muschelklebers dessen ungewöhnliche Eigenschaften in einer künstlichen Variante nachahmen und so beispielsweise Klebstoffe für medizinische Implantate verbessern zu können. (PNAS, August 2006).
145
Interview
Wissen Hoch 12: Warum arbeiten Wissenschaftler an einem Institut für Metallforschung an Geckos, Fliegen und Käfern?
Es geht um die Übertragung von Prinzipien zwischen Materialforschung und Biologie. Dies ist eine spannende, grundlegende Forschung mit großer Anwendungsrelevanz. Ist die Diskussion um van-der-Waals- versus Kapillarkräfte beim Gecko nun entschieden? Prof. Dr. Eduard Arzt Direktor am MaxPlanck-Institut für Metallforschung. An diesem Institut forschen Materialwissenschaftler und Biologen gemeinsam daran, wie sich mikromechanische Konzepte und Methoden auf biologische Phänomene anwenden lassen. © MPG
Oder erwarten Sie da noch neue Entwicklungen?
Es hat sich gezeigt, dass beide Mechanismen etwa gleich viel beitragen können – je nach Oberfläche und Feuchtigkeit. Welche konkreten Anwendungen sind für diese Art der Oberflächenhaftung denkbar? – oder vielleicht schon in der Entwicklung?
Interessant ist auf jeden Fall die technische Nutzung beispielsweise in Medizin, Bauwesen, Mikrotechnik oder Robotik. Woran arbeiten Sie zurzeit?
Wir arbeiten daran, die Kapillarität technisch zu nutzen.
146
Die Fasern des Glasschwamms Euplectella sind über viele Größenordnungen und insgesamt sieben hierarchische Ebenen optimal miteinander verknüpft – ein Bauprinzip der Natur, das Wissenschaftler erforschen, um daraus neuartige technische Materialien zu entwickeln. © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
SCHICHTEN, STOFFE, NANORÖHRCHEN
Perlen aus amorphem Kohlenstoff haben sich an Nanokohlenstoffröhrchen abgesetzt. © Max-Planck-Institut für Metallforschung
Nanoröhrchen – Kohlenstoffwinzlinge als Bausteine für Computer der Zukunft Sie sind winzig und hohl, bestehen aus reinem Kohlenstoff und haben Potenzial für viele Anwendungen – die Kohlenstoffnanoröhrchen: Obwohl sie nur aus einem zusammengerollten Kohlenstoffnetz bestehen, sind die nur zwischen einem und 50 Nanometer dünnen Röhrchen zehnmal zugfester als ein Stahldraht derselben Dicke wäre. Und sie sind fast doppelt so hart wie Diamant, der als das härteste Material der Welt galt, ehe Kohlenstoffröhrchen 1991 entdeckt wurden. Zudem verhalten sich die bis zu mehrere Millimeter langen Kohlenstoffröhren mal wie ein Leiter, mal wie ein Halbleiter – und sind damit prädestiniert für einen Einsatz in zukünftigen Nanotransistoren und anderen elektronischen Bauteilen. Genau das macht sie auch für die Computerindustrie interessant. Denn bald werden die Transistoren auf einem Siliziumchip so eng zusammengerückt sein, dass sie sich nicht weiter verkleinern lassen.
Das Moore‘sche Gesetz besagt, dass sich die Anzahl der Transistoren auf einem Chip etwa alle zwei Jahre verdoppelt. Entsprechend müssen die Transistoren auf immer geringere Größen schrumpfen. Doch mit den heute verwendeten Materialien ist das unmöglich. „Die Herausforderung, der sich die Industrie seit langer Zeit gegenüber sieht, besteht in der schwierigen Identifizierung und Integration neuer Materialien als Ersatz für Siliziumdioxid, um Grenzen zu überwinden. Manch
Kohlenstoffnanoröhrchen © Chris Ewels
147
Wie klein ist Nano? Die Welt des Allerkleinsten, das ist für die Nanoforscher das Reich der Atome und Moleküle. Ihre Größenordnung ist der Milliardste Teil eines Meters, das Nanometer. Ein Nanometer entspricht gerade einmal zehn in einer Reihe nebeneinander gelegten Wasserstoffatomen. Ein Bakterium, immerhin eines der kleinsten Lebewesen auf der Erde, ist bereits tausendmal größer. Und eine Nadelspitze ist im Vergleich geradezu gigantisch groß: sie misst bereits eine Million Nanometer.
einer hat diese Herausforderung mit der Herztransplantation für den Chip verglichen“, erklärt Sunlin Chou, Senior Vizepräsident des ChipHerstellers Intel. In Labors weltweit basteln und tüfteln Forscher daher, um die winzigen Röhrchen aus Kohlenstoff als Ersatz für Silizium-basierte Bauteile einzuspannen. Und die ersten Erfolge gibt es bereits: Vom Schaltkreis mit einem Nanoröhrchen...
Im März 2006 stellten Forscher des IBM Forschungsinstituts im amerikanischen White Plains in der Zeitschrift SCIENCE den ersten Schaltkreis vor, der rund um ein einzelnes Nanoröhrchen errichtet ist. Integriert in eine konventionelle Halbleiterarchitektur dient das Kohlenstoffröhrchen dabei als verbindender Kanal zwischen mit Palladium und Aluminium-versetzten Silizium-Komponenten. Dieser neue Schaltkreis leitet Strom zwar noch nicht so schnell wie heutige Silizium-Chips, aber immerhin gut eine Million Mal schneller als die bisher getesteten Schaltkreise aus mehreren Nanoröhrchen. „Dieser Durchbruch repräsentiert den ersten Schritt, um zu demonstrieren, dass man Nanotubes auch in konventionelle Schaltkreisarchitekturen einbauen kann“, konstatierte IBM-Forscher Zhihong Chen im Magazin SEMICONDUCTOR INTERNATIONAL. Denn genau an diesem Punkt scheiden sich zurzeit noch die Geister, wie Chen erklärt: „Die Frage ist, ob wir ein neues Konzept brauchen, um eine komplett andere Elektronik zu bauen oder ob wir die Vorteile der weit entwickelten Siliziumtechnologie nutzen können, indem wir einfach die bisherigen Materialien durch Nanotubes ersetzen.“
Nahansicht des Nanoröhrchen-Ringoszillators vom CMOS-Typ. Der obere Ausschnitt zeigt das zwei Nanometer dicke Nanoröhrchen. © IBM
148
Größenvergleich zwischen dem Nanotube-Schaltkreis und einem menschlichen Haar © IBM
SCHICHTEN, STOFFE, NANORÖHRCHEN
Schematischer Aufbau eines MOSFET-Transistors © MMCD
-
+
-
+
Halbleiter Isolierschicht (Siliziumdioxid) Gate (Metall)
-
n
+
-
+
Substrat (p)
n
-
+
...zum All-Carbon-Transistor
Transistoren – Grundbausteine der Elektronik
Während IBM zunächst bei der konventionellen Chip-Architektur bleibt, gehen Wissenschaftler des Max-Planck-Instituts für Festkörperforschung in Stuttgart noch einen Schritt weiter: Sie haben bereits einen AllCarbon-Transistor entwickelt, bei dem nicht nur der leitende Kanal aus einem Nanoröhrchen besteht, sondern auch die Gate-Elektrode. Dieses Transistorbauteil liegt dem Kanal auf und bestimmt zusammen mit dem Gate-Dielektrikum, der dünnen Isolierschicht zwischen beiden Teilen, die Leitungseigenschaften des Transistors. Die Forscher verbanden dafür Nanoröhrchen zu speziellen „T-Stücken“ und erzeugten damit einen Transistor mit dem weltweit kleinsten Gate, das nur aus einem Molekül besteht.
Transistoren sind die Grundbausteine aller Chips und elektronischen Bauteile. In Radio- und Fernsehgeräten dienen sie als Verstärker, in Mikroprozessoren dagegen als winzige An-Aus-Schalter für den binären Code. Grundlage aller Transistorformen sind Halbleiter, Materialien wie Silizium, die unter normalen Bedingungen keinen Strom leiten, ab einem bestimmten Schwellenwert aber zu besonders guten Leitern werden. Zwei verschiedene Halbleiter, einer mit Elektronenüberschuss, einer mit Elektronenmangel, werden jeweils für einen Transistor gebraucht.
Nanoröhrchen als Erbsenschoten
Doch inzwischen sind längst nicht mehr nur einfache Kohlenstoffröhrchen im Spiel. Wissenschaftler experimentieren auch schon mit verzweigten, mehrwandigen oder auch gefüllten Röhrchen. Eine besondere Form dieser gefüllten Nanotubes haben die Stuttgarter Max-Planck-Forscher gemeinsam mit Kollegen aus Japan und Hongkong hergestellt und für Feldeffekt-Transistoren eingesetzt. Die Peapods bestehen aus einem Nanoröhrchen, in dem mehrere Fullerene, kugelige Moleküle aus 60 Kohlenstoffatomen, neben-
Die am weitesten verbreitete Art des Transistors ist der MOSFET (Metall-OxidHalbleiter Feldeffekttransistor). Bei diesem fungiert eine Gate-Elektrode als eine Art Tor: Wird dort eine sehr niedrige positive Ladung angelegt, zieht sie Elektronen aus dem Halbleitersubstrat in den Kanal zwischen den beiden Anschlüssen Quelle (Source) und Ableitung (Drain). Zwischen beiden fließt nun Strom, der Transistor ist aktiv. Im Computer bedeutet das: Der Transistor schaltet vom Signal „0“ auf „1“ um.
einander liegen wie Erbsen in einer Schote. Diese Erbsen wiederum dienen als Käfige für Metallatome, die Elektronen an die Fullerene und über diese auch an die Nanoröhrchen übertragen. Nanoröhrchen mit dieser komplizierten Struktur könnten sich für Transistoren noch besser eignen, da sie Eigenschaften unterschiedlicher Transistortypen in sich vereinen und daher flexibler reagieren können. Nanotubes verbinden Chip-Stockwerke
Doch bis tatsächlich ganze Transistoren und Chips auf der Basis halbleitender Nanoröhrchen – ob nun hohl oder gefüllt – in der Praxis eingesetzt werden, wird es nach
149
Nanoröhrchen aus Kohlenstoff Kohlenstoffnanoröhrchen oder „Nanotubes“ sind hohle Röhren aus Kohlenstoff, die ein bis 50 Nanometer Durchmesser, aber bis zu mehreren Millimetern Länge erreichen können. Ihre Wände bestehen aus sechseckigen Kohlenstoffringen, die ähnlich wie im Graphit miteinander verbundenen sind und deren Muster einem Maschendrahtzaun ähnelt. Die Art, wie diese Kohlenstoffschicht zur Röhre gerollt ist – mit schräg verlaufendem Sechseckmuster oder gerade – bestimmt die Eigenschaften des Nanoröhrchens, ob es beispielsweise metallisch oder halbleitend ist. Neben einwandigen Kohlenstoffröhrchen sind inzwischen auch mehrwandige, verzweigte und geknickte in Laboren erzeugt und nachgewiesen worden. Bild: Hochdichte Nanoröhrchen © NFS Nanowissenschaften, Universität Basel, Christian Schönenberger
150
Einschätzung der Wissenschaftler noch einige Zeit dauern. Dagegen könnten metallische Kohlenstoffröhren schon recht bald als Leiterbahnen in herkömmlichen Chips dienen. In einem Verbundprojekt des Bundesforschungsministeriums (BMBF) gelang es Wissenschaftlern des Max-Planck-Instituts für Festkörperforschung gemeinsam mit Forschern des Chip-Herstellers Infineon bereits, mehrwändige Nanoröhrchen in Siliziumchips so einzubauen, dass sie senkrecht aus diesen herausragen. Zukünftig könnten sie die herkömmlichen chipinternen Leiterbahnen aus Kupfer zwischen verschiedenen Stockwerken des Chips ersetzen. Der Vorteil: Die Kohlenstoffröhrchen vertragen tausendmal größere Stromdichten als die Kupferleiter. Zudem sind sie weniger anfällig gegenüber der so genannten Elektromigration, einem Prozess, bei dem sich kleine Metallteilchen vom Draht ablösen und im Schaltkreis herumwandern. Fast unsichtbar
leitenden Kohlenstoffwinzlingen herzustellen. Der Haken an der Sache: Bisher ist es nicht möglich, gezielt leitende oder halbleitende Nanotubes herzustellen. Auch trennen lassen sich die beiden Sorten nicht. Die Netzwerke bestehen daher zurzeit noch aus einer Mischung beider Röhrchentypen und sind noch nicht effektiv genug. Um das zu ändern, sind Grundlagenforscher wie die Stuttgarter NanoröhrchenWissenschaftler gefragt. Sie forschen aber nicht nur nach Wegen, die Eigenschaften der Nanotubes gezielt zu beeinflussen, sondern auch nach Methoden, mit denen sie einzelne Kohlenstoffröhrchen, aber auch ganze Röhrchenverbände besser charakterisieren können. So haben sie bereits Messungen der elektrischen, elektrochemischen und physikalischen Eigenschaften mit elektronenmikroskopischen Untersuchungen an ein und demselben Röhrchen kombiniert. Ihre Ergebnisse könnten letztlich vielleicht sogar die Grundlage für eine neue Ära der Computertechnologie bilden – basierend auf Kohlenstoffröhrchen statt auf Silizium.
Da die Nanoröhrchen kleiner sind als die Wellenlänge des sichtbaren Lichts, sind sie auch im Lichtmikroskop nicht zu sehen: Das sichtbare Licht dringt ungehindert durch sie durch. Daher sind Nanotubes aussichtsreiche Kandidaten WAS SONST NOCH GESCHAH für transparente leitfähige Schichten Nanopaddel für Kohlenstoff– zum Beispiel für Röhrchen Solarzellen oder Einen neuen Meilenstein in Sachen Miniaturisierung haben Wissenschaftler Leuchtdioden, wo am Stuttgarter Max-Planck-Institut für möglichst wenig Festkörperforschung gesetzt. Ihnen ist es Licht verloren gehen gelungen, mikroskopisch kleine „Paddel“ soll. Verschiedene aus Metall schwenkbar auf Kohlenstoffnanoröhrchen von nur eineinhalb MilliFo r s c h e r g r u p p e n onstel Millimeter Durchmesser zu lagern. arbeiten inzwischen Derartige Bauteile könnten als Funktionselemente in nanoelektromechanischen daran, transparente Systemen dienen – als winzige bewegliche Spiegel in optischen Anwendungen, leitfähige Schichten beispielsweise für die Telekommunikation. Ebenso ließen sie sich als Sensoren verwenden, da bereits sehr kleine Kräfte den Metallblock drehen und damit aus ganzen Netzauch das Nanoröhrchen verformen. (SCIENCE, September 2005) werken von metalBild: Nanoröhrchen mit „Paddel“ © Max-Planck-Institut für Festkörperforschung lischen und halb-
SCHICHTEN, STOFFE, NANORÖHRCHEN
Wissen hoch 12: Gibt es auch Nanokohlenstoff-
Welche
röhrchen in der Natur? Oder sind sie eine Erfin-
zukünftig haben, außer in Schaltkreisen und
dung des Menschen?
Computern?
Nanoröhrchen gibt es auch in der Natur. Sie entstehen immer bei unvollständiger Verbrennung, auch im Auspuff von Dieselfahrzeugen. Allerdings sind die Nanoröhrchen hier mit so vielen anderen Rußpartikeln gemischt, dass sie uns nicht auffallen.
Als Massenprodukt werden Nanoröhrchen vor allem in Verbundwerkstoffe gehen, wo sie die bekannten Leit-Rußpartikel ersetzen werden. Etwas höhere Anforderungen stellen transparente leitende Filme als Deckelektroden von Solarzellen oder Leuchtanzeigen. Noch aufwändiger sind Nanoröhrchen als kalte Elektronenquellen, zum Beispiel für Bildschirme. Die größten Anforderungen bestehen natürlich in der Halbleitertechnik.
Wie stellt man die Nanoröhrchen her? Was ist das komplizierte daran?
Das ist eigentlich gar nicht kompliziert. Mehr als 100 Forschergruppen in aller Welt stellen Nanoröhrchen her. Man muss nur Graphit verdampfen oder Kohlenwasserstoffe thermisch zersetzen. Das einfachste Verfahren ist ein Lichtbogen zwischen zwei Graphitelektroden. Diese Bogenlampen hat man schon in den 1920er-Jahren in Kinoprojektoren verwendet. Wenn man den Lichtbogen nicht in Luft, sondern in Edelgas brennen lässt, zum Beispiel in Helium, dann rußt er und es entstehen unter anderem Fullerene und Nanoröhrchen.
Einsatzmöglichkeiten
könnten
sie
Was sind die größten Hürden bei der Entwicklung von Anwendungen mit Nanoröhrchen?
Für Massenanwendungen ist heute noch der Preis das größte Hindernis. Und in der Halbleitertechnik ist es die genaue Platzierung der einzelnen Schaltelemente.
Interview
Dr. Siegmar Roth gehört zur Arbeitsgruppe des Physik-Nobelpreisträgers Klaus von Klitzing am MaxPlanck-Institut für Festkörperforschung. © Siegmar Roth
Wann wird es einen ersten Computer auf Nanoröhrchenbasis auf dem Markt geben? Wird es ihn geben?
In zehn oder zwanzig Jahren – wenn sich die Menschheit dann noch dafür interessiert und nicht schon längst nach anderen Zielen strebt.
Virtueller Blick in das Innere eines Kohlenstoffnanoröhrchens © Chris Ewels
151
152
ZELLEN, GENE, DNA Stammzellen sind schon seit einigen Jahren das große Thema in der Zellbiologie und Genetik. Dabei versuchen die Forscher, das „Wesen“ der Stammzellen besser zu verstehen. Im Mittelpunkt der Untersuchungen steht aber vor allem die Suche nach einer Alternative zur ethisch umstrittenen Stammzellgewinnung aus Embryonen. Inzwischen haben sich vier potenzielle Ansätze herauskristallisiert, in denen versucht wird, die Stammzellen durch eine „Rückprogrammierung“ direkt aus normalen Körperzellen abzuleiten. Erfolge und wichtige Fortschritte gab es 2006 bei allen vier Methoden – noch aber stehen einer konkreten Anwendung etliche ungelöste Probleme im Weg. Die Erkenntnisse in der Stammzellforschung, aber auch auf anderen zellbiologischen Gebieten, profitieren ebenfalls von den neuen Möglichkeiten der Fluoreszenzmikroskopie, mithilfe derer die Vorgänge im Inneren von Zellen sichtbar werden. Die Wissenschaftler arbeiten an einer ständigen Verbesserung dieser optischen Technik und treiben dabei die Auflösungsgrenze der Mikroskopie immer weiter nach unten: Im Sommer 2006 gelang es ihnen, Strukturen von der Größe von nur 20 Nanometern abzubilden. Zuvor galten solche Auflösungen als unerreichbar für die Lichtmikroskopie. Erstmals erhalten die Forscher damit die Chance, lebende Zellen und die in ihnen ablaufenden Stoffwechselprozesse direkt „bei der Arbeit“ zu beobachten. Die ersten Einsätze dieser Technologie sorgen bereits für erstaunliche Erkenntnisse – und weitere Überraschungen sind vorprogrammiert.
Stammzellen – im Bann der „Alleskönner“
154
Moleküle im Visier
164
Rasterelektronenmikroskopische Aufnahme von Chromsomen während der Zellteilung © MPG
153
Einzelne Stammzellen in einer rasterelektronenmikroskopischen Aufnahme © MaxPlanck-Institut für molekulare Biomedizin
Stammzellen – im Bann der „Alleskönner“ 1981 gelang es Wissenschaftlern erstmals, Stammzellen aus den Embryonen einer Maus zu gewinnen. Doch es dauerte noch einmal fast 20 Jahre – bis zum Jahr 1998 – bis amerikanische Forscher auch aus menschlichen Embryonen Stammzellen isolieren und in Kultur halten konnten. Damit schufen sie die Voraussetzung für einen ganz neuen Forschungszweig – und weckten zugleich große Hoffnungen. Embryonale Stammzellen sind die „Alleskönner“ unter den Zellen: Sie besitzen noch das Potenzial, sich in alle Zelltypen des Körpers zu entwickeln und so zerstörte oder falsch funktionierende Gewebe und Zellen zu ersetzen. Man bezeichnet sie daher als pluripotent. Eine Therapie auch für bisher unheilbare Krankheiten wie Parkinson, Alzheimer oder Diabetes rückte damit in greifbare Nähe – so glaubte man. Nach wie vor gelten Stammzellen als die größten Hoffnungsträger in der Medizin. Forschern ist es inzwischen gelungen, die Entwicklung von embryonalen Stammzellen in Kultur so zu steuern, dass aus
154
Blutzellen © MaxPlanck-Institut für Entwicklungsbiologie, Jürgen Berger
ihnen verschiedene Zell- und Gewebetypen entstehen. In Tierexperimenten konnten sie Vorläuferzellen für die Isolierscheiden von Nervenzellen, Insulin bildenden Zellen, Herzmuskelzellen und Blutzellen produzieren.
ZELLEN, GENE, DNA
Weltweit waren Mitte 2006 allein in der Datenbank „Clinical Trials“ der amerikanischen Gesundheitsbehörden knapp 500 Studien registriert, in denen stammzellbasierte Wirkstoffe und Therapien bereits an Menschen getestet werden. Rätsel um Reprogrammierungs-Mechanismus
Die Frage ist: Geht es auch umgekehrt? Unter Stammzellforschern kursiert dazu eine heiß diskutierte Zahl: Die einen schätzen sie auf „etwa drei“, andere auf „sieben bis zehn“ oder „vielleicht auch 20“. Gemeint ist die Zahl der Proteine in einem „magischen“ Cocktail, der erwachsene Körperzellen wieder zu pluripotenten Stammzellen umfunktionieren könnte. Auf diesem Wege ließen sich „maßgeschneiderte“, das heißt vom Patienten selber stammende und entsprechend genetisch angepasste Stammzellen herstellen. Ein solches „Elixier“ würde aber auch ein anderes, grundlegendes Problem lösen: Bisher sind die begehrten Stammzellen nur aus Embryonen zu gewinnen. Genau diese „verbrauchende Embryonenforschung“ aber sorgt für ethische Bedenken. Die Nutzung embryonaler Stammzellen zu Forschungszwecken ist daher in vielen Ländern streng reglementiert. In Deutschland ist sie sogar auf die Stammzelllinien beschränkt, die vor dem 1.1.2002 hergestellt worden sind. Bei der Reprogrammierung von Körperzellen sind die Wissenschaftler bisher weitestgehend auf Versuch und Irrtum angewiesen. 2006 erklärten Stammzellforscher im renommierten Wissenschaftsmagazin NATURE: „Im Prinzip bleibt die Reprogrammierung größtenteils phänomenologisch; zukünftige Bemühungen sollten daher darauf zielen, die Reprogrammierung auf molekularer und biochemischer Ebene zu verstehen.“
Stammzell-Gewinnung: Auf vier Wegen zum Erfolg?
Wie ist die Akzeptanz? Eine Umfrage (Eurobarometer 2005) zeigt: Die Stammzellforschung unter strengen Kontrollvorschriften wird von den Europäern mehrheitlich befürwortet. Dies gilt sowohl für Stammzellen aus der Nabelschnur (65 Prozent) als auch für embryonale Stammzellen (59 Prozent). Die Spannbreite der Meinungen reicht von 73 Prozent Zustimmung bei Belgiern bis zu nur 33 Prozent bei Esten. Deutschland liegt mit 54 Prozent im Mittelfeld. Nach einer Umfrage des Magazins Frontal 21 (6/2005) sind 50 Prozent der Männer, aber nur 41 Prozent der Frauen für eine Nutzung embryonaler Stammzellen. Jeweils rund ein Drittel der Befragten war in dieser Frage allerdings noch unentschlossen.
Reprogrammierung Bezeichnet einen Zuwachs an Potenz, das heißt der Differenzierungsfähigkeit von Zellen eines erwachsenen Organismus. Einige Tierarten können von Natur aus ganze Organe bzw. Organteile neu bilden. Manche Molche können nicht nur amputierte Gliedmaßen oder Schwänze regenerieren, sondern sogar Herzmuskelgewebe. Wissenschaftler wollen nun jene Moleküle identifizieren, die die Regenerationsfähigkeit des Molchherzens steuern. Mit solch einem „molekularen Cocktail“ sollte es möglich sein, auch das Differenzierungspotenzial von Säugerzellen zu beeinflussen.
Vier verschiedene Strategien verfolgen die Wissenschaftler zurzeit, um Körperzellen wieder zu Stammzellen zu machen: Durch den Transfer von Zellkernen in entkernte Eizellen, die Fusion von Körperzellen mit embryonalen Stammzellen sowie die Reprogrammierung nur durch Zellextrakte oder durch bestimmte Kulturverfahren. Während die letzen beiden Methoden erst in den Anfängen stecken, werden Kerntransfer und Fusion bereits in vielen Arbeitsgruppen weltweit eingesetzt – auch und vor allem, um die grundlegenden Mechanismen der Stammzellentwicklung besser zu verstehen.
Molche sind wahre „Regenerationskünstler“. Wie sie dies schaffen , ist aber noch ungeklärt. © MPG
155
Kerntransfer: „Dolly“ und die Tücken
Der Transfer des Zellkerns einer erwachsenen Körperzelle in eine entkernte Eizelle ist das Verfahren, dem auch Klonschaf „Dolly“ seine Existenz verdankte. Denn wird ein durch Kerntransfer erzeugter Embryo in einen mütterlichen Organismus implantiert, so können ganze Klontiere herangezogen werden. Dieses reproduktive Klonen ist nicht nur bei Schafen und Rindern, sondern auch bei Hunden bereits gelungen. Aus den frühesten Stadien eines durch Kerntransfer erzeugten Embryos lassen sich jedoch auch Stammzellen gewinnen. Da auf diese Weise schließlich auch Zellen und Gewebe für medizinische Anwendungen am Menschen gezüchtet werden sollen, muss die Sicherheit dieser Anwendungen gewährleistet sein. Die Wissenschaftler versuchen daher herauszufinden, warum die aus dem Zellkerntransfer hervorgehenden Klone so häufig schwere Missbildungen und eine extrem verkürzte Lebensdauer zeigen. Neueste Studien deuten darauf hin, dass die reprogrammierten Zellen offenbar eine Art „epigenetisches Gedächtnis“ besitzen: Informationen über das ursprüngliche Alter und die Funktion des übertragenen Zellkerns sind dabei nicht in den Genen, wohl aber in bestimmten, an die Erbsubstanz DNA angelagerten Molekülgruppen konserviert. Diese beeinflussen, welche Gene abgelesen werden, und könnten so auch für Fehlfunktionen der resultierenden Zellen oder Klonorganismen verantwortlich sein. Wie dieses zelluläre Gedächtnis gelöscht werden kann, ist Gegenstand zahlreicher Studien. Epigenetische Veränderungen machen das reproduktive Klonen extrem ineffizient, und selbst die überlebenden Organismen stecken voller Fehler. Die epigeneti-
156
schen Probleme, die im Falle des Organismus auftreten, muss es aber nicht unbedingt beim therapeutischen Klonen geben. Während es in dem Fall um einen lebensfähigen Organismus geht, ist das Ziel des therapeutischen Klonens die Gewinnung von funktionsfähigen Stammzellen. Fusion: Reprogrammierung durch Verschmelzung
Eine zweite, zurzeit intensiv erforschte Strategie ist die Reprogrammierung von Körperzellen durch die Fusion mit Stammzellen. Hierbei wird der Zellkern der erwachsenen Körperzelle nicht in eine Eizelle eingepflanzt, sondern mit bereits vorhandenen embryonalen Stammzellen verschmolzen. Gelänge dies reibungslos, so hätte das zwei Vorteile: Die Wissenschaftler erhielten maßgeschneiderte, weil mit dem Erbgut des Zellkernspenders ausgestattete Stammzellen, benötigten andererseits aber keine neuen Eizellen. Erste Erfolge gibt es bereits: Nach zahlreichen
ZELLEN, GENE, DNA
Nahezu unbeschränkt – Gewinnung embryonaler Stammzellen aus Embryonen erlaubt, Erzeugung „maßgeschneiderter“ Stammzellen durch Kerntransfer (therapeutisches Klonen) ebenfalls. Reproduktives Klonen ist jedoch verboten.
Flexibel, wenig Einschränkungen – Kerntransfer ist verboten, Gewinnung von Stammzellen aus von Reproduktionskliniken gespendeten Embryonen aber erlaubt.
Restriktiv oder nicht geregelt – die Spannbreite reicht vom vollständigen Verbot der Stammzellforschung über das Verbot von Stammzellimporten bis zum Verbot der Erzeugung neuer Stammzelllinien und der Erlaubnis der Forschung nur an wenigen, bereits etablierten Stammzelllinien.
Rechtliche Lage der Stammzellforschung weltweit © MMCD
157
Wer ist wer unter den Stammzellen? Adulte Stammzellen Quelle: Knochenmark; Entnahme aus dem Beckenkamm oder Mobilisierung von Stammzellen aus dem Knochenmark und Isolation aus dem peripheren Blut Vorteile: sofort verfügbar; große Anzahl von Zellen; ethisch unbedenklich Nachteile: nicht pluripotent; Fremdspenden müssen in bestimmten Zelleigenschaften mit dem Empfängergewebe übereinstimmen, um eine Abstoßung zu vermeiden; geringere Vermehrungskapazität; hohes Risiko einer Infektionskrankheit Stammzellen aus Nabelschnurblut Quelle: Plazenta und Nabelschnurblut nach der Geburt des gesunden Babys Vorteile: sofort verfügbar; keine Spenderrisiken; gewisse Vermehrungskapazität; es treten geringere Abstoßungsreaktionen bei Fremdspenden auf; geringeres Risiko einer Infektionskrankheit Nachteile: nicht pluripotent, Anzahl der Zellen limitiert durch das geringe Volumen des gesammelten Blutes (~ 80 ml) Embryonale Stammzellen Quelle: Innere Zellmasse der Blastozyste von frühen Embryonen, die bei künstlichen Befruchtungen „übrig bleiben“ oder von Embryonen, die zu diesem Zweck geklont wurden Vorteile: pluripotent, können verschiedene Zelltypen des Organismus bilden; weitgehend unbegrenzte Vermehrungskapazität Nachteile: Nutzung menschlicher Embryonen ist ethisch umstritten; starke Reglementierung; Gefahr der Tumorbildung nicht differenzierter Zellen; Öffentliche Akzeptanz unterschiedlich, wächst jedoch langsam
158
erfolgreichen Versuchen mit Zellen der Maus, verschmolzen im Sommer 2005 die Forscher Kevin Eggan und Douglas A. Melton von der Harvard University in Boston in ihren Experimenten Hautzellen des Menschen mit embryonalen Stammzellen und untersuchten die resultierende Stammzellchimäre, die doppelt so viele Chromosomen besaß wie normale Körperzellen: 92 statt 46. Schlüsselergebnis der Studie war dabei, dass die aus der Fusion entstandenen Zellen tatsächlich auch die Eigenschaften von embryonalen Stammzellen hatten. „Noch umgehen wir damit nicht den Bedarf an menschlichen Eizellen, aber es zeigt, dass dieser Ansatz der Zellfusion interessant genug ist, um weiter verfolgt zu werden“, so Eggan in der Zeitschrift SCIENCE. Stammzellen gegen Herzkrankheiten
Ebenfalls mit der Fusionsmethode arbeiten Wissenschaftler mehrerer deutscher Universitäten und Forschungseinrichtungen im Rahmen eines Verbundprojekts. Koordiniert wird es von Hans Schöler, Direktor am Max-Planck-Institut für molekulare Biomedizin in Münster. Schöler, einer der renommiertesten Stammzellforscher weltweit, hatte erst 2003 für Schlagzeilen gesorgt, als es ihm gelang, aus embryonalen Mäusestammzellen Eizellen zu erzeugen. Ziel des aktuellen Projekts ist es, mithilfe von embryonalen Stammzellen Zelllinien aus Körperzellen zu gewinnen, um Herzerkrankungen, wie zum Beispiel Herzinfarkte zu behandeln. Diese Verfahren werden an Mäusen entwickelt und sollen später auf Menschen übertragen werden. Versuche an der Universität Köln hatten gezeigt, dass sich Teile einer Herzinfarktnarbe bei der Maus durch gezielt differenzierte embryonale Stammzellen ersetzen lassen. Die Zellinjektion
Die Abbildung zeigt in der Bildmitte das Produkt der Fusion einer Herzmuskelzelle (rot gefärbt) mit einer multipotenten, adulten Stammzelle, die durch die Expression eines grün fluoreszierenden Proteins markiert ist.
ZELLEN, GENE, DNA
führte zu einem nachweisbaren Kraftzuwachs im kleinen Mäuseherz. Gibt es ein „nukleäres Gedächtnis“
Die Wissenschaftler in Schölers Arbeitsgruppe wollen jedoch auch ganz grundsätzliche Fragen klären. Offen ist beispielsweise, ob auch das Erbgut der aus einer Fusion hervorgegangenen Stammzellen eine Art „nukleäres Gedächtnis“ besitzt. Wäre dies der Fall, könnten einige Eigenschaften der Ursprungszelle und ihrer Spezialisierung erhalten bleiben – und möglicherweise langfristig für Folgeschäden sorgen. Andererseits aber könnte dies auch eine Chance eröffnen. Denn wenn beispielsweise Herzmuskelzellen als Ausgangszellen einen Teil ihrer Eigenschaften an die Stammzellen „vererben“, wäre es vielleicht leichter, diese Stammzellen zur Therapie von Herzkrankheiten einzusetzen. Ob dies wirklich so ist, müssen kommende Versuche aber noch zeigen. Obwohl es noch viele Hürden zu überwinden gilt, ist Hans Schöler zuversichtlich: „Eines Tages werden Stammzellen Krankheiten heilen.“ Auch der Entwicklungsbiologe und Vizepräsident der Max-PlanckGesellschaft Herbert Jäckle ist sich sicher, dass es den gewünschten Ersatzteilkasten aus Stammzellen eines Tages geben wird. „Ich bin optimistisch, dass es funktioniert“, so Jäckle. „Aber ich bin absolut pessimistisch, was die Zeit anbelangt – dass es schon in fünf oder zehn Jahren so weit sein kann.“
Oben: Entwicklung klonaler Mausembryonen nach Zellkerntransfer vom 2-Zell-, 4-Zell- und 8-Zell-Stadium über die Morula bis zur Blastozyste. © MaxPlanck-Institut für molekulare Biomedizin Unten: Zellen in Kultur. © National Cancer Institute
Potenz Mit dem Wort Potenz beschreiben Entwicklungsbiologen die Fähigkeit bestimmter Zellen und Gewebe sich zu differenzieren.
Adulte Stammzellen, sind im Vergleich zu den „Alleskönnern“ eher „Spezialisten“.
Am wenigsten festgelegt ist die befruchtete Eizelle: Sie kann
Manche adulte Stammzellen sind multipotent, beispielsweise solche aus dem Knochenmark, die immerhin noch alle Zelltypen eines Gewebes bilden können, etwa die verschiedenen Blutzellen.
sich noch in einen vollständigen Organismus verwandeln – sie ist totipotent. Diese Fähigkeit hält etwa bis zum 4- oder 8-Zellstadium an. Embryonale Stammzelle gelten dagegen als pluripotent:
Diese zellulären „Alleskönner“ können zwar noch nahezu alle Zell- und Gewebetypen hervorbringen, aber keinen vollständigen Organismus mehr.
Andere sind oligopotent, ein Beispiel dafür sind neurale Stammzellen, deren Differenzierungsfähigkeit auf wenige Zelltypen des Hirngewebes beschränkt ist. Unipotente Stammzellen dagegen, wie die der Haut, bringen nur Zellen ihres eigenen Typs hervor.
159
Hürden auf dem Weg zur Stammzelltherapie Wie potent eine Zelle wirklich ist, sieht man ihr nicht an. Es kann nur an ihrem Verhalten abgelesen werden – und dafür gibt es bisher nur zwei Testmöglichkeiten: Die Wissenschaftler injizieren die Zellen in eine tierische Gewebekultur. Formt sich dann ein Tumor aus Zelltypen aller drei embryonalen Zellschichten (Ektoderm, Mesoderm, Endoderm), so ist die Zelle pluripotent. Die potenziellen Stammzellen können aber auch mit Fluoreszenzmarkern gekennzeichnet und in einen sich entwickelnden tierischen Embryo injiziert werden. Tauchen später markierte Zellen in allen Gewebetypen auf, war die Zelle ebenfalls pluripotent. Beide Verfahren kommen jedoch aus ethischen Gründen nicht für menschliche potenzielle Stammzellen infrage, da dabei tierische mit menschlichen Zellen vermischt werden. Benötigt werden daher verlässliche Kennzeichen, beispielsweise anhand der Genexpression, mit denen die Potenz festgestellt werden kann.
Dieser Zellklumpen besteht aus Stammzellen. © Max-Planck-Institut für molekulare Biomedizin
In der Pipeline 11,6 Millionen Euro lässt sich das Bundesministerium für Bildung und Forschung (BMBF) die Stammzellforschung allein im Bereich „zellbasierte, regenerative Medizin“ kosten. 46 Projekte haben im Herbst 2005 mit der Arbeit begonnen und laufen noch bis 2008. Gesucht werden zum einen Einsatzmöglichkeiten für Stammzellen in der Therapie von verschiedenen Erkrankungen des Zentralnervensystems wie Parkinson, aber auch in der Regeneration nach Schlaganfällen. Herz und Leber stehen im Mittelpunkt weiterer Projekte. Hier sollen Stammzellen Herzmuskelgewebe ersetzen, das durch einen Herzinfarkt zerstört wurde, aber auch Gewebe bilden, die später zum Ersatz beschädigter Herzklappen genutzt werden können. Mithilfe neuer Kulturverfahren wollen Wissenschaftler zudem Vorläuferzellen für Lebergewebe züchten. Erleichterungen bei der Transplantation von Organen oder Geweben erhoffen sich weitere Forschergruppen von mesenchymalen Stammzellen (Vorläuferzellen des Bindegewebes). Sie beeinflussen die Toleranz des Immunsystems gegenüber Fremdzellen, aber auch gegenüber eigenen – wie, das sollen diese Projekte herausfinden.
160
Ein weiteres Problem bei der Stammzelltherapie sind Abstoßungsreaktionen. Um eine Abstoßung zu vermeiden, müssen die Stammzellen nämlich genetisch mit dem Patienten übereinstimmen. Das kann nur durch Kerntransfer oder Fusion erreicht werden. Nach wie vor besteht hier erheblicher Forschungsbedarf (siehe Kerntransfer: „Dolly und die Tücken“). Hat man ausreichend potente Stammzellen gewonnen, so muss der aus ihnen gezüchtete Zelltyp auch korrekt funktionieren. 2001 erzeugten Forscher vermeintlich erfolgreich Insulin produzierende Inselzellen, die, wie sich später herausstellte, gar kein Insulin erzeugen konnten. Offenbar fehlen also noch geeignete Funktionstests. Darüber hinaus ist es auch gar nicht so einfach, die Stammzellen an ihren Einsatzort im Körper zu lotsen. Werden Stammzellen einfach nur in die Nähe des gewünschten Einsatzortes gespritzt, so können sie sich an falscher Stelle ansiedeln oder Tumore auslösen. Auch hier suchen die Forscher noch nach entsprechenden Methoden.
ZELLEN, GENE, DNA
WAS SONST NOCH GESCHAH Erstes Tier aus „Stammzell-Spermien“ Eine Mäuse-Zucht der besonderen Art ist Wissenschaftlern der Universität Göttingen im Juli 2006 gelungen: Sie produzierten Mäuse-Nachkommen nicht aus normalen Eizellen und Spermien, sondern erzeugten die Spermien durch Differenzierung aus embryonalen Stammzellen. Zum ersten Mal sind aus einem solchen Verfahren lebende Organismen hervorgegangen. Mithilfe bestimmter Wachstumsfaktoren im Kulturmedium hatten die Forscher die Entwicklung embryonaler Mäuse-Stammzellen in Richtung männlicher Keimzellen angeregt. Die so erzeugten Spermien-ähnlichen Zellen waren unbeweglich und mussten daher wie bei der künstlichen Befruchtung mit einer feinen Kanüle in befruchtungsfähige Mäuse-Eizellen eingebracht werden. Aus 65 erfolgreichen Befruchtungen entstanden letztlich sieben Mäuse. Diese besaßen allerdings genetische Defekte, aufgrund dessen sie alle entweder kleiner oder größer als ihre Artgenossen waren und nicht lange lebten. (DEVELOPMENTAL CELL, Juli 2006) Eizellen aus der Haut Dass sich Stammzellen der Haut zu Eizellen entwickeln können, konnten kanadische Forscher der Universität in Guelph beim Schwein zeigen. Die Ausbeute war zwar klein, von 500 000 Zellen entwickelten sich im Labor nur zehn bis 70 zu den besonderen Zellen. Doch diese besitzen sogar eine Zona pellucida , eine Eihülle. Allerdings ließen sich die Follikel noch nicht befruchten. Mittels Parthenogenese entwickelten sich embryoartige Gebilde. Augenscheinlich sind die gezüchteten Oozyten den natürlichen Eizellen sehr ähnlich. Aber ihre Funktion haben sie noch nicht übernehmen können. Das bremst auch die Hoffnung, in den Zellen aus adulten Quellen tatsächlich potente Alleskönner zu finden. Was unterscheidet sie also von natürlichen Eizellen? Dieser Frage wollen die kanadischen Wissenschaftler jetzt in einem anderen Tiermodell nachgehen, das sich leichter handhaben lässt: der Maus. Dabei sollen auch Merkmale identifiziert werden, mit denen sich die Zellen besser charakterisieren lassen. Noch ist zum Beispiel nicht geklärt, ob die in der Haut entdeckten Eizellen dort nicht eine Art Versteck besitzen und ursprünglich aus der Keimbahn stammen und nicht aus dem so genannten Soma. (NATURE CELL BIOLOGY, März 2006) Stammzellen mit „unsterblicher“ DNA Mithilfe spezieller Videotechniken konnten Wissenschaftler des Forschungskonsortiums EuroStemCell am Pasteur Institut in Paris zeigen, dass Stammzellen
bei ihrer Teilung – im Unterschied zu ausdifferenzierten Körperzellen – zwei verschiedene Tochterzellen produzieren: eine Stammzelle und eine spezialisierte Zelle. Die Forscher bezeichnen das als „asymmetrische Teilung“. Die Stammzelle behält den originalen DNAStrang – er bleibt über viele Zellgenerationen hinweg erhalten und ist damit quasi „unsterblich“ –, während die andere Tochterzelle die, durch fehlerhafte Duplikation möglicherweise schadhafte DNA-Kopie erbt. Sie differenziert sich zu bestimmten Zelltypen aus und gehört damit nicht mehr zum Stammzellenpool. Bisher hatten die Wissenschaftler angenommen, dass das genetische Material zufällig verteilt wird. Offensichtlich kann die zelluläre Maschinerie aber zwischen „alter“ und „neuer“ DNA unterscheiden. (NATURE CELL BIOLOGY, Juli 2006) Adulte Stammzellen werden pluripotent Bestimmte adulte Stammzellen können im Reagenzglas in einen Zustand gebracht werden, der den Eigenschaften von embryonalen Stammzellen entspricht. Das stellten Forscher der Universität Göttingen im März 2006 fest. Die aus dem Hodengewebe von Mäusen isolierten spermatogonialen Stammzellen bildeten in Kultur nach einigen Tagen Herzmuskelzellen, konnten aber auch in Dopaminproduzierende Nervenzellen, sowie Gefäßzellen, Hautzellen, Leberzellen, Bauchspeicheldrüsenzellen und Blutzellen differenziert werden. Nach Angaben der Forscher ergeben sich aus ihren Ergebnissen neue Möglichkeiten für den Einsatz von Stammzellen in der Medizin. Die beschriebene Lösung vermeidet zudem die ethischen und immunologischen Probleme beim Einsatz von embryonalen Stammzellen in der medizinischen Forschung. Allerdings käme diese Methode vorerst nur bei männlichen Patienten in Betracht. (NATURE, März 2006)
Isolierung der DNA © Harald Frater
Versuchstier Maus © National Cancer Institute (NCI)
161
Interview
Wissen hoch 12: Bei Klonschaf Dolly, aber auch anderen Klontieren hat man verfrühte Alterserscheinungen, Fettleibigkeit und eine verkürzte Lebensdauer festgestellt. Weiß man inzwischen, woran es liegt?
Prof. Hans Schöler, Direktor am MaxPlanck-Institut für molekulare Biomedizin in Münster, wurde 2003 vom Magazin SCIENCE zu einem der führenden Wissenschaftler des Jahres gewählt. 2004 kehrte er nach fünf Jahren erfolgreicher Arbeit in den USA nach Deutschland zurück. © MPG
Man ist sich immer noch nicht sicher, ob es sich bei den frühen Alterserscheinungen um technische Folgen der Klonierung handelte, oder ob das Material, das beim Klonen in eine entkernte Eizelle verwendet wurde, schlichtweg zu alt war. So wissen wir, dass die Verpackung des Erbgutes der Zelle eines erwachsenen Organismus Fehler aufweisen kann. Neben solchen epigenetischen Problemen gibt es aber sicherlich auch eine genetische Komponente. Beispielsweise altert die DNA im Verlaufe des Lebens durch Mutationen, etwa Punktmutationen. Man hat aber auch die Enden der Chromosomen, Telomere genannt, von Dolly untersucht. Die Telomere von Dolly waren kürzer als in gleichaltrigen normalen Schafen, aber sie waren etwa so lang wie die des alten Schafes, aus dessen Körperkern Dolly entstanden ist. Das ist deshalb interessant, weil die Telomere gleichsam als Stabilisatoren der Chromosomen dienen. Die Telomere werden im Laufe der vielen Zellteilungen im Leben eines Organismus immer kürzer. Andere Tierarten zeigten aber nach dem Klonen längere Telomere. Was auch immer die Ursache für den frühen Tod von Dolly war, im Zusammenhang mit dem Klonen werden viele mögliche Probleme diskutiert. Sie arbeiten zurzeit intensiv an der Erzeugung von pluripotenten Stammzellen durch
CELL wurde ein Cocktail von vier Faktoren veröffentlicht, der eine Teilverjüngung von Zellen bewirken kann. Ein Ziel unserer Arbeiten ist es, neben einem molekularen Verständnis, therapeutisch nutzbare Zellen zu entwickeln, die von einem Patienten nicht abgestoßen werden. Es wird sicherlich interessant sein, ob sich solche Zellen aus Fusionen in Tiermodellen einsetzen lassen. Aber wie beim Klonen müssen wir die Qualität der DNA im Auge behalten. Daher favorisieren wir momentan Nabelschnurblut, das in viel geringerem Umfang als andere Zellen schädigenden Ereignissen ausgesetzt wurde. Unsere Idee ist es, eine Bank von Nabelschnurblut in eine Bank von pluripotenten Zellen umzuwandeln. Es wäre ein Traum, wenn eine solche Bank von Alleskönnern therapeutisch nutzbar wäre, weil man so sehr vielen Menschen helfen könnte. Die bei der Fusion entstehenden Zellen haben doppelt so viele Chromosomen wie normale Körperzellen, 92 statt 46. Kann das nicht zu Problemen führen?
Eine Reihe von Experimenten lassen darauf schließen, dass solche fusionierten Zellen mit einem doppelten Chromosomensatz sich in Bezug auf ihre Pluripotenz ähnlich verhalten wie embryonale Stammzellen. Doppelte Chromosomensätze sorgen wahrscheinlich für mindestens zwei Gefahren, nämlich Abstoßung und Tumore. Daher ist es notwendig, den Chromosomensatz der Zelle, mit der man reprogrammiert hat, zu entfernen. Wir arbeiten im Moment an einer Lösung, zunächst mit Mäusezellen.
Fusion von Körperzellen und embryonalen
162
Stammzellen. Können dabei ähnliche Effekte
Wie bewerten Sie die gegenwärtige deut-
auftreten?
sche Rechtsprechung im Bereich Stammzell-
Wir versuchen mit den Fusionsexperimenten Faktoren in den embryonalen Stammzellen zu identifizieren, die das Programm der erwachsenen Körperzellen verjüngen. Im Magazin
forschung? Fühlen Sie sich dadurch in ihrer Forschung behindert?
Die Gesetzeslage in Deutschland erlaubt zurzeit keine Forschung an humanen embry-
ZELLEN, GENE, DNA
onalen Stammzellen aus Zelllinien, die nach dem 1. Januar 2002 gewonnen wurden. Diese Stichtagsregelung könnte zu verfälschten Ergebnissen führen, weil die „alten“ Zellen verunreinigt und mutiert sind. Für viele Aspekte der Grundlagenforschung mögen zwar embryonale Stammzelllinien ausreichen, die schon ein paar Jahre alt sind. Bei der Entwicklung von Therapien benötigt man jedoch exzellente humane embryonale Stammzellen. Sonst kann man bei Fehlversuchen nicht ausschließen, ob es an der Handhabung oder an dem Alter der kultivierten Zellen liegt. Eine solche Ungewissheit könnte auftreten, wenn beispielsweise ein Affe nach Transplantation menschlicher Zellen, die von humanen embryonalen Stammzellen stammen, einen Tumor bekommt. Es ist aber auch so, dass Forscher in Deutschland durch die gegenwärtige deutsche Rechtsprechung behindert werden, mit anderen europäischen Gruppen zusammen zu arbeiten. Das macht Deutschland als Forschungsstandort ausgesprochen unattraktiv. Die Stichtagsregelung behindert daher gute Forschung an und mit embryonalen Stammzellen und isoliert Deutschland als Forschungsstandort.
Welche rechtliche Regelung würden Sie sich wünschen?
Ich wünsche mir eine Änderung der Stichtagsregelung. Ideal wäre eine Abschaffung. Deutsche Forscher sollten aber wohl auch mit einem nachlaufenden, sich verändernden Stichtag international wettbewerbsfähig sein und mit anderen europäischen Gruppen arbeiten können. Eine veränderte Stichtagsregelung sollte auch dazu führen, dass deutsche Forscher straffrei bleiben, wenn sie an europäischen Forschungsverbünden mitarbeiten, die mit deutschem Geld gefördert werden. Wann glauben Sie, wird es erste Therapien mit „Ersatzzellen“ oder „-geweben“ auf Stammzellbasis geben? Welche Krankheiten sind für Sie da die aussichtsreichsten Kandidaten?
Stammzellen werden aller Wahrscheinlichkeit nach zuerst therapierend eingesetzt werden können bei Erkrankungen, bei denen eine bestimmte Funktion oder bestimmte Zellen verloren gegangen sind. Das sind z.B. die Parkinsonsche Krankheit, vielleicht auch Querschnittslähmungen. Mit Erfolgen bei solchen Erkrankungen rechnet man in mittelfristiger Zukunft. Von der Nachzucht ganzer Organe sind wir aber noch sehr weit entfernt.
Somatischer Kerntransfer: Der Kern einer Körperzelle wird in eine Eizelle injiziert. © Max-Planck-Institut für molekulare Biomedizin
163
Durch ein Labyrinth aus Linsen und Blenden verfolgt der Wissenschaftler Marcus Dyba den Laserstrahl. © Max-Planck-Institut für biophysikalische Chemie
Moleküle im Visier Die Zellbiologie ist bunt geworden: Durch die Entwicklung neuer fluoreszierender Substanzen, die spezifisch an jene Moleküle binden, die an Schlüsselprozessen des Stoffwechsels beteiligt sind, können Forscher heute in den verschiedenen Geweben von Organismen nicht mehr nur die morphologischen Strukturen, sondern erstmals auch gezielt bestimmte Stoffwechselvorgänge und sogar Moleküle beobachten. Mit dem „molekularen Imaging“ erfahren sie nicht nur, wo in einem Organ etwas passiert, sondern auch, was dort geschieht und welche Substanzen beteiligt sind. Langfristiges Ziel dieser Forschungen ist es, Marker zukünftig sogar zu therapeutischen Zwecken einzusetzen – indem sie Wirkstoffe zielgenau
164
zu bestimmten Molekülen oder Zellen transportieren. Darüber hinaus sind in letzter Zeit aber auch die Verfahren der Bildgebung und Mikroskopie entscheidend erweitert und verbessert worden. Neue Techniken, Detektoren und Sensoren erhöhen die Empfindlichkeit
ZELLEN, GENE, DNA
Effekt STED-Strahl
Effekt Anregungsstrahl
Linse Detektor 200nm
AnregungsStrahl
STED-Strahl
resultierender Fluoreszenz-Bereich <20nm
Prinzip der STED-Mikroskopie Der blaue Anregungsstrahl wird mithilfe eines Spiegels in das Objektiv gelenkt und zu einem Spot von rund 200 Nanometer Durchmesser fokussiert. Er regt Fluoreszenz-Markermoleküle in der Probe an. Das von diesen abgestrahlte Fluoreszenzlicht (grün) wird vom selben Objektiv aufgefangen und im Detektor registriert. Der ringförmige zweite Strahl (STED Strahl, orange eingezeichnet) regt die angeregten Fluoreszenzmarker ab, bevor sie Fluoreszenzlicht emittieren. Das Ergebnis ist ein effektiver Fluoreszenzspot (grün), der hier auf etwa 66 Nanometer im Durchmesser reduziert ist.
der Geräte so weit, dass die Wissenschaftler Zielstrukturen und -prozesse immer genauer lokalisieren und beobachten können. Völlig neue Perspektiven eröffnet beispielsweise eine am Max-Planck-Institut für biophysikalische Chemie in Göttingen entwickelte Methode. Sie basiert auf einem der wichtigsten Hilfsmittel zur Erkennung funktionaler Wirkungszusammenhänge in biologischen Geweben, der Fluoreszenzmikroskopie.
Renaissance der Fluoreszenz Sie galt lange als ausgereizt und für höhere Auflösungen ungeeignet: die Lichtmikroskopie. Strukturen, die weniger als 200 Nanometer auseinander liegen, so die seit rund 130 Jahren unangefochtene Lehrmei-
Nanostrukturen in fluoreszenzgefärbtem Photolack (PMMA) mit herkömmlicher Auflösung und mit STED aufgenommen. © Max-PlanckInstitut für biophysikalische Chemie
nung, könnten unter dem Lichtmikroskop nicht scharf voneinander getrennt werden. Ein im Lichtstrahl fluoreszierender Marker erscheint daher als unscharfer Fleck, sobald er die kritische Größe unterschreitet. Doch Stefan Hell und seine Mitarbeiter am Max-Planck-Institut für biophysikalische Chemie ließen sich davon nicht abschrecken: Sie suchten nach einer Möglichkeit, um einzelne Moleküle, beispielsweise Proteine, mittels Fluoreszenzmarkern in den Feinstrukturen des Gewebes sichtbar zu machen. Das Elektronenmikroskop – das ja eine höhere Auflösung liefert – kam dafür nicht in Frage, da es nur wenige Mikrometer tief in eine Probe eindringt und auch Fluoreszenz nicht sichtbar machen kann. Also musste die Auflösung der Lichtmikroskopie erhöht werden – trotz der scheinbaren Unmöglichkeit.
165
Näher dran durch gezieltes „Abregen“
Mit der Stimulated Emission Depletion Mikroskopie (STED) gelang den Wissenschaftlern tatsächlich der Durchbruch. Dabei verwendeten sie zusätzlich zum energiereichen Lichtstrahl, der für die Anregung der Fluoreszenzmarker sorgt, einen zweiten Strahl, der die angeregten Fluoreszenzmarker wieder abregt, bevor sie Fluoreszenzlicht emittieren. Der Trick, um die höhere Auflösung zu erreichen, bestand nun darin, diesen zweiten, eigentlichen STED-Strahl ringförmig über den ersten zu legen. Dadurch wurden vor allem Marker aus dem Außenbereich des ersten Strahls abgeregt und die Fläche des Fluoreszenzflecks verkleinerte sich. Auf diese Weise erreichten die Forscher eine Auflösung von unter 20 Nanometer – und unterboten damit die vermeintliche Auflösungsgrenze der Lichtmikroskopie um mehr als das Zehnfache. Nervenzellen als erste Objekte
Oben: Aufnahme synaptischer Vesikel mittels konfokaler Mikroskopie. Unten: STED-Aufnahme © Max-Planck-Institut für biophysikalische Chemie
Mit dem STED-Mikroskop konnten die Forscher im April 2006 erstmals das Geschehen an neuronalen Synapsen, den Kontaktstellen zwischen zwei Nervenzellen, genauer untersuchen. Hier wird Information in Form chemischer Botenstoffe von einer Nervenzelle zur anderen übertragen. Winzige flüssigkeitsgefüllte Membranbläschen transportieren die Botenstoffe zur Synapse, wo sie ihren Inhalt ausschütten, indem sie mit der synaptischen Membran verschmelzen. Die Aufnahmen enthüllten die komplexe Logistik an der Synapse und gaben damit einen bisher unerreichten Einblick in den Feinstoffwechsel des Gehirns. Tatsächlich werden die Vesikel nämlich nicht überall an einer Synapse gleich wahrscheinlich ausgeschüttet, sondern bevorzugt an so genannten „aktiven Zonen“. Bestimmte Proteine spielen bei der Formierung dieser aktiven Zonen eine entscheidende Rolle – sie ermöglichen eine Anordnung von Kalziumkanälen und Vesikeln in räumlicher Nähe und so eine effiziente Freisetzung der Botenstoffe. Die Grenze ist das Molekül
Die Forscher wissen, dass sie die Auflösung ihres STED-Mikroskops noch um ein Vielfaches steigern können – prinzipiell bis auf molekulare Schärfe. Die STED-Mikroskopie scheint also ein neues Kapitel in der Mikroskopie aufzuschlagen, in dem grundlegende Fragestellungen der Zellbiologie auf der Nanoskala auch oder gerade mit fokussiertem Licht gelöst werden können. Der Mikroskophersteller Leica wird das erste Mikroskop mit STED-Technologie 2007 auf den Markt bringen. Ein Vorgängermodell – das 4Pi Mikroskop – hat im Januar 2006 bereits den „Innovationspreis der Deutschen Wirtschaft“ erhalten.
166
Rechts: Feinjustierung am Prototyp: die STED-Mikroskopie ist immer noch Handarbeit. © Laif-Ronald Frommann
ZELLEN, GENE, DNA
Wissen hoch 12: Welchen Vorteil hat die Lichtmikroskopie gegenüber anderen bildgebenden Verfahren?
Mit fokussiertem Licht – und nur damit – kann man Bilder aus dem Innern der Zelle berührungslos aufnehmen, und das in 3D. Außerdem ist Licht, wenn es nicht zu intensiv ist, für die Zelle harmlos. Und noch wichtiger ist, dass man sich der Fluoreszenzmarkierung bedienen kann. Man kann nämlich das Protein, über dessen Verteilung in der Zelle man etwas wissen will, durch eine Farbe kenntlich machen und dann spezifisch sehen, obwohl zehntausende anderer Proteinarten darum herum sind. Die Kombination von Spezifizität, Effizienz und Probenverträglichkeit ist einmalig. Das kann kein anderes Verfahren bieten. Nur an der Bildschärfe haperte es bisher... Wo sehen Sie die Haupteinsatzgebiete der STED? Welche neuen Erkenntnisse erhoffen Sie sich?
In der Zell- und Neurobiologie. Und ganz allgemein in der medizinischen Grundlagenforschung auf zellulärer Ebene. Außerhalb der Forschung sehe ich Anwendungsgebiete in der Pathologie. Aber auch das Betrachten fluoreszenzmarkierter Nanostrukturen in den Materialwissenschaften kann sehr wichtig werden. Unter bestimmten Bedingungen kann man das STED-Mikroskop auch dazu nutzen, die immer kleiner werdenden litho-
grafischen Strukturen zu inspizieren, die bei der Computerchip-Herstellung anfallen. Bisher nimmt man das Elektronenmikroskop, was den Produktionsprozess an dieser Stelle aufwändig macht.
Interview
Wo liegen die Grenzen der STED-Mikroskopie? Was kann sie nicht?
Sie kann keine ungefärbten Strukturen betrachten. Man braucht nun mal Fluoreszenz oder eine ähnliche Markierung. Das ist aber nicht tragisch, weil die Fluoreszenzmarkierung sowieso gebraucht wird, um Proteine selektiv zu sehen. Wie lässt sich die STED-Technologie noch verbessern? Woran arbeiten Sie gerade?
Schnellere Bildaufnahme. Und man wird sie mit immer kompakteren und damit preisgünstigeren Lasern durchführen können. Außerdem arbeiten wir daran, dass man nicht nur in die Zelle, sondern auch aus tieferen Gewebestrukturen scharfe Bilder bekommt. Wo sehen Sie die absolute Auflösungsgrenze der
Prof. Stefan Hell, Direktor am MaxPlanck-Institut für biophysikalische Chemie in Göttingen. Der Physiker arbeitet seit Ende der 1980er Jahre mit Erfolg daran, die Grenzen der Auflösung in der Lichtmikroskopie immer weiter in die Nanowelt hinein zu verschieben. © Max-PlanckInstitut für biophysikalische Chemie
Lichtmikroskopie?
In der Fluoreszenzmikroskopie ist es die Größe des Markers selbst – in der Regel ein paar Nanometer. De facto sind wir mit den 1520 Nanometer, die wir bereits erreicht haben, so gut wie am Limit. Noch vor ein paar Jahren hätte man das als Wunschtraum abgetan.
167
168
PFLANZEN, TIERE, LEBENSWELTEN Alle heute auf der Erde lebenden Tiere, Pflanzen und Mikroorganismen sind das Ergebnis eines seit mehr als 4,6 Milliarden Jahren andauernden Evolutionsprozesses. Im Laufe der Zeit hat sich dabei eine enorme biologische Vielfalt entwickelt, die trotz Jahrzehnte langer intensiver Forschung noch immer Überraschungen bereithält. So entdecken Biologen regelmäßig neue Arten und stoßen in bisher unbekannte Lebensräume vor wie beispielsweise die Tiefe Biosphäre. Hier, hunderte von Metern im Meeresboden unter den Ozeanen überdauern Mikroben unter extremen Bedingungen. Welche Strategien sie zum Überleben nutzen und welchen Platz sie im Stammbaum des Lebens einnehmen, beginnen Forscher erst jetzt allmählich zu enträtseln. Auch für Pflanzenforscher sind Mikroben von besonderem Interesse, verursachen sie als Krankheitserreger doch immer wieder enorme Ernteschäden. Mit der Analyse der molekularen Bausteine der pflanzlichen Immunität wollen die Forscher die Grundlage für eine rationale Pflanzenzüchtung legen. Dass Pflanzen zu Verteidigungszwecken auch Duftstoffe produzieren, um damit die Fraßfeinde beispielsweise von Raupen anzulocken, ist das Ergebnis jüngerer Forschungen.
Auch Pflanzen können sich wehren
170
Tiefe Biosphäre – wimmelndes Leben unter dem Meer
176
Das Riesenbakterium Thiomargarita namibiensis wurde erst 1999 im Sediment vor der Küste Namibias entdeckt. Mit bis zu 0,75 Millimetern Durchmesser ist es der größte bekannte prokaryotische Einzeller. © MPI für marine Mikrobiologie
169
Auch Pflanzen können sich wehren „Bäume, so scheint es seit neuestem, kommunizieren und werden ängstlich, wenn die Kettensäge kommt“ – an diesem Ausspruch des amerikanischen Schriftstellers John Updike ist tatsächlich etwas Wahres dran: Bereits in den 1980er-Jahren fanden Wissenschaftler erste Hinweise, dass attackierte Pflanzen mittels spezifischer Duftbotschaften benachbarte, gesunde Pflanzen alarmieren und vorbeugend in Verteidigungshaltung versetzen können. TabakschwärmerLarven befallen Wilden Tabak © Max-PlanckInstitut für chemische Ökologie, Danny Keßler
170
Eine solche Abwehrstrategie ist durchaus sinnvoll, denn Pflanzen wurzeln in der Erde und können von daher nicht weglaufen. An Fraßfeinden mangelt es ihnen jedoch nicht: Rund 300.000 Pflanzen fressende Insektenarten gibt es weltweit. Hinzu kommen zahlreiche Pilze, Viren und Bakterien sowie eine – vergleichsweise bescheidene – Zahl von etwa 5.000 Pflanzen fressenden Säugern. Im Laufe der Evolution haben Pflanzen deshalb zahlreiche unterschiedliche Strategien entwickelt, um sich zu schützen. Dazu gehören mechanische Verteidigungsmittel wie Dornen, Stacheln oder Brennhaare, klebrige Substanzen oder auch der Einsatz von Giften, die zum Teil sogar für den Menschen gefährlich sind. Dass beispielsweise die Früchte des Gefleckten Schierlings (Conium maculatum) ein gefährliches Nervengift (Coniin) enthalten, war schon in der Antike bekannt. Daraus wurde der so genannte Schierlingsbecher zubereitet. Prominentestes Opfer war der berühmte griechische Gelehrte Sokrates.
Düfte und Verdauungshemmer
Viele andere Verteidigungsstrategien haben die Wissenschaftler aus der chemischen Ökologie, einer neueren Forschungsdisziplin, dagegen erst in den vergangenen Jahren entdeckt. Dazu gehören beispielsweise verschiedene chemische Substanzen in Pflanzenzellen, die diese für Schädlinge schwer verdaulich machen oder ihr Wachstum verlangsamen. Diese chemische Abwehr wird aber in der Regel nur bei Bedarf eingeschaltet. Denn die Produktion solcher Substanzen ist für die Pflanze sehr aufwändig. Sie muss Energiereserven, Eiweiße, Zucker und Fette verbrauchen, die dann nicht mehr für andere wichtige Prozesse, wie beispielsweise die Produktion von Samen, zur Verfügung stehen. Dass Pflanzen zu Verteidigungszwecken auch Duftstoffe produzieren, um damit die Feinde ihrer Feinde zu Hilfe zu rufen, ist das Ergebnis jüngerer Forschungen, insbesondere am Max-Planck-Institut für chemische Ökologie in Jena. Die angelockten räuberi-
PFLANZEN, TIERE, LEBENSWELTEN
schen Insekten können die Pflanze sehr wirksam von unliebsamen Fraßfeinden befreien. Die Kommunikation erfolgt über flüchtige organische Substanzen, so genannte VOCs (englisch: volatile organic compounds). Allerdings ist es experimentell ausgesprochen schwierig, das Phänomen einer pflanzlichen „Sprache“ nachzuweisen. Gene und Signalketten
Tabakschwärmer bei der Arbeit © MPG
Die Forscher versuchen nicht nur in aufwändigen Freilandversuchen die Duftbotschaften zu entschlüsseln, sie möchten zudem herausfinden, welche Gene die pflanzlichen Abwehrmechanismen steuern und wie diese Gene reguliert werden. Die Ökologen sind aber auch den Signalketten auf der Spur, die in den verschiedenen Pflanzen zur Produktion von Giftstoffen oder Duftbotschaften führen. Sie prüfen darüber hinaus, ob die Wahrnehmung und Verarbeitung dieser durch Schädlinge induzierten pflanzlichen Signale tatsächlich eine ökologische Relevanz haben.
Wettrüsten zwischen Pflanzen und Tieren Gifte, Verdauungshemmer, rutschige Blattoberflächen: So effektiv die chemischen Methoden der Pflanzen auch sein mögen, dauerhaften Schutz vor Schädlingen bieten sie nicht. Immer wieder gibt es Tiere im jeweiligen Ökosystem, die gegen die Wirkstoffe resistent sind. Oder sie entwickeln durch Anpassung geeignete Wege, den Schutzschild der Pflanzen zu knacken. Eine solche Adaptation hat es beispielsweise bei dem als „Senfölbombe“ bezeichneten Glukosinolat-MyrosinaseSystem der Kreuzblütler gegeben. Dazu gehören zum Beispiel Rot-, Weiß- und Rosenkohl, Rettich, Radieschen oder die Ackerschmalwand Arabidopsis thaliana – ein beliebter Modellorganismus der Pflanzenforscher weltweit. Eine „explosive“ Verbindung
Die Senfölbombe besteht aus zwei Komponenten, die für sich genommen völlig harmlos sind. Dabei handelt es sich einerseits um die Senföl-Glykoside (Glukosinolate) und andererseits um Enzyme, die so genannten Myrosinasen. Diese Bestandteile werden in den Zellen der Pflanzen getrennt gelagert, damit sie nicht miteinander in Berührung kommen. Wenn allerdings Schädlinge an den Pflanzen fressen, so zerstören sie dabei die Pflanzenzellen und die Glukosinolate werden für die Myrosinasen zugänglich. Die Enzyme zerlegen die Senföl-
„Stumme“ Pflanzen helfen bei der Übersetzung von Duftbotschaften Die Wissenschaftler aus der Arbeitsgruppe von Ian Baldwin haben die biologische Aktivität bestimmter Duftbouquets überprüft. Sind durch Verwundung beziehungsweise Pflanzenfraß ausgelöste Duftbotschaften in der Lage, die Bildung von Abwehrsubstanzen – in diesem Fall Nikotin – zu verstärken, lautete die Frage der Pflanzenforscher. Um herauszufinden, welche Substanzen mögliche Botschaften vermitteln, setzten sie in ihren Experimenten nicht nur Wildtyppflanzen, sondern auch transgene Tabakpflanzen ein, die quasi geruchlich „stumm“ geschaltet waren: Ihnen fehlte ein wichtiges Enzym zur Synthese von Blattalkoholen und -aldehyden beziehungsweise ein Enzym zur Synthese der Jasmonsäure. Sie ist notwendig, um die Emission von Terpenen auszulösen. Allerdings konnten weder das vollständige Wildtyp-Duftgemisch noch die unvollständigen Gemische der gentechnisch veränderten Pflanzen die getesteten Abwehrsubstanzen beeinflussen oder deren Produktion verstärken oder beschleunigen. Deshalb begaben sich die Max-Planck-Forscher auf die Ebene der Gene – wo sie fündig wurden: Es stellte sich heraus, dass deutlich mehr Gene in der Duft-Empfängerpflanze reguliert waren, wenn sie Duftstoffgemische ohne Blattalkohole und -aldehyde (emittiert von transgenen Tabakpflanzen) empfangen hatte. Ein Teil dieser Gene war nicht mehr reguliert, wenn das unvollständige Duftstoffgemisch mit synthetischen Duftstoffen wieder vervollständigt wurde. Obwohl diese Gene keinem bestimmten Stoffwechselweg zugeordnet werden konnten, lassen die Ergebnisse den Schluss zu, dass Blattalkohole und -aldehyde offenbar eine unterdrückende Wirkung haben. Für die Wissenschaftler haben sich die gentechnisch veränderten Pflanzen somit als ein hilfreiches Werkzeug zur Erforschung der Kommunikation von Pflanzen erwiesen.
171
Glykoside in Glukose und verschiedene zum Teil hochgiftige Senföle – die Bombe „explodiert“. Eine Mahlzeit an diesen Pflanzen kann deshalb bei Insekten zu schweren Schädigungen oder sogar zum Tod führen. Die Raupen der Kohlmotte Plutella xylostella jedoch haben eine Möglichkeit gefunden, diese ausgeklügelte chemische Abwehr der Kreuzblütler auszuschalten. Wie Wissenschaftler um Jürgen Kroymann vom Max-Planck-Institut für chemische Ökologie in Jena bereits 2002 zeigen konnten, verfügen die Raupen ihrerseits über ein bestimmtes Enzym, das die Glukosinolate modifiziert, indem es eine Sulfatgruppe abspaltet. Da der übrig gebliebene Rest nicht mehr von den Myrosinasen erkannt und verarbeitet werden kann, entstehen auch keine toxischen Substanzen. Die Kohlmottenlarve „baut“ also quasi in letzter Sekunde den Zeitzünder aus der Senfölbombe aus und verhindert damit die „Explosion“. Kohlmotte Plutella xylostella auf einem Blatt von Arabidopsis thaliana © Max-Planck-Institut für chemische Ökologie
Koevolution Von Koevolution spricht man immer dann, wenn es zu einer starken wechselseitigen Beeinflussung der Entwicklung verschiedener Arten oder Organismengruppen im Laufe der Evolution kommt. Gelingt es beispielsweise einer Pflanze einen wichtigen Evolutionsschritt zu tun – etwa ein neues Gift zu produzieren – verschafft sie sich einen Selektionsvorteil: ihre Fraßfeinde müssen auf andere Nahrungsquellen ausweichen. Die Giftpflanze jedoch kann sich auf Kosten anderer Arten ungehindert ausbreiten. Sobald aber ein potenzieller Schädling im Gegenzug eine Resistenz gegen das Toxin entwickelt, ist dieser Vorsprung dahin. Im Laufe einer solchen Koevolution stellen sich nicht nur die Gleichgewichte immer wieder neu ein, es können auch neue Arten entstehen.
172
Die Evolution geht weiter
Ist damit der Wettstreit zwischen Kreuzblütlern und ihren Schädlingen um die beste Verteidigungs- beziehungsweise Anpassungsstrategie entschieden? Keineswegs, wie Kroymann und seine Kollegen im Juni 2006 verlautbarten. Denn die von ihnen untersuchte Ackerschmalwand kann nicht nur ein Senföl-Glykosid herstellen, sondern viele verschiedene. Dadurch wird eine effektive Anpassung der Fraßfeinde an den Verteidigungsmechanismus erschwert. Die so genannten MAM-Gene (MethylthioAlkylMalat-Synthase-Gene) sind mit verantwortlich für diese unterschiedlichen Glukosinolatprofile. Eine Genverdoppelung hat dabei eine wichtige Rolle gespielt. Bei Erbgutanalysen fanden die Jenaer Forscher nämlich zwei Kopien eines MAM Gens, welches bei nahe verwandten Arten nur einzeln vorkommt. Solche Genduplikate entstehen häufiger. Normalerweise verliert eine der Kopien jedoch aufgrund von Mutationen im Laufe der Zeit ihre Funktion. Biochemische Analysen ergaben aber, dass die neue MAM-Variante ihrem Träger tatsächlich einen Vorteil verschafft hat und daher positiv selektiert wurde: Sie katalysiert einen weiteren Schritt in der Glukosinolat-Biosynthese und ermöglicht der Pflanze, eine größere Vielfalt verschiedener Glukosinolate herzustellen. Die Untersuchung der MAM-Gensequenzen von Arabidopsis und
PFLANZEN, TIERE, LEBENSWELTEN
verschiedenen nahe verwandten Arten ergab noch ein anderes überraschendes Ergebnis: Die Genverdoppelung war nur die letzte in einer ganzen Kette von ähnlichen Ereignissen. Die Max-Planck-Forscher vermuten
daher, „einem grundlegenden evolutionären Mechanismus auf der Spur zu sein, der helfen könnte zu erklären, wie die nahezu unüberschaubare Vielfalt pflanzlicher Sekundärstoffe entstanden ist.“
Natürlichen Resistenzen auf der Spur Auch gegen Pilze, Bakterien oder Viren versuchen sich die Pflanzen natürlich zu wappnen. Doch gelingt es Pathogenen immer wieder, das pflanzliche Abwehrsystem zu überwinden. So sorgen sie bei Nutzpflanzen wie Weizen, Gerste oder Reis für schwere Schäden: Ungefähr ein Drittel der Welternte geht heute auf diese Weise noch immer verloren. Mit ihren Arbeiten wollen die Wissenschaftler am Max-Planck-Institut für Züchtungsforschung in Köln die Grundlagen für eine rationale Pflanzenzüchtung legen. Die Idee: Alle Gene, die zu molekularen Netzwerken verknüpft sind und einem Merkmal zugrunde liegen, sollen identifiziert werden. Die Forscher wollen die innere Logik dieser Netzwerke verstehen, indem sie die Wechselwirkungen der von den Genen kodierten Proteine in Zeit und Raum erfassen. Im Laufe der Evolution sind solche Netzwerke immer wieder verändert worden. Dabei entstehen Merkmalsvarianten. Sie eröffnen
den Forschern den Blick auf jene Netzwerk-Komponenten, die modifiziert werden können, ohne die Überlebensfähigkeit der Pflanze in ihrer Wechselwirkung mit der Umwelt zu beeinträchtigen. Ihr besonderes Augenmerk legen die Forscher dabei natürlich auf das molekulare Netzwerk für die pflanzliche Krankheitsresistenz.
Echter Mehltaupilz auf einer Gerstepflanze © Max-Planck-Institut für Züchtungsforschung / Kalda, Panstruga
Geschlossene Eintrittspforte
Einer der gefährlichsten Krankheitserreger ist der Mehltaupilz, der unter anderem verschiedene Getreidesorten befällt und nur durch den Einsatz chemischer Mittel effektiv eingedämmt werden kann. Dabei gibt es durchaus natürliche Resistenzen gegen Mehltau. Bei der Gerste hat man bereits vor rund 60 Jahren so genannte mlo-Mutanten gefunden, die sich äußerst erfolgreich gegen einen Befall durch die Pilze wehren können. Ausgelöst wird die Immunität durch das Fehlen eines Proteins in den Gerstepflanzen, das der Erreger normalerweise offenbar als Eintrittspforte benutzt. Auf mehr als der Hälfte der Gerstefelder in Mitteleuropa kommen mittlerweile Gerstesorten zum Einsatz, die diese Resistenz besitzen. Die mlo-Resistenz ist im Pflanzenreich viel weiter verbreitet als bisher gedacht. Darauf deuten jedenfalls genetische Untersuchungen der Kölner Max-Planck-Wissen-
Mit Mehltau befallenes Blatt © Max-Planck-Institut für Züchtungsforschung, Kalda, Panstruga
173
schaftler um Ralph Panstruga und Paul Schulze-Lefert an der Ackerschmalwand Arabidopsis hin. Sie entdeckten im Mai 2006 im Erbgut der Pflanze ebenfalls die Anlagen für eine solche Mehltauresistenz. Allerdings muss in Arabidopsis gleich die Bildung von drei MLO-Proteinen ausfallen, um vollen Schutz gegenüber dem Pathogen zu gewährleisten. Dieses auch als „genetische Redundanz“ bezeichnete Phänomen erklärt möglicherweise, warum mlo-Resistenz bislang noch nicht in mehr Pflanzenarten gefunden wurde. Wichtige Erkenntnisse für die Züchtungsforschung
Weil dieser Immunitätsmechanismus sowohl in einkeimblättrigen Pflanzen (Gerste) als auch in zweikeimblättrigen Pflanzen
(Arabidopsis) funktioniert, gehen die Wissenschaftler davon aus, dass der Krankheitsmechanismus der Mehltaupilze mindestens seit der phylogenetischen Aufspaltung von einund zweikeimblättrigen Pflanzen (vor circa 200 Millionen Jahren) konserviert ist. Prinzipiell sollte es daher möglich sein, mlo-resistente Mutanten in jeder höheren Pflanzenspezies zu erzeugen – vor dem Hintergrund von rund 500 weltweit verbreiteten Mehltauarten eine Aufgabe, die große Bedeutung für die Landwirtschaft besäße. Gelänge die genetische „Umprogrammierung“, wären die Züchtungsforscher ihrem Ziel, wichtige Pflanzeneigenschaften wie Krankheitsresistenz gezielt nach den Bedürfnissen des Menschen zu verändern, einen entscheidenden Schritt näher gekommen.
WAS SONST NOCH GESCHAH „Spionieren“ stärkt die Abwehr Auch für Pflanzen kann sich „Spionage“ lohnen – zumindest wenn es um die Abwehr von Fraßfeinden geht. Dies legen Freilanduntersuchungen im Great Basin Desert im US-amerikanischen Bundesstaat Utah nahe. Ökologen vom Max-Planck-Institut für chemische Ökologie untersuchten dort, ob sich die Abgabe von Duftstoffen durch den Wüstenbeifuß nach Schädlingsbefall auch auf die Verteidigungsbereitschaft von unmittelbar benachbarten Tabakpflanzen auswirkt. Ergebnis: Tabakpflanzen, die „warnende“ Signale von künstlich verwundetem Wüstenbeifuß erhalten hatten, konnten ihre eigenen Schädlinge schneller und effizienter abwehren als Artgenossen, die keine Möglichkeit hatten zu „spionieren“. Um nicht unnötig Energie und Stoffwechselprodukte zu verschwenden, verstärken die Tabakpflanzen ihre Verteidigung aber erst dann, wenn sie tatsächlich attackiert werden und nicht schon direkt nach Erhalt der Warnung. (OECOLOGIA, Februar 2006) Raupenfraß führt zu Stromausfall in Pflanzenzellen Ein deutsch-italienisches Wissenschaftlerteam unter Beteiligung des MaxPlanck-Instituts für chemische Ökologie konnte an Limabohnen zeigen, dass bei Raupenfraß die natürliche elektrische Spannung an den Membranen der betroffenen Pflanzenzellen in kürzester Zeit zusammenbricht. Anschließend verbreitet sich diese so genannte Depolarisation schnell über das gesamte Blatt. Die Messergebnisse der Forscher sprechen dafür, dass der elektrische Spannungsabfall die Reaktionsfähigkeit der Pflanzenzellen deutlich reduzieren könnte – und damit auch ihr Potenzial, auf den Insektenbefall mit Abwehrmaßnahmen zu reagieren. Unklar ist bis jetzt
174
noch, welche Substanz für die ermittelten elektrischen Effekte in den Zellen der Limabohnen verantwortlich ist. Diese wollen die Wissenschaftler um Wilhelm Boland nun in weiteren Experimenten identifizieren. (PLANT PHYSIOLOGY, März 2006) SOS – Save Our Sugars
Die Tabakpflanze Nicotiana attenuata kann sich gegen Schädlinge wehren, indem sie das Pflanzengift Nikotin produziert. Doch im Zuge der Koevolution haben einige Schädlinge Resistenzen gegen das Gift entwickelt. So zum Beispiel die Raupen des Tabakschwärmers Manduca sexta. Mithilfe radioaktiver Kohlenstoffmarkierung und gentechnisch veränderter Tabakpflanzen fanden die Wissenschaftler um Ian Baldwin vom Max-Planck-Institut für chemische Ökologie heraus, dass, sobald der Tabakschwärmer eine Tabakpflanze anknabbert, Photosyntheseprodukte vermehrt aus den Blättern zur Speicherung in die Wurzel fließen. Die Vorräte werden später eingesetzt, um mehr Früchte und Samen zu bilden. Die Pflanzen zeigen somit ein ähnliches Notfallmanagement wie Menschen und gehen in bedrohlichen Situationen sparsam mit ihren Ressourcen um. Ausgelöst wird diese Reaktion von so genannten Fettsäurekonjugaten im Speichel der Raupen. Sie sorgen dafür, dass die Expression eines bestimmten pflanzlichen Gens, GAL83, stark heruntergefahren wird. Das Produkt dieses Gens ist Teil eines Proteinkomplexes, der zum Beispiel in Säugetieren und in Hefe die optimale Verwertung von Glukose und anderen Zuckern reguliert – vor allem, wenn Energie knapp ist. (PNAS, August 2006)
PFLANZEN, TIERE, LEBENSWELTEN
Interview
Prof. Dr. Paul Schulze-Lefert ist Direktor und Wissenschaftliches Mitglied am Max-PlanckInstitut für Züchtungsforschung und beschäftigt sich unter anderem mit molekularen Mechanismen der Pathogenerkennung und der Evolution pflanzlicher Genome. © MPI für Züchtungsforschung
Wissen hoch 12: Im vergangenen Jahrzehnt hat
Sie befassen sich vor allem mit der pflanzli-
die Pflanzenbiologie eine Revolution erlebt. Mit
chen Krankheitsresistenz. Warum stehen dann
der Modellpflanze Arabidopsis und der Nutz-
bei Ihnen Fachbücher der Humanmedizin im
pflanze Reis liegen die beiden ersten vollständig
Schrank?
sequenzierten Pflanzengenome vor. Was für
Weil Pflanzen und Tiere die gleichen molekularen Bausteine einsetzen, um Selbst von Nicht-Selbst zu unterscheiden, einer fundamentalen Voraussetzung für ein funktionierendes Immunsystem jedes lebenden Organismus.
Möglichkeiten eröffnen sich damit für die Pflanzenforscher?
Damit steht erstmals ein vollständiger Genatlas von zwei Pflanzenarten zur Verfügung, die seit circa 200 Millionen Jahren getrennt voneinander leben. Dies ist Voraussetzung, um zu verstehen, wie komplexe Merkmale (beispielsweise das pflanzliche Abwehrsystem) durch Wechselwirkungen zwischen Genen gesteuert werden und wie im Laufe der Evolution durch Veränderungen dieser Wechselwirkungen Plastizität von Merkmalen entstanden ist.
Modellpflanze Arabidopsis thaliana © MPG
Sind die Hoffnungen berechtigt, dass es in den kommenden Jahren, neue und wirksamere Strategien im Pflanzenschutz geben könnte?
Ja, je besser wir die Logik des pflanzlichen Immunsystems verstehen, desto besser lassen sich rationale Stragien für einen wirksamem Pflanzenschutz entwickeln.
175
Auch bei 1.000-facher Vergrößerung sind Bakterien kaum zu entdecken (links). Mithilfe spezieller Farbstoffe (rechts) werden Bakterienkolonien im UV-Licht sichtbar. © Heribert Cypionka
Tiefe Biosphäre – wimmelndes Leben unter dem Meer Die Erde lebt – und wie: Kilometertief unter unseren Füßen hat sich trotz Dauerdunkel, unvorstellbar hohem Druck und extremen Temperaturen ein einzigartiges Ökosystem ausgebildet, die Tiefe Biosphäre. Myriaden hoch spezialisierter Mikroben leben in den Sedimenten der Ozeane, in erstarrter vulkanischer Lava und sogar im massiven Granit, dem Grundgestein des europäischen Kontinents. Allein in einem einzigen Gramm Meeressediment können sich bis zu hundert Millionen Mikroorganismen aufhalten – mehr als die gesamte Einwohnerzahl Deutschlands. Getrocknet und gewogen bringen diese Kleinstlebewesen allerdings nur wenige Mikrogramm auf die Waage. Trotzdem, so schätzt der Wissenschaftler Thomas Gold von der amerikanischen Cornell University, erreicht die Masse aller unterirdischen Lebensformen die der oberirdischen locker, sie könnte sie vielleicht sogar übertreffen. Andere Forscher schätzen die Biomasse der Tiefen Biosphäre
176
auf immerhin mindestens ein Drittel der oberirdischen. Allein in den letzten Jahren haben Mikrobiologen schon zwischen 10.000 und 15.000 verschiedene Lebensformen im „Keller der Erde“ entdeckt – und ein Ende ist nicht abzusehen. Was genau dort lebt und vor allem, wie es dort existieren kann, ist allerdings noch größtenteils unbekannt. Diese Untergrundwelt ist nach wie vor ein fast weißer Fleck auf der Landkarte unseres Planeten. Forscher zahlreicher Länder und Fachrichtungen arbeiten daher mit Hochdruck daran, sie zu erkunden.
PFLANZEN, TIERE, LEBENSWELTEN
Eine Bohrexpedition macht den Anfang
Einen Meilenstein in der systematischen Erforschung der Tiefen Biosphäre bildete eine Bohr-Expedition, die im Jahr 2002 im Rahmen des internationalen Tiefbohrprogramms ODP (Ocean Drilling Programme) stattfand. Die auf dieser Fahrt erbohrten Proben liefern bis heute faszinierende und überraschende Erkenntnisse über die Mikroben im Meeresboden. Ein internationales und interdisziplinäres Wissenschaftlerteam nahm an der Expedition vor der Küste Perus teil. An Bord des Bohrschiffs Joides Resolution befanden sich auch der in Deutschland arbeitende Wissenschaftler Bo Barker Jørgensen, Direktor am Max-PlanckInstitut für marine Mikrobiologie in Bremen, sowie Heribert Cypionka, Paläomikrobiologe an der Universität Oldenburg. Schon bei den ersten Auswertungen zeigte sich Erstaunliches: Bis zu einem halben Kilometer tief unter der Erde gab es Hinweise auf mikrobielles Leben. „Wir fanden lebende Bakterien hunderte von Metern unter dem Meeresboden“, erklärt Steven D‘Hondt, der Forschungsleiter der Expedition. „Ihre Aktivität war unerwartet vielfältig. Einige Bakterienarten, die wir aus diesen Sedimenten bargen, waren bisher völlig unbekannt. Andere Arten scheinen in der gesamten unterirdischen Welt verbreitet zu sein.“
Die „JOIDES Resolution“ in Valparaiso, Chile. Das Schiff ist mit einem 63 Meter hohen Bohrturm und spezieller Technik ausgestattet, die es ermöglicht, Proben mehrere hundert Meter tief im Sediment zu gewinnen. © Heribert Cypionka
Methanschwund im Sediment
Bei der späteren Untersuchung der Bohrproben an Land im MaxPlanck-Institut für marine Mikrobiologie in Bremen stießen Jørgensen und seine Mitarbeiter im Sommer 2005 auf etwas Ungewöhnliches: Eine Zone zwischen 30 und 90 Metern unter dem Meeresboden unterschied sich deutlich vom restlichen Sediment. Sie enthielt bis in eine Tiefe von etwa 75 Metern sehr viel Methan. Diese organische Verbindung ist normalerweise gasförmig, wird unter hohem Druck und
Die Entdeckung der Tiefen Biosphäre Den ersten Hinweis auf Leben tief unter der Erdoberfläche entdeckten 1985 Forscher des amerikanischen Energieministeriums. Frank Wobber und seine Kollegen waren auf der Suche nach geeigneten Standorten für Giftmülllagerung und führten dazu Bohrungen im Untergrund South Carolinas durch. Spezielle Abdichtungen schützten dabei die erbohrten Proben vor Verunreinigungen von der Oberfläche. Als die Forscher ihre Proben anschließend im Labor untersuchten, trauten sie ihren Augen kaum: Was sie dort unter dem Mikroskop sahen, waren eindeutig lebende Bakterien – und diese mussten aus 500 Metern Tiefe stammen, denn eine Kontamination war so gut wie ausgeschlossen. Noch niemals zuvor hatte man einen so eindeutigen Beleg für Leben in dieser Tiefe gefunden. Wenig später wiesen Forscher des internationalen Tiefbohrprogramms erstmals auch in tiefen Meeressedimenten mikrobielle Aktivität nach. © ODP
177
Brennendes Methanhydrat © Pacific Northwest National Laboratory
niedrigen Temperaturen aber zu Methanhydrat, einer Art Methaneis. Unterhalb dieser Methanschicht, so entdeckten die Forscher, nahmen die Bakterienzahlen rapide zu, gleichzeitig verschwand das Methan fast vollständig. Aber wohin? Die Schlussfolgerung war nahe liegend: Die Mikroben mussten die organische Verbindung durch anaerobe Oxidation abgebaut haben. Ein solcher Prozess war zwar schon zuvor bekannt gewesen, hier aber hatten die Wissenschaftler die Mikroben buchstäblich „auf frischer Tat“ ertappt. Ganz offensichtlich war aber nicht nur eine einzige Bakterienart verantwortlich, sondern eine arbeitsteilige Gemeinschaft aus verschiedenen Mikroorganismen: Einige reduzieren Sulfat, andere produzieren aus Wasserstoff und Kohlendioxid Methan, wieder andere gewinnen ihre Energie aus der Umsetzung von Wasserstoff mit anorganischen Kohlenstoffverbindungen zu Essigsäure. Auch Eisen- und Manganverbindungen werden reduziert und „ausgebeutet“. Ein See aus flüssigem CO2
Tauchschiff Shinkai 6500 (JAMSTEC) © MPG
178
Im Sommer 2006 entdeckte ein internationales Forscherteam um Fumio Inagaki von JAMSTEC, der japanischen Agentur für marine Geowissenschaften und Technologie, und ihre Kollegen vom Bremer Max-PlanckInstitut für marine Mikrobiologie vor der Ostküste Taiwans ein weiteres Beispiel für die erstaunlichen Anpassungen der Sedimentbewohner: In 1.300 Metern Tiefe, unter einem natürlichen See aus flüssigem Kohlendioxid, stieß das Tauchboot Shinkai 6500 überraschenderweise auf mikro-
bielle Lebensformen. Normalerweise ist Kohlendioxid in flüssiger Form extrem giftig. Es wirkt als starkes Lösemittel und zersetzt nahezu alles organische Material. Doch die Bakterien konnten diese Kohlenstoffquelle offenbar anzapfen, ohne dabei Schaden zu nehmen. Für das Forscherteam ist der Fund dieses extremen Habitats ein echter Glücksfall, denn jetzt können sie die Auswirkungen von flüssigem Kohlendioxid auf das Tiefseeökosystem genau studieren. Max-Planck-Forscherin Antje Boetius ist begeistert: „Als Wissenschaftler denkt man immer, man hätte schon alles gesehen, und dann findet man durch Zufall dieses Wunder in der Tiefsee.“ Physiologische Trickkiste im Visier
Doch für die Forscherin und ihre Kollegen beginnt der wichtigste Teil der Arbeit erst lange nachdem die Bohrkerne gehoben wurden: bei der Untersuchung der „Extremisten“ im Labor. Hier geht es um die spannende Frage, mit welchen physiologischen Tricks sich die Mikroben in der lebensfeindlichen Umwelt des tiefen Meeresbodens behaupten. Denn über ihre Anpassungsstrategien ist bisher kaum etwas bekannt. „Wir wissen fast nichts über die Populationsstrukturen, die Stoffwechselstrategien, die Zusammensetzung der Lebensgemeinschaften oder die globalen biogeochemischen Einflüsse der Tiefen Biosphäre“, erklärt der ODP-Wissenschaftler D‘Hondt. Hungerkünstler im Labor
Da die Wissenschaftler nicht in die Tiefen des Sediments tauchen können, um dort umfangreiche Vor-Ort-Studien zu betreiben, müssen sie sich die „Akteure“ ins Labor holen. Doch genau hier beginnt das Problem. Denn die speziellen Anforderungen und Lebensweisen der Mikroben machen ihre Kultivierung zu einer fast unlösbaren Aufgabe. Es
PFLANZEN, TIERE, LEBENSWELTEN
genügt nicht, ihnen ein Milieu zu bieten, das dem in mehreren hundert Metern Sedimenttiefe entspricht, und dann einfach mikrobiologische Standardmethoden einzusetzen. Zum einen sind die normalen Nährmedien viel zu reichhaltig für diese Extremisten unter den Bakterien. „Klar ist, dass es sich bei diesen Organismen um ausgesprochene Hungerkünstler handelt“, erklärt Heribert Cypionka. Selbst in extrem verdünnten Kulturen treten daher immer wieder aufgeblähte, quasi überfütterte Mikroben auf, viele überleben nicht. „Leben in Zeitlupe“ erschwert Erforschung
Die Anpassung an knappe Nahrung bringt ein weiteres Problem mit sich: Die Mikroben aus der Tiefe leben in Zeitlupe. Sie wachsen so langsam, dass unter dem Mikroskop noch nicht einmal zu erkennen ist, ob sie leben oder längst tot sind. Für einige Populationen ermittelten die Wissenschaftler Generationszeiten von Jahrhunderten bis Jahrtausenden. Im Vergleich dazu leben oberirdische Einzeller geradezu im Zeitraffer: Viele von ihnen, wie beispielsweise unsere Darmbakterien, teilen sich alle zwanzig Minuten. Und noch eine Hürde gibt es: In den meisten Proben aus der Tiefe sind die Bakteriendichten sehr gering. Kombiniert mit der niedrigen Teilungsrate bedeutet dies für die Wissenschaftler, dass sie die für viele Laboruntersuchungen nötigen hohen Zellzahlen kaum erreichen. Dies betrifft auch die molekularbiologischen und genetischen Analysen, die wichtige Aufschlüsse über Verwandtschaftsverhältnisse, aber auch über Stoffwechselstrategien bisher unbekannter Arten geben können.
Leben ohne Sauerstoff Schon wenige Zentimeter unter der Oberfläche geht den Organismen im Sediment der Sauerstoff aus. Normalerweise sorgt dieses Gas dafür, dass energiereiche organische Verbindungen chemisch verbrannt und damit zur Energiegewinnung genutzt werden können. Bakterien der Tiefen Biosphäre müssen jedoch ohne Sauerstoff auskommen, sie sind so genannte Anaerobier. Ihre Lebensenergie beziehen sie aus alternativen chemischen Prozessen, indem sie beispielsweise Methan auf- und abbauen oder Sulfat zehren. Bild: Kieselalgenschalen (links) und Plankton (rechts), gefunden in Sedimentproben © Heribert Cypionka
Enzym statt Farbstoff
Die Mikrobiologen am Bremer Max-Planck-Institut, aber auch ihre Kollegen weltweit arbeiten daher daran, neue, für diese Spezialisten geeignete Kultur- und Analysemethoden zu entwickeln. Und erste Erfolge gibt es bereits. So gelang es den Max-Planck-Forschern im Sommer 2005, die so genannte CARD-FISH-Technik zu modifizieren und erstmals bei Bakterien aus marinen Sedimenten anzuwenden. Bei diesem Verfahren wird die Genaktivität einer Zelle nicht über einen Fluoreszenzfarbstoff bestimmt, sondern über ein Enzym. Dieses erzeugt ein tausend Mal stärkeres Farbsignal als der Farbstoff und macht so selbst kleinste Spuren von markierter RNA sichtbar.
Einige Bohrkerne gasen giftigen Schwefelwasserstoff aus, deshalb müssen die Mikrobiologen bei der Präparation Gasmasken tragen. © Max-Planck-Institut für marine Mikrobiologie
...und sie leben doch
Mithilfe dieses Verfahrens schafften es die Forscher zum ersten Mal, gezielt ribosomale RNA in Bakterien aus den Bohrkernen der ODPExpedition des Jahres 2002 nachzuweisen. Da diese Form der RNA nur in lebenden Zellen vorkommt, konnten sie damit erstmals eindeutig belegen, dass immerhin zehn bis 30 Prozent der aus dem Sediment
179
geborgenen Mikroorganismen nicht tot, sondern tatsächlich lebendig waren. Dies galt sogar für mehr als 16 Millionen Jahre alte Proben aus 400 Meter Tiefe unter dem Meeresboden.
Wissen hoch 12: Was war für Sie die größte Überraschung bei der Untersuchung mariner Sedimente und ihrer Lebenswelt? Wo haben die Bewohner der Tiefe Sie verblüfft?
Bakterien dominieren über „primitive“ Verwandte
Und noch ein Geheimnis konnten Axel Schippers, Bo Barker Jørgensen und ihre Kollegen den Bewohnern der Tiefen Biosphäre entlocken: ihre Zugehörigkeit zu den Großgruppen des Einzellerreichs. Dafür extrahierten sie die ribosomale RNA der Mikroben und vermehrten die Genbruchstücke mithilfe der PCR-Technik. Die anschließende quantitative Auswertung bestimmter Genkopien ergab eindeutig, dass die prokayotischen Mikroben, die Bacteria, gegenüber den urtümlichen Archaea dominierten. Doch noch längst sind nicht alle Fragen zu den rätselhaften Bewohnern der „unterirdischen Welt“ geklärt. Neue Funde warten darauf, genetisch und physiologisch untersucht zu werden, und jede neue Entdeckung wirft weitere Fragen auf. Die Wissenschaftler um Fumio Inagaki wollen in naher Zukunft eine weitere Forschungsfahrt zu „ihrem“ CO2-See unternehmen und dort erstmals versuchen, die physikalischen, chemischen und biologischen Auswirkungen des Kohlendioxids direkt am Meeresboden zu erkunden. Und auch die Max-Planck-Forscher Jørgensen und Boetius sehen noch erheblichen Forschungsbedarf: „Wir wollen verstehen, wie Leben unter diesen Extrembedingungen funktionieren kann und wo seine Grenzen sind. Immerhin steckt in der Tiefen Biosphäre fast ein Drittel aller Biomasse weltweit, und wir wissen bisher noch viel zu wenig über dieses Leben.“
Anfang dieses Jahres haben wir mit dem Forschungsschiff METEOR und dem Tiefseeroboter QUEST der Uni Bremen ein neu entdecktes Tiefsee-Ökosystem im südlichen Golf von Mexiko erkundet. Dort gibt es Hügelsysteme in 3.000 Metern Wassertiefe, aus denen Asphalt und Erdöl läuft. Das hört sich nach Umweltverschmutzung an, ist aber ein natürlicher Vorgang, der vor allem von sulfatreduzierenden Bakterien sowie von einigen speziellen Tieren als Lebensraum und Energiequelle genutzt wird. An einigen Stellen haben wir wunderschöne Korallenriffe und Muschelbetten entdeckt, die auf dem Tiefseeasphalt angewachsen sind. Da staunt man doch, wenn man erkennt, wie die merkwürdigsten Nischen im Meer durch hoch angepasste Organismen besiedelt werden, und wie Mikroorganismen als Primärproduzenten auch ohne Licht Ökosysteme von großer Biomasse und Lebensvielfalt unterhalten. Sie haben Bakterien selbst am Rand eines Sees aus giftigem Kohlendioxid im Ozean
Mit FISH auf DNA-Fang
gefunden. Wie schaffen es diese Bakterien,
FISH steht für „Fluorescence in situ hybridisation“ und ist ein Verfahren zur gezielten Identifikation bestimmter RNAAbschnitte in Zellen. Erst seit 1989 wird diese gentechnische Methode auch in der mikrobiellen Ökologie angewandt. Für das Verfahren müssen die Zellen zunächst in einem möglichst natürlichen Zustand konserviert werden. Dann wird ein sehr kurzes, einstrangiges Stück Nukleinsäure mit nur wenigen Basenpaaren mit einem fluoreszierenden Marker versehen. Diese markierte „Sonde“ wird unter die Zellen gemischt. Passt die Basenabfolge zu einer Gensequenz auf der ribosomalen RNA der Zellen, lagert sie sich an und beginnt zu fluoreszieren. Dieses Leuchten ist unter dem Mikroskop erkennbar. Da viele Genabschnitte der ribosomalen RNA verschiedener Mikrobengruppen inzwischen bekannt sind, kann ihre gezielte Markierung Auskunft über Verwandtschaftsverhältnisse geben. Bild: Zu sehen sind nicht mit FISH, sondern mit herkömmlichen Verfahren DNA-markierte, sporenbildende Bakterien, gefunden in Proben der Bohrfahrt Leg 201. © Max-Planck-Institut für marine Mikrobiologie
dort zu überleben?
180
Wir hatten dieses Jahr das große Glück einen hervorragenden japanischen Wissenschaftler als Humboldtstipendiat zu beherbergen, der uns an seiner höchst interessanten Forschung an einem natürlichen Kohlendioxid-See in der japanischen Tiefsee beteiligt hat. Auch wenn zurzeit viel von Ideen zu hören ist, das Treibhausgas Kohlendioxid, von dem wir zuviel in der Atmosphäre haben, in der Tiefsee zu versenken, so kennt niemand die Konsequenzen für das Leben im Meer. Wir konnten zwar eine Reihe von Bakterien und Archaea am Rande
PFLANZEN, TIERE, LEBENSWELTEN
des Kohlendioxidsees finden, von denen viele von den aufsteigenden Gasen leben, insgesamt war aber die Anzahl der Zellen und auch das Vorkommen von anderen Lebewesen stark eingeschränkt – vermutlich wegen des niedrigen pH-Werts.
beiten und Forschungsberichten an, sondern lassen sich nur in Jahre langem Forschungseinsatz entschlüsseln.
Interview
Was haben Sie im letzten Jahr Neues über die Überlebensstrategien der Bewohner der Tiefen Biosphäre erfahren? Gab es Durchbrüche im
Es gibt offenbar Mikroorganismen selbst noch
Labor? Neue methodische Entwicklungen?
viele hundert Meter tief im Sediment. Wie sind
Es gibt fantastische neue Methoden, um Mikroorganismen in ihrer eigenen Umwelt zu untersuchen und dieses Forschungsfeld entwickelt sich derzeit sehr schnell. Man muss nur mal bedenken, mit welcher Geschwindigkeit heute die Genome von Lebewesen untersucht und verglichen werden können – noch undenkbar vor fünf Jahren. Die Tiefe Biosphäre stellt aber immer noch die härtesten Anforderungen an die Messgrenzen dieser neuen Methoden dar. Wichtige Durchbrüche sind neue Erkenntnisse, dass auch in der Tiefen Biosphäre eine hohe Vielfalt von Lebensräumen und Mikroorganismen zu finden ist, und dass wir immer besser verstehen, auch in vergangenen Zeiträumen die Spuren des Lebens nachzuvollziehen.
sie dorthin gekommen?
Mikroorganismen sind überall, sie hatten mehr Zeit als alle anderen Lebewesen der Erde sich zu verbreiten und auch die augenscheinlich schwierigsten und extremsten Lebensräume zu besiedeln. Sie haben einen besonderen Vorteil: Sie können auf Sparflamme für lange Zeiträume überleben. Es gibt Spekulationen, dass die Mikroorganismen der tiefen Sedimente einmal die Oberfläche des Meeresbodens besiedelt haben und dann über Jahrtausende immer tiefer unter neuen Sedimenten begraben wurden. Die mikrobiellen Populationen können in einer Art Winterschlaf die Zeiten ohne Energie überdauern und dann kurzfristig Nahrung zum Zellerhalt und Wachstum nutzen – vielleicht über Jahrmillionen hinweg. Was sind für Sie die größten Schwierigkeiten,
Prof. Dr. Antje Boetius, Leiterin der Forschungsgruppe Mikrobielle Habitate am Max-PlanckInstitut für marine Mikrobiologie in Bremen © MaxPlanck-Institut für marine Mikrobiologie
Sedimentprobe aus dem Meeresboden vor Peru: Einige Mikroben der Tiefen Biosphäre nutzen Eisenoxid (rötliche Verfärbung) zur Verbrennung. © Max-Planck-Institut für marine Mikrobiologie
wenn es darum geht, die gefundenen Mikroorganismen im Labor zu untersuchen?
Die nötige Geduld aufzubringen. Wenn man weiß, unter was für Bedingungen die Mikroorganismen in der Umwelt überleben, so macht es Sinn, dass sie sehr langsam wachsen. Aber unsere Laborexperimente sind normalerweise darauf ausgerichtet Ergebnisse in wenigen Wochen zu produzieren. Aber diese spannenden noch recht unbekannten Mikroorganismen, die ein Drittel der gesamten Biomasse der Erde ausmachen, passen sich leider nicht unbedingt an den Rhythmus von Doktorar-
181
182
MENSCH UND GESELLSCHAFT Geburtenrückgang, Rentnerschwemme, PISA-Schock, Arbeitslosigkeit – die Probleme, vor denen wir stehen, sind beträchtlich und nicht einfach zu lösen. Es reicht nicht, nur die Symptome zu bekämpfen. Tatsächlich müssen grundlegende neue Konzepte her, um Bildungseinrichtungen, Arbeitsmarkt oder die sozialen Sicherungssysteme bereit zu machen für die Zukunft. Investitionen in die Bildung lohnen sich. Und das gilt nicht nur für den Einzelnen – nach wie vor ist die Akademikerarbeitslosigkeit am geringsten – sondern auch für die Gesellschaft insgesamt. Trotzdem liegen die Bildungsausgaben in Deutschland unter dem OECD-Durchschnitt. Insbesondere mehr Engagement ist bei der frühkindlichen Bildung gefordert. Hier können nach Angaben der OECD „die höchsten Bildungserträge erzielt werden“. Wissenschaftler untersuchen daher, wie frühkindliche Bildungsangebote aussehen müssen, damit sie auch erfolgreich sind. In 23 von 30 OECD-Ländern werden die Schülerzahlen in den kommenden zehn Jahren zurückgehen – das ist das Resultat des demografischen Wandels. Auch in Deutschland gibt es inzwischen vielmehr ältere Menschen als Kinder und Jugendliche. Um die gesamtwirtschaftliche Leistungsfähigkeit zu erhalten, wird – so die Erkenntnis von Wissenschaftlern – eine Umverteilung von Arbeit nötig sein. Nach den Modellrechnungen der Demografen müssen vor allem die Menschen über 50 in Zukunft viel stärker ins Berufsleben eingebunden werden als bisher.
Frühkindliche Bildung – ein Weg aus der Bildungskrise?
184
Deutschland altert – eine Gesellschaft im demografischen Wandel
191
Überalterung und Kindermangel – nur zwei der Probleme moderner Industriegesellschaften © SXC
183
Lernen beginnt schon im Kindergarten © SXC
Frühkindliche Bildung – ein Weg aus der Bildungskrise? Spätestens seit der PISA-Studie ist klar: Das deutsche Bildungssystem hat in weiten Teilen versagt. Aus dem Land der Dichter und Denker scheint längst ein bildungspolitisches Entwicklungsland geworden zu sein. Neben dem geringen Leistungsvermögen der Schüler überrascht vor allem, dass in kaum einem anderen Land der Welt der Bildungsstand so stark von der sozialen Herkunft der Schüler abhängt wie bei uns. Der PISA-Schock und die Folgen
Die Lehrer sind Schuld sagen die einen. Sie sind nicht motiviert genug, nicht aufgeschlossen für neue Methoden und Inhalte und haben viel zu viel Freizeit. Aber können allein eine Erhöhung der Stundenzahl, häufigere
184
Kontrollen im Unterricht oder weniger Ferien tatsächlich den Bildungsnotstand beheben? Die Eltern haben versagt, behaupten andere und fordern, dass Vater und Mutter mehr Zeit mit ihren Sprösslingen verbringen und eine
MENSCH UND GESELLSCHAFT
PISA – kein Ende in Sicht? PISA steht für „Programme for International Student Assessment“. Diese internationale Vergleichsstudie ermittelt in drei Erhebungszyklen, 2000, 2003 und 2006, das Leistungsvermögen von 15-jährigen Schülern weltweit. Statt nur Faktenwissen abzufragen, untersucht PISA so genannte Basiskompetenzen, die für eine Teilnahme am gesellschaftlichen, wirtschaftlichen und politischen Leben eine wichtige Rolle spielen. Dazu gehören die Lesekompetenz sowie die mathematische und die naturwissenschaftliche Grundbildung der Schüler. PISA soll aber auch mögliche soziale Unterschiede im Bildungserfolg aufspüren. Mittlerweile liegen die Ergebnisse der ersten beiden PISA-Erhebungen vor, die den deutschen Studienteilnehmern allenfalls mittelmäßige oder unterdurchschnittliche Leistungen bescheinigten. Zu PISA-Siegern dagegen wurden Länder wie Finnland, Kanada oder Neuseeland.
tägliche Lese- oder Vorlesestunde einführen. Manche halten sogar einen „Tauglichkeitstest“ für werdende Eltern für angebracht. Oder ist doch das Schulsystem für die schlechten Leistungen verantwortlich? Die Überalterung der Pädagogen, der Lehrermangel? Die strenge Gliederung in Hauptschule, Realschule und Gymnasium? Die schlechte Ausstattung der Klassenräume mit Geräten und Arbeitsmaterialien – und, trotz aller Anstrengungen, auch mit neuen Medien wie Computern oder Internet?
Bei der Suche nach Wegen aus der Bildungsmisere rückt seit geraumer Zeit ein Thema immer weiter in den Mittelpunkt: die frühkindliche Bildung. Während der „Ernst des Lebens“ bisher erst mit der Einschulung im Alter von sechs Jahren begann, soll in Zukunft das Lernen bereits im Kindergarten losgehen. Doch was versteht man eigentlich genau unter frühkindlicher Bildung? Welche neurobiologischen Erkenntnisse gibt es dazu? Und schließlich: Wie könnte eine effektive Frühförderung in der Praxis aussehen?
Mehr und bessere Bildungsangebote für Kinder ab vier?
Professionelle Bildungsangebote schon im Kindergarten © MPG
Englisch lernen schon im Kindergarten? Vokabeln und das Einmaleins pauken mit Vierjährigen? Dies sind nur einige der Forderungen, die im Zuge der Bildungsdiskussion laut wurden. Vor allem seit auch neurobiologische Untersuchungsergebnisse Hinweise dafür liefern, dass Kinder schon früh gut und in manchen Bereichen sogar schneller lernen als Jugendliche oder Erwachsene. So eignen sich Kleinkinder in mehrsprachigen Familien eine Zweitsprache genauso problemlos an wie die eigentliche Muttersprache. „Aber erst mit etwa vier Jahren haben die meisten Kinder eine wichtige Voraussetzung für das Lernen entwickelt: die Fähigkeit zur
185
Perspektivübernahme“, so Elsbeth Stern vom Max-Planck-Institut für Bildungsforschung in Berlin. Erst dann bekommen die Kinder ein Bewusstsein dafür, dass es sinnvoll sein kann, jemand anderem – beispielsweise einem Erzieher, einem Lehrer oder Therapeuten – aufmerksam zuzuhören. Die Motivation: vielleicht weiß er ja doch mehr als ich selber. Quantensprung bei Vierjährigen
Spielerisch auf das Lernen vorbereiten © SXC
186
Und ein weiterer kognitiver Quantensprung vollzieht sich bei Vierjährigen. Das haben Psychologen um Daniela Kloo von der Universität Salzburg im Juli 2006 herausgefunden. Bis dahin, so die Forscher, können sich Kinder zwar gut in der Alltagswelt zurechtfinden und auch Objekte wie einen roten Apfel nach Farbe oder Form klassifizieren. Erst mit Vier aber ist der Nachwuchs so
weit zu erkennen, dass ein bestimmtes Objekt manchmal mehrere Eigenschaften gleichzeitig hat. Es kann beispielsweise sowohl ein Apfel sein als auch ein roter Gegenstand. Die Forscher um Kloo haben zudem wichtige Indizien dafür gefunden, dass in diesem Alter „entscheidende Voraussetzungen für Verhaltensweisen wie Einfühlungsvermögen, Respekt und Toleranz geschaffen werden“. Stern hält deshalb ein verpflichtendes Bildungsangebot für Kinder ab vier Jahren in speziellen Einrichtungen für sinnvoll. Aber wie könnte das genau aussehen? Eine Art Universität für Kindergartenkinder? Auswendiglernen von Buchstaben, Grammatik oder Zahlenfolgen? In Reih und Glied sitzen und zuhören? Stern sagt: „Nein, das würde nicht funktionieren, denn Kinder in diesem Alter können vom Zuhören meist noch nicht profi-
MENSCH UND GESELLSCHAFT
tieren beziehungsweise mit dem Wissen etwas anfangen. Sie sollten viel mehr vorbereitet werden auf die Dinge, die wir in unserer Wissensgesellschaft lernen müssen.“ Und die bereits in so genannten vorprogrammierten Kompetenzen im menschlichen Gehirn angelegt sind. Dazu gehören unter anderem das Erkennen von Mustern oder das Sprechen.
weiter: „Wenn ein oder zwei Mal pro Woche ein Englischlehrer in den Kindergarten geht und mit den Kindern ein paar englische Vokabeln übt, dann werden manche diese Vokabeln sicher auch hängen bleiben. Aber ob die Kinder davon wirklich bis ins Erwachsenenalter profitieren, wissen wir nicht.“ LOGIK-Studie belegt Bedeutung der
Singen und Klatschen statt Drill
Frühförderung
Nach den Erkenntnissen der Lernforschung können schon Kindergartenkinder auf simple und einfache Art auf das Lesenlernen vorbereitet werden: durch Reimen, Silben klatschen und Singen oder andere Sprechspiele. Und auch die Mathematik sollte bereits zur frühkindlichen Bildung dazugehören. Aber nicht in Form von Subtrahieren, Addieren oder Multiplizieren, sondern beispielsweise durch das Entdecken von symmetrischen Gegenständen oder Mustern im Gruppenraum. So werden grundlegende Kenntnisse geschaffen, die den Kindern später in der Grundschule auf vielfältige Weise das Lernen und Verstehen erleichtern. „Wir brauchen endlich eine professionelle Frühförderung, wir brauchen professionell strukturierte Bildungsangebote für Kinder ab vier Jahren. Nicht weil sie in diesem Alter schneller oder besser lernen als ältere Kinder, sondern weil man Kinder in diesem Alter spielerisch schon sehr gut auf das Lernen vorbereiten kann. Späteres Lernen könnte viel entspannter ausfallen als das in Deutschland bisher der Fall ist, wenn wir unsere Kinder einfach früher fördern würden“, lautet das Resümee von Stern. Und wie ist das mit Englisch im Kindergarten? Da ist Stern eher skeptisch: „Wir wissen noch nicht, ob das tatsächlich etwas bringt. Denn der instruktive Fremdsprachenunterricht, den wir alle in der Schule genossen haben, läuft natürlich ganz anders ab als der spontane Zweitsprachenerwerb.“ Und
Für Wolfgang Schneider von der Universität Würzburg ist die Frühförderung vielleicht sogar die letzte Möglichkeit, Einfluss auf die spätere Entwicklung und den Lebensweg der Kinder zu nehmen: „Mit dem Eintritt in die Schule sind Eigenschaften und Werdegang der meisten Menschen weitgehend festgelegt“, so Schneider in einem Interview der Neuen Rhein Zeitung. Schneider stützt sich bei seinen Aussagen auf die so genannte LOGIK-Studie, deren Ergebnisse im Juli 2006 unter dem Titel „Wie wir werden, was wir sind“ vorgestellt wurden. LOGIK steht dabei für „Longitudinalstudie zur Genese individueller Kompetenzen“. Im Rahmen dieser einzigartigen Längsschnittstudie wurden von 1984 an damals Drei- bis Vierjährige über einen Zeitraum von 20 Jahren von Wissenschaftlern des ehemaligen MaxPlanck-Instituts für psychologische Forschung begleitet und untersucht. Deutsch und Mathe im Mittelpunkt
Dabei wollten die Forscher herausfinden, wann stabile individuelle Unterschiede in den motorischen, intellektuellen und sozialen Fähigkeiten sowie in der Persönlichkeit von Kindern sichtbar werden. Wie die Ergebnisse belegen, bietet vor allem das Alter von vier bis sechs Jahren große Chancen etwas zum Guten zu bewegen. „Wir müssen die frühe Phase des Lebens sehr viel ernster nehmen. Die Jahre vor der Schule sind die prägendsten für die Entwick-
Mit Eintritt in die Schule ist der Werdegang weitgehend festgelegt © Dieter Lohmann
187
Was Hänschen nicht lernt... Neue Erkenntnisse aus der Gehirnforschung, die mithilfe von bildgebenden Verfahren wie der funktionellen Magnetresonanztomografie (fMRT) oder der Positronen-Emissions-Tomografie (PET) gewonnen wurden, scheinen die Möglichkeiten der frühkindlichen Bildung zu bestätigen. So konnten die Wissenschaftler beispielsweise zeigen, dass Kinder in vielen Bereichen tatsächlich schneller lernen als Erwachsene und dass Lernen im jungen, unerfahrenen Gehirn deutlichere und dauerhaftere Spuren hinterlässt. Auch dass Lernen je nach Alter anders funktioniert und dass jeder Lernerfolg zu einem Glücksgefühl führt, das von körpereigenen Botenstoffen wie Dopamin ausgelöst wird, ist erst seit kurzem bekannt. Ob die Resultate der Neurobiologen, die fast ausschließlich aus Tierversuchen stammen, tatsächlich eins zu eins auf den Menschen übertragbar sind, kann getrost bezweifelt werden.
lung eines Menschen. Hier müssen wir Defizite erkennen, hier muss die Förderung einsetzen“, bringt Schneider in der ZEIT vom 13. Juli 2006 die Ergebnisse der LOGIK-Studie auf den Punkt. Wer mit sieben Jahren mehr Rechtschreibfehler mache als die anderen, tue dies auch noch mit 23 Jahren, so Schneider. Der Wissenschaftler plädiert deshalb für Sprachförderprogramme sowie ein viel umfassenderes Angebot im Bereich Mathematik, auch in Kindergärten oder anderen vorschulischen Bildungsangeboten. Schneider will so schon frühzeitig eine Basis an Grundfähigkeiten schaffen, die den Kindern später in der Schule das Lernen erleichtert. Ziel ist es, das durchschnittliche Leistungsniveau der Schüler im Vergleich zu früher deutlich zu erhöhen und damit vielleicht auch in zukünftigen Schulleistungsstudien wie PISA besser abzuschneiden. Defizite auch in der Grundschule
Intelligentes Wissen statt abstrakter Erklärungen © SXC
Stern hält aber nicht nur die Frühförderung im Kindergarten für verbesserungswürdig, sondern auch den Grundschulunterricht. Ihrer Meinung nach sind die Kinder dort in vielen Bereichen sogar schlichtweg unterfordert. Schon Acht- bis Zehnjährige können im Physik-, Technik- oder Chemieunterricht mehr lernen als einfache Phänomene wie „Holz schwimmt, Eisen geht unter“‘. Sie besitzen durchaus das Potenzial, auch komplexe physikalische oder chemische Prinzipien zu verstehen und sogar selbst zu entdecken. In ihrem Lernlabor am Max-Planck-Institut untersucht sie deshalb zusammen mit ihren Kollegen, wie Kinder am besten an naturwissenschaftliche Fächer und Denkweisen herangeführt werden können. Klar ist: nicht mit langweiligen und abstrakten Erklärungen. Schon eher, so die Erfahrungen der Wissenschaftler, mithilfe arbeitsteiliger Experimente. Dabei sammeln die Kinder erste Erfahrungen mit Teamarbeit und kommen gemeinsam bestimmten physikalischen oder chemischen Rätseln auf die Spur. „Intelligentes Wissen“ als Ziel
Ziel ist es, „intelligentes Wissen“ zu vermitteln, das später als Grundlage für das weitere Lernen im Laufe der Schulzeit dient. „Falsche Lösungen und Umwege gehören zum Lernprozess dazu“, erklärt Stern. Der Lehrer hat in einem solchen Fall die Aufgabe, Lernsituationen anzubieten, an denen die Schüler selbstständig ihre Fehler erkennen und korrigieren können. Die Bildungsforscherin fordert außerdem, mit den Unterrichtsinhalten an die bereits vorhandenen Kenntnisse und Erfahrungen der Schüler und ihre Defizite anzuknüpfen. „Schulisches Lernen verbessern heißt, Schülern Aufgaben zu stellen, bei denen sie ihr bereits vorhandenes Wissen erweitern, umstrukturieren und automatisieren
188
Wenn die Methode stimmt, dann kann Lernen auch Spaß machen. © MPG
MENSCH UND GESELLSCHAFT
müssen“, so Stern in der Fachzeitschrift Pädagogik. Ein solcher Unterricht gibt Kindern Denkwerkzeuge an die Hand und vermittelt ihnen, wie sie damit umgehen müssen. Nur so und mit starker individueller Förderung, ist es möglich, alle Schüler trotz unterschiedlicher Lernvoraussetzungen weiterzubringen und ihnen Gelegenheit zu geben, ihre eigenen Fähigkeiten zu entdecken. Bessere PISA-Leistungen durch Frühförderung?
Einig sind sich fast alle Bildungsforscher darüber, dass eine Frühförderung in Kindergarten und Grundschule das spätere Lernen zwar sinnvoll vorbereiten und ergänzen kann, allein aber kaum ein besseres Ergebnis in zukünftigen Vergleichstests wie PISA garantiert. Frühförderung könnte aber möglicherweise ein wichtiger Mosaikstein auf dem Weg sein, das deutsche Bildungssystem moderner und leistungsfähiger zu machen.
WAS SONST NOCH GESCHAH OECD-Studie 2006 – Noch ein schlechtes Zeugnis Erneut stellt die OECD in ihrer jährlichen Studie „Bildung auf einen Blick“ einen Nachholbedarf bei den „höherwertigen“ schulischen Abschlüssen und der Weiterbildung fest. In der am 12. September 2006 veröffentlichten Studie nimmt Deutschland lediglich bei den weiterführenden Forschungsprogrammen (Promotionen) einen Spitzenplatz ein. Bei den allgemeinen und beruflichen Abschlüssen sieht es dagegen schlechter aus: Zwar stieg die Quote der Studienabschlüsse leicht an, aber in den anderen Staaten waren diese Zuwächse höher, sodass sich die Gesamtposition Deutschlands verschlechtert hat und im hinteren Drittel verbleibt. Die OECD sieht es als unbedingt notwendig an, die Anzahl der Fachhochschulabsolventen und Abiturienten zu erhöhen. Nur so könne Deutschland den Anforderungen der künftigen Arbeitswelt gerecht werden. Nach wie vor sind zudem die Investitionen bei den Basisqualifikationen viel zu niedrig – die öffentlichen Ausgaben von der Primarstufe bis zur Sekundarstufe II in Deutschland liegen unterhalb des OECD-Durchschnitts. Besonders negativ wirkt sich dies laut OECD im Elementar- und Primarbereich aus, da hier „die höchsten Bildungserträge erzielt werden“. Mit anderen Worten: Eine gebührenfreie frühkindliche Bildung ist eine der wichtigsten Maßnahmen, die nun zügig umgesetzt werden muss.
189
Interview
Prof. Dr. Elsbeth Stern war bis September 2006 Forschungsgruppenleiterin am Max-Planck-Institut für Bildungsforschung. Im Oktober ist sie an die Eidgenössische Technische Hochschule Zürich gewechselt. © MPG
Wissen hoch 12: Warum sind frühkindliche Bildungsangebote so wichtig?
Damit wir die Möglichkeiten, die eine moderne Wissensgesellschaft bietet, optimal nutzen können, müssen wir sehr viele Kompetenzen erwerben, auf die wir nicht durch fertige Lernprogramme vorbereitet wurden. Dazu gehören die Schriftsprache sowie mathematische und naturwissenschaftliche Kompetenzen. Es muss zunächst grundlegendes Wissen erworben werden, das dann durch immer neue Lernerfahrung ausgebaut und umstrukturiert wird. Angesichts der immer komplexer werdenden Anforderungen sollten wir die ersten Lebensjahre nicht ungenutzt lassen. Wie sollte eine optimale Frühförderung Ihrer Meinung nach aussehen?
Alles, was später gekonnt werden muss, sollte zunächst spielerisch angegangen werden. Auf das Lesen und Schreiben wird man im frühen Kindesalter gut vorbereitet, wenn man ein Gefühl für die Lautstruktur der Sprache entwickelt. Das passiert durch Singen, Reimen und Sprachspiele. Mathematische und naturwissenschaftliche Zusammenhänge versteht man, indem man im Austausch mit anderen Personen Bedeutungen von Begriffen aushandelt. Das setzt eine Gesprächskultur voraus, in der Rechthaberei und Angst vor Blamage nichts zu suchen haben. Eine solche Kultur kann mit kindgerechten Themen und Fragen früh gefördert werden. Viele Kinder haben heute bereits im Alter von 4 oder 5 Jahren einen vollen „Terminkalender“. Besteht da die Gefahr einer Überforderung?
Damit ist zu rechnen, wenn man den pseudowissenschaftlichen Unsinn mitmacht, der sich angeblich aus der modernen Hirnforschung ableiten lässt. Da werden schon Säuglinge mit Wortkärtchen traktiert und Kleinkinder müssen Mozart über sich ergehen lassen, weil der angeblich schlau macht. Tatsächlich sind
190
Menschen jedes Alters frustriert, wenn sie etwas lernen sollen, das nicht an ihr Vorwissen anknüpft und dieses erweitert. Statt Kindern irgendetwas überzustülpen, sollte man an ihre Fähigkeiten und Interessen anknüpfen. Welche Konsequenzen ergeben sich aus den Konzepten für eine bessere Frühforderung für die Ausbildung von Lehrern und Erziehern?
Gute Lehrer wissen, wie Schüler lernen und wo diese abgeholt werden müssen. In der Ausbildung müssen Lehrer und Erzieher lernen, sich in die geistigen Voraussetzungen und das Vorwissen der Lernenden hineinzuversetzen. Damit das gelingen kann, müssen praktische Erfahrungen im Umgang mit Kindern und wissenschaftliche Erkenntnisse über geistige Entwicklung und Lernen in die Ausbildung besser integriert werden. Die meisten Kindergärten und Schulen klagen seit langem über chronischen Geldmangel. Sind mehr und bessere frühkindliche Bildungsangebote überhaupt zu finanzieren?
Zum Nulltarif ist das nicht zu haben, aber Gutes muss nicht immer teuer sein. Den Kindern Möglichkeiten zum Spielen, Singen und Zählen zu bieten, lässt sich auch in den vorliegenden Strukturen realisieren, wobei allerdings eine personelle Aufstockung unumgänglich sein wird. Ist die Frühförderung ein möglicher Weg aus der Bildungsmisere in Deutschland?
Sie ist ein Weg, aber wir dürfen uns nicht allein darauf konzentrieren. Keinesfalls sollte der Eindruck entstehen, dass bei einer suboptimalen Frühförderung der weitere Lernweg vermasselt ist. Für die im kulturellen Kontext entstandenen Kompetenzen gibt es keine kritischen Zeitfenster. Um die geistigen Reserven einer Gesellschaft voll auszunutzen, müssen Kinder, Jugendliche und Erwachsene eine zweite Chance erhalten, wenn es beim ersten Lernversuch nicht geklappt hat.
Von der Pyramide zum Pilz – der Altersaufbau der deutschen Bevölkerung verändert sich © MPG
MENSCH UND GESELLSCHAFT
Deutschland altert – eine Gesellschaft im demografischen Wandel Die Lebenserwartung steigt, die Baby-BoomZeiten sind längst vorbei, die Geburtenrate pendelt schon seit langem auf niedrigem Niveau – unsere Gesellschaft altert und wird langfristig schrumpfen. Der so genannte demografische Wandel hat Deutschland fest im Griff. Wenn Baby-Boomer in die Jahre komment
Während der Altersaufbau der Bevölkerung noch zu Beginn des 20. Jahrhunderts einer Pyramide glich – an der Basis die vielen jungen, an der Spitze die wenigen alten Menschen – ähnelt sie heute eher einer Zwiebel: es gibt mehr ältere Menschen als Kinder und Jugendliche, die geburtenstarken Jahrgänge aus den 1950er- und 1960erJahren bilden – noch – den breiten Mittelbau der Gesellschaft. Bereits 2025 wird nach den Prognosen der Demografen aus der Zwiebel längst ein pilzförmiges Gebilde geworden sein, bei dem die Über-60-Jährigen eine starke Gruppe bilden. Das liegt auch daran, dass die Menschen in Zukunft noch älter werden als bisher. Schon jetzt liegt die Lebenserwartung in Deutschland für Frauen bei 81,6 und für Männer bei 75,9 Jahren, Tendenz: weiter steigend. „Voraussagen über eine vermeintliche Obergrenze der Lebenserwartung haben sich immer wieder als falsch erwiesen“, erläutert James W. Vaupel, Direktor am Max-
Planck-Institut für demografische Forschung in Rostock. In 50 Jahren könnte die Lebenserwartung in den Industrieländern nach Ansicht der Wissenschaftler bereits über 90 Jahre betragen. Ü b e r a l te r u n g, Demografischer Wandel Rentnerschwemme, Unter dem Begriff demografischer Wandel versteht man vor allem drohender Kollaps den Alterungsprozess einer Gesellschaft. Betroffen davon sind seit der sozialen Sicheeinigen Jahrzehnten Industrieländer wie zum Beispiel Deutschrungssysteme wie land oder auch Japan. Faktoren, die bei diesem Prozess eine entscheidende Rolle spielen, sind die ständig steigende LebensKrankenRentenerwartung der Menschen zusammen mit einer extrem niedrigen oder PflegeversicheGeburtenrate. Für den Erhalt moderner westlicher Gesellschaften rung – Politiker, Wirt(mit sehr geringer Säuglings- und Kindersterblichkeit) ist eine schaftsexperten, wir Geburtenrate von 2,1 Kinder pro Frau erforderlich – im Jahr 2005 waren es in Deutschland jedoch nicht einmal 1,4 Kinder pro Frau. alle müssen auf die Zum Vergleich: In Schweden stieg die Geburtenrate seit 2000 von neue gesellschaft1,3 auf 1,8 Kinder pro Frau in 2004. liche Situation reagieren und uns an die Erfordernisse, die sich aus dem demografischen Wandel ergeben, anpassen. Erste „Notfallmaßnahmen“ wie die schrittweise Erhöhung des Rentenalters auf 67 Jahre bis zum Jahr 2029, die Förderung der privaten Altersvorsorge oder die Umstellung des
191
Deutschland schrumpft © SXC
einheitlichen Elterngeldes auf eine einkommensbezogene Variante sind längst beschlossen. Deutschland „fit“ für die Zukunft? Geburtenziffer © zdwa-Grafik / Quelle: Statistisches Bundesamt; Kuczynski (1928); eigene Berechnungen
Doch sind solche Regelungen tatsächlich dazu geeignet, den Herausforderungen des demografischen Wandels zu begegnen? Oder
Arbeit besser verteilen
Zusammengefasste Geburtenziffer in Deutschland – 1871 bis 2003 5 Deutschland Westdeutschland 4 Ostdeutschland Bestanderhaltungsniveau 3
2
1
0 1875
192
1900
1925
1950
1975
müssen andere, viel weitergehende Strategien entwickelt werden, um unsere Gesellschaft „fit“ zu machen für die Zukunft? Momentan beschränkt sich der Blick der Entscheidungsträger in Deutschland vor allem auf das Jahr 2030, wenn die geburtenstarken Jahrgänge, die so genannten Babyboomer, ins Rentenalter kommen. Dann stehen immer mehr Rentner immer weniger Beitragszahlern gegenüber. Während heute 45 Bürger über 60 Jahre auf 100 Erwerbstätige (zwischen 20 und 59 Jahren) kommen, werden es bis 2030 nach neuesten Berechnungen bereits mehr als 70 sein. Aus Sicht der Demografen ergeben sich aus dem demografischen Wandel jedoch schon viel früher schwerwiegende Konsequenzen für die deutsche Volkswirtschaft – zumindest wenn auf dem Arbeitsmarkt alles so bleibt, wie es bisher ist...
2000
Die Vorstellung, dass vor allem die Menschen jenseits des Rentenalters Freizeit haben und der Rest der arbeitsfähigen Bevölkerung einer beruflichen Tätigkeit nachgeht, mag zu Zeiten, in denen in Deutschland Vollbeschäftigung herrschte, richtig gewesen sein, trifft aber heute längst nicht mehr zu. Denn gerade die über 55-Jährigen haben heute schon viel mehr Freizeit als vielen von ihnen lieb ist. Nur rund 40 Prozent dieser Bevölkerungsgruppe sind in Deutschland noch erwerbstätig. Es ist das Resultat der zahlreichen Frühverrentungen, aber auch der Strategie vieler Personalchefs, auf „jung, dynamisch, erfolgreich“ zu setzen. Das hat die Chancen von älteren Menschen am Arbeitsmarkt in den letzten Jahren drastisch gemindert. Wenn auch in Zukunft die Jungen viel und die Älteren wenig arbeiten, könnten
MENSCH UND GESELLSCHAFT
sich daraus spätestens in 15 bis 20 Jahren gravierende Nachteile für die wirtschaftliche Entwicklung Deutschlands ergeben. Denn dann würde nach Berechnungen von Wissenschaftlern des Rostocker Zentrums zur Erforschung des Demografischen Wandels und des Max-Plank-Instituts für demografische Forschung die hierzulande insgesamt geleistete Arbeitszeit deutlich sinken. Und zwar im Jahr 2025 gleich um rund acht Prozent gegenüber 2005, wie die Demografen im Juni 2006 mithilfe des neu entwickelten Rostocker Index zeigen konnten. Grund: Die Babyboomer, die jetzt zwischen 35 und 40 Jahre alt sind, erreichen oder überschreiten dann die kritische Schwelle von 55 Jahren, nach der die Erwerbsbeteiligung bei uns deutlich abnimmt. „Alles in allem würde Arbeitskraft verloren gehen – und das in einem Ausmaß, das mit der heute in Deutschland zu verzeichnenden Arbeitslosigkeit vergleichbar ist“, beschreiben Vaupel und seine Kollegin Elke Loichinger die Ergebnisse ihrer Studie. Und weiter: „Weniger geleistete Arbeit pro Einwohner bedeutet Einkommensverluste und schränkt Verteilungsspielräume des Staates ein.“
Stunden, ein 60-jähriger dagegen nur acht. Soll die Zahl der durchschnittlich geleisteten Stunden nicht sinken, muss sich dieses Muster ändern. Modellrechnungen zeigen: Würde bis zum Jahr 2025 darauf hingewirkt, dass die 50bis 60-Jährigen ebenso viele Stunden arbeiten wie die 35- bis 50-Jährigen, bliebe der gesamt-
Mehr Auszeiten für Jüngere © SXC
Umverteilung als ökonomische Notwendigkeit
Vage Daten zum Babyschwund
Deshalb muss die Arbeit nach den Modellrechnungen der Forscher über die Lebenszeit gleichmäßiger verteilt und flexibler gestaltet werden. „Das 20. Jahrhundert war eines der Umverteilung von Vermögen, in dem angebrochenen Jahrhundert wird es um die Umverteilung von Arbeit gehen“, erläutert Vaupel im Wissenschaftsmagazin SCIENCE. Die Demografen fordern daher, die Menschen zwischen 50 und 60 in Zukunft erheblich stärker als bisher ins Erwerbsleben einzubinden und auch die Über-60-Jährigen verstärkt zu aktivieren, um mögliche wirtschaftliche Folgen des demografischen Wandels in Grenzen zu halten. Ein 45-Jähriger arbeitet heute pro Woche durchschnittlich 30
Um zu begründeten Aussagen über die zukünftige Bevölkerungsentwicklung oder die Auswirkungen von politischen Maßnahmen auf die Geburtenrate zu kommen, benötigen Demografen große Mengen an Langzeitdaten. Eine hervorragende Datenbasis haben die Forscher in den skandinavischen Ländern. Anders in Deutschland: Das Statistische Bundesamt benutzt für seine Berechnungen den Mikrozensus. Jedes Jahr schließt diese verpflichtende Befragung zu Arbeitsmarkt, Wohn- und Lebenssituation über 800.000 Bundesbürger mit ein. Eigentlich eine traumhafte Informationsquelle. Aber zum Thema Kinderlosigkeit liefert der Mikrozensus keine verlässlichen Daten. Denn er zählt nur die im Haushalt lebenden Kinder. Sind diese schon älter und daher bereits ausgezogen, entgehen sie der Zählung. Das Ergebnis: Mit steigendem Alter der Frauen steigt die Kinderlosigkeit. Statistiker versuchen diese Logikfalle zu umgehen, in dem sie den „tatsächlichen“ Wert der Kinderlosigkeit bei dem Alter ablesen, wo er am kleinsten ist, wo also der vermeintliche Kinderschwund noch nicht begonnen hat – nämlich bei Frauen zwischen 35 und 39 Jahren. Für Akademikerinnen kommt man so auf 39 Prozent ohne Kinder. Da akademisch ausgebildete Frauen allerdings immer später Kinder bekommen, ist die endgültige Kinderlosigkeit dieser Gruppe weit niedriger, als die Statistik behauptet. Berechnungen, die sich auf das „Sozioökonomische Panel“ des DIW stützen, kommen auf nur gut 25 Prozent. Von der durchschnittlichen Kinderlosigkeit von etwa 20 Prozent unterscheidet sich die der Akademikerinnen damit nur noch schwach.
193
Frauen leben länger © SXC
wirtschaftliche Arbeitseinsatz auch bei einer alternden Erwerbsbevölkerung konstant. Die ökonomischen Konsequenzen des demografischen Wandels könnten demzufolge durch eine höhere Erwerbsbeteiligung Älterer abgepuffert werden. Das Gedankenspiel ließe sich noch radikaler durchführen: Würde bis zum Alter von 65 Jahren auf gleich bleibend hohem Zeitniveau gearbeitet und würden zudem noch Menschen bis zum Alter von 70 Jahren zu einem gewissen Teil in das Erwerbsleben eingebunden, so ließe sich sogar Entlastung für andere Altersgruppen schaffen. Junge Menschen zwischen 20 und 40 müssten dann in Zukunft weniger „schuften“ als bisher und könnten sich Auszeiten in der Erwerbstätigkeit nehmen – um sich beispielsweise um ihre kleinen Kinder zu kümmern. Voraussetzung dafür sind aber „intelligente Konzepte“, die unter anderem auch mehr Möglichkeiten zur Teilzeitbeschäftigung einräumen. „Die Umverteilung der Arbeitszeit über
den Lebenslauf ist bei den demografischen Veränderungen eine ökonomische Notwendigkeit“, so Vaupel und Loichinger. Dass dies geht, zeigt das Beispiel Schweden. Dort sind bereits jetzt noch mehr als zwei Drittel der Über-50-Jährigen fest im Berufsleben verankert. Möglich wird dies durch eine ausgeprägte Weiterbildungsstrategie, aber auch durch das hohe Ansehen, das Ältere bei vielen schwedischen Personalchefs besitzen. Diese schätzen vor allem die Erfahrung, die größere Gelassenheit und die vielfältigen sozialen Kompetenzen der Über-50-Jährigen. „Wir müssen uns auf die alternde Gesellschaft vorbereiten. Dazu gehört, die Altersdiskriminierung auf dem Arbeitsmarkt zu überwinden und älteren Erwerbstätigen eine Teilhabe an der Produktivität der Gesellschaft zu ermöglichen. Dazu gehören aber auch neue Freiheiten, die Lebensarbeitszeit eigenverantwortlich aufzuteilen und Lebensphasen für Arbeit, Familie, Bildung, Weiterbildung und gemeinnütziges Engagement wesentlich flexibler zu gestalten als heute“, so das Resümee der Max-Planck-Forscher.
Nie wieder Rauchen oder Alkohol? Deutschland altert – allerdings werden Frauen in der Regel älter als Männer: Während ein 60-jähriger Mann heute durchschnittlich noch 19,8 Jahre zu leben hat, sind es bei einer gleichaltrigen Frau 4,1 Jahre mehr. Warum das so ist, diese Frage war bislang aus demografischer Sicht noch nicht endgültig geklärt. Eine neue Studie der Universität Rostock und des Max-Planck-Instituts für demografische Forschung hat eine wissenschaftliche Erklärung für dieses Phänomen gefunden. Danach ist ein gesünderer Lebensstil zumindest eine der Ursachen dafür, warum Frauen länger leben als Männer. Sie legen nicht nur mehr Wert auf gesünderes Verhalten, sondern
194
MENSCH UND GESELLSCHAFT
setzen diese Prinzipien auch besser im alltäglichen Leben um. Im Rahmen ihrer Studie ordneten die Demografen Menschen zwischen 60 und 80 Jahren vier verschiedenen Gruppen zu, die sich in Bezug auf ihren Gesundheitslebensstil deutlich unterschieden: Neben den „Gesundheitsinterventionisten“, die Zeit ihres Lebens auf Rauchen verzichteten, einen stressfreien Beruf ausübten, sich gesund ernähren und kein Übergewicht haben, gab es so genannte „Aktive Bon Vivants“ mit einem eher vergnügungsorientierten Lebensstil (die größte der vier Gruppen), „Gesundheitsnihilisten“, die ihrer Gesundheit allenfalls geringe Beachtung schenken, stark übergewichtig sind und sportlich inaktiv sowie „Frühere Workaholics“. Letztere waren seit längerem aus dem Berufsleben ausgeschieden, hatten aber früher einen extrem stressigen Job. Wie die Forscher herausfanden, gehörte über Zweidrittel der Männer zu den „Bon Vivants“, die Mehrzahl der Frauen dagegen mit 60 Prozent zu den „Gesundheitsinterventionisten“. Da die unterschiedlichen Lebensstile einen unterschiedlich starken Einfluss auf die Sterblichkeit haben – so ist zum Beispiel in der Lebensstilgruppe der „Nihilisten“ das Sterberisiko am höchsten – leisten die typischen Lebensstile von Frauen und Männern einen nicht unerheblichen Beitrag zur männlichen Übersterblichkeit. „Die Lebensstilgruppen, in denen Männer mit den höchsten Anteilen vertreten sind, sind auch jene, in denen die männliche Übersterblichkeit am stärksten ausgeprägt ist. Dagegen sind die Männer in der Gruppe der „Interventionisten“, in der ihre Übersterblichkeit gering ist, anteilig am geringsten vertreten“, erläutern Marc Luy und Paola Di Giulio im Newsletter 2/2006 „Demografische Forschung aus Erster Hand“. Fazit der Wissenschaftler: Die Absage an Stress, Rauchen und Alkohol lohnt sich – zumindest was die Lebenserwartung angeht.
Gesundheitsinterventionist oder Bon Vivant? © SXC
WAS SONST NOCH GESCHAH Demografie online
Wie ist es zum demografischen Wandel in Deutschland gekommen? Warum bekommen die Schweden mehr Kinder als die Deutschen? Gibt es soziale Unterschiede in der Lebenserwartung der Deutschen? Über diese und viele andere Fragen informiert seit November 2005 das neue Informationsportal „Zentrum für Demografischen Wandel“ (http://www.zdwa.de/). Entwickelt und betreut vom Rostocker Zentrum zur Erforschung des Demografischen Wandels berichtet die Website umfassend und verständlich über die Ursachen und Konsequenzen des Demografischen Wandels in Deutschland sowie ganz Europa. Zielgruppe des Informationsportals sind neben Politikern, Journalisten, Wissenschaftlern und Lehrern auch Schüler und Studenten. Gerade Letzteren will www.zdwa.de die Möglichkeit geben, sich mit der in Deutschland noch nicht so etablierten Disziplin der Demografie vertraut zu machen. Demograf des Jahres 2006: Max-Planck-Wissenschaftler ausgezeichnet
Er ist nicht nur Direktor am Max-Planck-Institut für demografische Forschung in Rostock, sondern seit dem 23. Juni 2006 auch der Demograf des Jahres 2006: Professor Jan M. Hoem wurde vom internationalen Demografenfachverband auf der Jahresversammlung der European Association for Populate Studies in Liverpool als „Laureate 2006“ ausgezeichnet. Er erhielt die Ehrung für sein wissenschaftliches Werk und seine großen Verdienste um die Förderung der Disziplin Demografie in Forschung und Lehre. Der 67-jährige Norweger hat sich im Laufe seiner Forscherkarriere unter anderem mit Studien zu den Auswirkungen sozialpolitischer Maßnahmen auf das Familienverhalten einen Namen gemacht. Er gibt aber auch seit einiger Zeit die erste OnlineZeitschrift in den Bevölkerungswissenschaften „Demographic Research“ heraus und hat den Infoletter „Demografische Forschung aus Erster Hand“ aufgebaut. Dieser informiert Politiker, aber auch Journalisten und die breite Öffentlichkeit vier Mal im Jahr über aktuelle Forschungsergebnisse aus der Demografie.
195
Interview
Wissen hoch 12: Der demografische Wandel in Deutschland ist erst in den vergangenen Jahren wirklich in das Bewusstsein der Menschen gedrungen. Ist unsere Gesellschaft darauf angemessen vorbereitet?
Prof. James W. Vaupel ist Direktor am MaxPlanck-Institut für demografische Forschung und beschäftigt sich vor allem mit Determinanten von Altern, Langlebigkeit und Mortalität. © MPG
Nein, wir sind nicht gut genug auf die Konsequenzen des demografischen Wandels vorbereitet. Eine stetig steigende Lebenserwartung, ein niedriges Geburtenniveau und Wanderungsbewegungen werden zu fundamentalen Änderungen der demografischen Konstitution führen. Zuerst wurde das Altern der Gesellschaft weitgehend ignoriert. Heute reden alle darüber, und es dominieren Schreckensszenarien. Der demografische Wandel stellt eine Herausforderung etwa für die sozialen Sicherungssysteme oder den Arbeitsmarkt dar, in ihm stecken aber auch Chancen für den Einzelnen, sein langes Leben flexibler und kreativer zu gestalten. Die demografischen Umbrüche erfordern politisches und privates Umdenken. Man bereitet sich nicht auf die Zukunft vor, indem man die Aufmerksamkeit auf das Phänomen der alternden Gesellschaft richtet und Warnungen ausspricht. Stattdessen müssen die Optionen in der Gesellschaft diskutiert und intelligente Anpassungen an die neue gesellschaftliche Situation eingeleitet werden. Erst dann bereitet man sich auf die neue demografische Lage vor. Arbeit muss gleichmäßiger über das Leben der Menschen verteilt werden, ist eine Ihrer Hauptforderungen. Gibt es Vorschläge, die sich auch in Politik und Wirtschaft durchsetzen lassen oder finden sich zumindest nachahmenswerte Beispiele in anderen Industrienationen?
Ein erster Ansatz, um die Arbeit gleichmäßiger über das Leben zu verteilen, ist, länger als heute zu arbeiten. Damit viele Menschen das tun, müssen Anreize gesetzt und Hürden abgebaut werden. Dazu gehört auch, dass es sich lohnen muss, länger zu arbeiten. Die
196
Rente muss fairer gestaltet werden: Wer weit über das 65. Lebensjahr hinaus arbeitet, muss das später an seiner höheren Rente spüren und wer frühzeitig in Rente geht oder geschickt wird, sollte keine stattlichen Zahlungen erwarten dürfen. Zweitens brauchen wir für eine flexible Lebenslaufgestaltung auch flexible Arbeitszeiten. Es muss viel mehr Möglichkeiten geben, in Teilzeit zu arbeiten, sowohl für Ältere als auch für Jüngere. Dies käme auch denen, die Kinder großziehen oder denen, die ihre eigenen Eltern pflegen müssen, zugute. Ein dritter, wichtiger Punkt bezieht sich auf die Gestaltung einer freundlichen Arbeitsumgebung, sodass sie älteren Arbeitnehmern oder auch Menschen mit Elternverantwortung entgegen kommt, sowohl was den konkreten Arbeitsplatz als auch die Arbeitszeiten angeht. Beispielsweise die skandinavischen Länder sind in vielerlei Hinsicht bei diesen drei Ansätzen im Sinne einer gleichmäßigeren Verteilung der Arbeit über den Lebenslauf weiter als wir in Deutschland. Ein Mittel, um der Überalterung der Gesellschaft entgegenzuwirken, könnte eine Steigerung der Geburtenrate sein. Gibt es politische Instrumente, um die Entscheidung, Kinder zu bekommen, positiv zu beeinflussen?
Es gibt eine Reihe von Hürden, die es jungen Menschen von heute schwer machen, den Schritt in die Elternschaft zu wagen. Familie und Beruf sind in Deutschland für viele schwer vereinbar. Kinderbetreuungsmöglichkeiten sind rar: Das gilt zum Einen für die ganz Kleinen, vor allem in Westdeutschland, zum Anderen aber auch für Schulkinder, die nur halbtags in der Schule sind und für die es zu wenig Hortplätze gibt. Wenige Menschen in Deutschland können flexible Arbeitszeitmöglichkeiten nutzen. Der wesentliche Punkt ist: Viele Menschen in Deutschland haben schließlich weniger Kinder als sie sich
MENSCH UND GESELLSCHAFT
eigentlich gewünscht hätten. Familienpolitische Maßnahmen können dazu beitragen, dass Menschen ihre gewünschte Kinderzahl verwirklichen können. Es kann nicht darum gehen, jemanden zum Kinderkriegen zu überreden, der keine oder wenige Kinder haben möchte. In der Vergangenheit haben Kriege oder medizinische Neuentwicklungen wie die Antibabypille die Bevölkerungsprognosen der Demografen gelegentlich über den Haufen geworfen. Wie sicher sind die aktuellen Voraussagen? Welche Faktoren könnten in Zukunft die Bevölkerungsentwicklung grundlegend verändern?
Prognosen sind immer unsicher. Unsicherheiten sind sogar ein wesentliches Merkmal von Prognosen. Demografen können nicht in die Zukunft sehen, sie können nur auf der Basis des heute vorliegenden Wissens und ausgehend von der aktuellen Größe und Struktur der Bevölkerung vorausberechnen, wie sie sich wahrscheinlich entwickeln wird. Vieles kann die Bevölkerungsentwicklung in unvorhergesehener Weise negativ beein-
flussen, etwa Epidemien, Kriege, Naturkatastrophen, politische Umbrüche. Dennoch sind demografische Prozesse träge und lassen sich mit bestimmten Wahrscheinlichkeiten und innerhalb gewisser Zeiträume recht gut vorausberechnen. Die Sterblichkeit ist am einfachsten und mit relativ großer Sicherheit bis zu einem halben Jahrhundert zu prognostizieren. Wir halten es für sehr wahrscheinlich, dass die Lebenserwartung in Deutschland bis 2050 über die 90Jahre-Marke geklettert sein wird. Getrieben von medizinischen Durchbrüchen könnte sie sogar darüber hinaus ansteigen. Geburtenverhalten zu prognostizieren, ist weitaus schwieriger, doch kann für ein Vierteljahrhundert eine einigermaßen verlässliche Aussage gemacht werden – mit den bekannten Unsicherheiten. Unterstützt durch familienpolitische Maßnahmen könnte die Geburtenrate in Deutschland sich leicht erhöhen. Migration ist am schwierigsten vorauszuberechnen, weil sie am meisten politisch beeinflussbar ist. Und die Politik zu prognostizieren, das ist so gut wie unmöglich.
Bald 90 Jahre Lebenserwartung? © photocase.com, Matthias Ropel
197
198
99 Prozent der menschlichen Erbinformationen stimmen mit denen des Schimpansen überein.© MPG
SCHÄTZE, KNOCHEN, ERDZEITALTER Wer war unser Urahn? Wie wurden wir was wir sind? Trotz vieler Fossilienfunde von Vor- und Frühmenschen weist unser Stammbaum bis heute einige entscheidende Lücken auf. So suchen Anthropologen weltweit weiterhin nach dem „missing link“, dem Verbindungsglied zwischen dem Menschen und den Großaffen, deren Entwicklungslinien sich vor rund fünf Millionen Jahren trennten. Noch nicht endgültig geklärt ist auch, wie eng der moderne Mensch mit dem Neandertaler verwandt ist, der nach einigen tausend Jahren Koexistenz mit dem Homo sapiens vor rund 30.000 Jahren plötzlich von der Erde verschwand. Licht in das Dunkel bringen soll nun die Entschlüsselung des Neandertaler-Genoms durch Wissenschaftler des Max-Planck-Instituts für evolutionäre Anthropologie, die im Juli 2006 gestartet wurde. Die Forscher wollen im Rahmen des zweijährigen Projekts die Basis für einen Erbgutvergleich von Neandertaler, Mensch und Schimpanse legen. Sie hoffen, so den genetischen Ursachen auf die Spur zu kommen, die für die besonderen intellektuellen und kulturellen Fähigkeiten des Homo sapiens verantwortlich sind...
Auf den Spuren der Menschwerdung: die Entschlüsselung des Neandertaler-Genoms
200
199
3D Rekonstruktion eines Neandertaler-Schädels auf der Basis eines CT-Scans eines Originalfundes in La Ferrassie/Frankreich im Jahr 1909. © Max-Planck-Institut für evolutionäre Anthropologie
Auf den Spuren der Menschwerdung: die Entschlüsselung des Neandertaler-Genoms Er gilt bei vielen noch immer als wilder Kerl, der Keule schwingend durch die Eiszeitlandschaften lief, immer auf der Suche nach Beute und auch einem gelegentlichen Scharmützel mit Artgenossen nicht abgeneigt. Doch dieses Klischee vom Neandertaler ist 150 Jahre nach der Entdeckung der ersten Skelettreste im Neandertal bei Mettmann wissenschaftlich längst widerlegt. Direkter Vorfahr des Menschen oder „Sackgasse“ der Evolution?
„Die Vorstellung vom gebückten Neandertaler mit der Keule ist eine Stereotype. Eine frühe Rekonstruktion seines Skeletts war einfach falsch, und für Keulen gibt es keinen einzigen Nachweis“, erläutert Professor Gerd Kaiser, Vorsitzender der Stiftung Neanderthal Museum. Nach dem modernen Verständnis der Anthropologen war der Neandertaler sogar
200
viel fortschrittlicher und leistungsfähiger als lange Zeit gedacht: Er benutzte bereits das Feuer, stellte aber auch Waffen her, hantierte mit Werkzeugen und trug wohl als erster Primat überhaupt eine schützende Kleidung. Der Neandertaler war überdies viel stärker als der moderne Mensch, konnte besser hören und sehen und hatte vermutlich auch schon eine „soziale Ader“. So fanden sich am Schädeldach eines 125.000 Jahre alten Fundes aus Kroatien Merkmale einer gut verheilten Kopf-
SCHÄTZE, KNOCHEN, ERDZEITALTER
verletzung. Diese Wunde hätte der Frühmensch ohne Pflege durch die Sippengenossen nach Meinung der Forscher niemals überlebt. Ein abruptes Ende
Noch im Dunkeln tappen die Urmenschenforscher dagegen bei der Suche nach den Gründen für das Verschwinden des Neandertalers. Vor etwas mehr als 30.000 Jahren verliert sich seine Spur plötzlich – rund zehntausend Jahre nach dem sein großer Widersacher, der Homo sapiens, in Europa auftauchte. Wissenschaftlich nicht endgültig geklärt ist auch das Verwandtschaftsverhältnis der beiden Menschenarten. War der Neandertaler tatsächlich ein direkter Vorfahr des Menschen, wie die Anhänger der so genannten multiregionalen Hypothese zur Evolution des Menschen vermuten? Danach ist der feingliedrige und leichte Homo sapiens mehrmals „gleichzeitig“ in verschiedenen Teilen der Welt aus den regionalen Homo erectus-Nachfolgern – in Europa war das der Neandertaler – entstanden. Oder haben doch die zahlreichen Verfechter der „Out of Africa“-Hypothese Recht? Sie gehen davon aus, dass der Homo sapiens nur einmal in der Evolution hervorgebracht wurde, und zwar in Afrika. Von dort aus begann dann vor rund 100.000 Jahren sein Siegeszug um die Welt. Im Verbreitungsgebiet des Neandertalers kam es dadurch zu einer jahrtausendelangen Koexistenz der beiden menschlichen Spezies.
Schädel des 75.000 Jahre alten Neandertalers aus der irakischen Shanidar Höhle © Erik Trinkaus
Der Neandertaler ist raus
Während die beiden Wissenschaftlerfraktionen lange Zeit heftig darüber stritten, welche Theorie nun tatsächlich richtig ist, scheint sich seit der Einführung neuer Untersuchungsmethoden wie der DNAAnalyse die Waagschale eindeutig in Richtung „Out of Africa“-Hypothese zu neigen. Erste Erbgutvergleiche zwischen dem modernen Menschen und dem Neandertaler auf Basis der mitochondrialen DNA aus dem Jahr 1997 belegten, dass der Homo sapiens nicht aus dem Neandertaler hervorgegangen ist und es sich bei Letzterem vermutlich nur um einen Seitenzweig im Stammbaum des Menschen handelt. Präzise Schädelvermessungen mithilfe von 3D-Techniken durch Wissenschaftler der Universität von New York im Januar 2004 brachten ein ähnliches Ergebnis. Neandertaler und Mensch unterscheiden sich danach so stark, dass sie eigenständige Arten repräsentieren, von denen die eine schließlich ausstarb. „Früher glaubte man, bei dem Neandertaler handele es sich um eine Entwicklungsstufe zum modernen Menschen. Heute sehen Wissenschaftler in ihm jedoch eine europäische Sonderentwicklung, die wahrscheinlich in einer Sackgasse endete“, fasst der Paläontologe Thomas Litt von der Universität Bonn den aktuellen Wissenstand zum Neandertaler zusammen.
Mit 16 Knochen zum Weltruhm Vor genau 150 Jahren, im August 1856, fanden zwei Steinbrucharbeiter im Neandertal bei Mettmann 16 ungewöhnlich geformte Knochen, die zu einer Weltsensation wurden. Zunächst noch für die Relikte eines längst ausgestorbenen Höhlenbären gehalten, erkannte der irische Geologe William King im Jahr 1863/64 ihre wahre Natur: Wie er feststellte, handelte es sich um die Überreste einer bis dahin unbekannten menschlichen Art. Nach ihrem Fundort taufte King sie „Homo neanderthaliensis“. Seitdem wurden aus vielen Regionen Europas und Teilen Asiens immer wieder NeandertalerFunde gemeldet. Die ältesten davon sind bis zu 400.000 Jahre alt, wie radiometrische Datierungen der Fossilien ergaben. Sie haben den Paläoanthropologen viele neue Erkenntnisse über das Aussehen und das Verhalten des Frühmenschen geliefert.
201
Rätsel über Rätsel
Das Skelett vom Neandertaler (links) und das des modernen Menschen (rechts) unterscheiden sich deutlich. © American Museum of Natural History, Ken Mowbray, Blaine Maley, Ian Tattersall, Gary Sawyer
Forscher haben in den letzten Jahren die Methoden zur DNASequenzierung erheblich verbessert. © 454 Life Sciences, Max-Planck-Institut für evolutionäre Anthropologie
202
Doch trotz der erdrückenden Indizienlage sind noch immer nicht alle Forscher von dieser verwandtschaftlichen Einordnung und damit auch der Richtigkeit der „Out of Africa“Hypothese überzeugt. Umstritten ist bis heute zudem, ob sich Neandertaler und der frühe Homo sapiens im Rahmen der jahrtausendelangen Koexistenz in Europa vermischt haben und welchen Beitrag der Frühmensch dann zum Genpool des modernen Menschen geliefert hat. Noch mehr fasziniert die Anthropologen jedoch die Frage, wie der moderne Mensch zu dem wurde, was er heute ist. Welche Veränderungen im Erbgut waren für den gewaltigen Sprung in seinen intellektuellen Fähigkeiten verantwortlich? Diese brennende Frage soll jetzt ein bahnbrechendes neues Projekt beantworten, das im Juli 2006 – pünktlich zum 150. Jahrestag des ersten Neandertalerfundes – gestartet wurde.
Mehr als drei Milliarden Bausteine Dem Genom des Neandertalers auf der Spur Zu fast 99 Prozent stimmen die menschlichen Erbinformationen mit denen des Schimpansen, unserem nächsten lebenden Verwandten, überein. Das haben Genanalysen, vorgestellt im September 2005, ergeben (bei über drei Milliarden Bausteinen pro Genom macht das indes immer noch über 35 Millionen Basenaustausche). Noch mehr ähneln sich jedoch vermutlich die Genome von Mensch und Neandertaler. Wissenschaftler schätzen, dass sie sich lediglich um vier Hundertstel Prozent unterscheiden. Diese minimalen Differenzen aufspüren wollen in den kommenden zwei Jahren Wissenschaftler des Max-Planck-Instituts für evolutionäre Anthropologie in Leipzig. Dazu müssen sie allerdings erst einmal die
komplette Genausstattung des Neandertalers entschlüsseln und diese anschließend mit dem Erbgut von Schimpanse und Mensch vergleichen. Die Forscher stehen vor einer HerkulesAufgabe und einer technischen Herausforderung. Gleich zu Beginn des Projektes haben die Paläogenetiker um Svante Pääbo schon einige Hürden zu nehmen – und die beginnen mit der Suche nach den geeigneten Knochen: Die Kroatische Akademie der Wissenschaften und Künste hat sich bereit erklärt, geeignete Proben zur Verfügung zu stellen und das Rheinische Landesmuseum in Bonn wird eine Probe aus dem rechten Oberarmknochen des Original-Neandertalers beisteuern. Hier ist das Knochenmaterial besonders dicht.
SCHÄTZE, KNOCHEN, ERDZEITALTER
DNA-Verschmutzungen und Erbgut-Trümmer
Dichtes Material benötigen die Forscher für ihr Vorhaben, aus den zehntausende Jahre alten Gebeinen noch genug DNA-Schnipsel für ein vollständiges Genom unseres Vetters zu isolieren. Denn DNA zerfällt nach dem Tod zu Bruchstücken, die gerade mal 100 bis 200 Basenpaare lang sind – und bei den meisten alten Knochen finden Forscher mehr Erbgut von Bakterien und Pilzen oder gar den Ausgräbern als vom toten Besitzer der Knochen selbst. In mühevoller Kleinarbeit müssen die Wissenschaftler um Pääbo deshalb mit selbst entwickelten Methoden erst einmal die Authentizität der DNA ermitteln, bevor sie mit ihrem Puzzlespiel der Erbgut-Rekonstruktion beginnen und Mosaikstein für Mosaikstein zusammensetzen können. Echte Neandertaler-DNA ist in den Proben im Vergleich zur Bakterien-DNA sogar so selten, dass der „Ausschuss“ bei weitem überwiegt. Pääbo betonte daher auf dem NeandertalerKongress „150 Years of Neanderthal Discoveries“ in Bonn, dass 70 Milliarden Genbausteine in den nächsten 24 Monaten zu entziffern sind, um auf die rund drei Milliarden Basenpaare des Neandertalergenoms zu kommen. Um diese gewaltige Aufgabe zu bewältigen, haben die Max-Planck-Forscher die USamerikanische Firma 454 Life Sciences mit ins Boot geholt. Deren neue DNA-Sequenzierungsmethode ist hervorragend zur Analyse alter DNA geeignet – und sie ist extrem schnell (siehe Kasten). Testlauf erfolgreich bestanden
Pääbos Team ist optimistisch in zwei Jahren zumindest einen ersten Entwurf des Neandertaler Genoms vorlegen zu können.
DNA-Sequenzierung Bei der DNA-Sequenzierung handelt es sich um eine Methode der Molekularbiologie, bei der die genaue Abfolge der Basenpaare in der DNA (Desoxyribonukleinsäure), in der die Erbinformation verschlüsselt ist, ermittelt wird. Dem britischen Wissenschaftler Frederic Sanger gelang es mit einem von ihm selbst entwickelten Verfahren, der so genannten Sanger-Coulson-Sequenzierung, 1977 erstmals das Erbgut eines Bakteriophagen zu sequenzieren. Sanger erhielt Genome Sequencer 20 dafür 1980 den Nobelpreis für Chemie. Seitdem sind neue Methoden © Roche/454 Life zur DNA-Sequenzierung hinzugekommen und die Verfahren in Sciences erheblichem Umfang automatisiert worden. Während die Sequenzierung des Humangenoms über zehn Jahre bis zur ersten Rohfassung dauerte und knapp 300 Millionen US-Dollar kostete – für die vollständige Endversion kalkulierten die Experten sogar das Zehnfache – beliefen sich die Kosten für das im Februar 2006 veröffentlichte Genom des Rhesusaffen, das zweite nichtmenschliche Säugetiergenom nach dem des Schimpansen, nur noch auf 22 Millionen US-Dollar. Genome lassen sich inzwischen immer schneller und kostengünstiger sequenzieren. Statt in riesigen Sequenziermaschinen die Bausteinabfolge aus dem zuvor in Bruchstücke zerlegten Gesamtgenom zu bestimmen und anschließend die Sequenz wieder mühsam zusammenzusetzen, schaut man nun DNA-Fragmenten mit einer Länge von 100 Basenpaaren in winzigen Reaktionsgefäßen bei der Vermehrung zu und schreibt dabei die Abfolge der verwendeten Bausteine Buchstabe für Buchstabe quasi mit. Die US-amerikanische Firma 454 Life Sciences hat ein solches Verfahren zur Marktreife gebracht. Mit ihrem Genome Sequencer 20 lassen sich rund 25 Millionen Basen auf einen Rutsch identifizieren und kartieren. Das ist hundert Mal schneller als bisher.
Denn die Technik scheint zu funktionieren. Das hat jedenfalls ein Testlauf im Mai 2006 ergeben. Damals konnten rund eine Million Basenpaare und damit 0,03 Prozent des Steinzeitler-Genoms identifiziert werden. Mittlerweile liegt auch bereits eine erste Auswertung der DNA-Sequenzierung vor. Mit Spannung erwarten die Wissenschaftler die Resultate der Rekonstruktion. Denn ruhen erst einmal alle Gene des Neandertalers in den Datenbanken, so könnte es gelingen, „die Essenz des Menschlichen zu umreißen“, wie Pääbo sagt. Nimmt man die Bereiche, in denen sich Mensch und Schimpanse unterscheiden, und sucht jene Genabschnitte heraus, die der Neandertaler mit dem Schimpansen teilt, dann bleiben nur noch die Gene übrig, die möglicherweise die „Menschformel“ enthalten – und Ursache sind für die hoch entwickelte Sprache und Kultur des Homo sapiens.
Vermehrung der DNA im Mikroreaktor durch Anlagerung an Sonde © Roche/454 Life Sciences
203
WAS SONST NOCH GESCHAH Letzte Neandertaler lebten früher Die wahrscheinlich letzten Neandertaler Europas lebten rund drei- bis viertausend Jahre früher als bisher angenommen. Dies hat jetzt eine neue Datierung von zwei 1998 in der Vindija Höhle in Kroatien gefundenen Fossilienfunden ergeben. Ein internationales Forscherteam um Erik Trinkaus, Professor für Anthropologie an der Washington University in St. Louis und Tom Higham sowie Christopher Bronk Ramsey vom Radiokarbon Laboratorium der Oxford University in England, hat die beiden Neandertaler-Relikte mithilfe der Radiokarbonmessung von ursprünglich angenommenen 28.000 bis 29. 000 Jahren auf ein Alter von 32.000 bis 33.000 Jahren umdatiert. Diese neuen Ergebnisse könnten dazu beitragen, das Verständnis der chronologischen Beziehung von Neandertaler und modernem Menschen in Europa besser zu verstehen. (PNAS, Januar 2006)
Der Schädel des Australopithecus afarensisKindes © National Museum of Ethiopia, Addis Ababa
204
Es ist ein Mädchen! Das „älteste“ Baby stellt sich vor Vor 3,3 Millionen Jahren starb ein dreijähriges Mädchen in der Region Dikika im heutigen Äthiopien. Ein Forscherteam unter der Leitung von Zeresenay Alemseged vom Leipziger Max-Planck-Institut für evolutionäre Anthropologie hat das fast vollständig erhaltene Skelett in fünf Jahre dauernder Kleinarbeit freigelegt. Bei seinem Auffinden waren alle Knochen des oberen Skelettteils, darunter der Schädel, die Schulterblätter, die Schlüsselbeine, die Rippen und die Wirbelsäule, in einem sehr kompakten Sandsteinblock eingeschlossen und klebten aneinander. Die Sedimente mussten mithilfe von zahntechnischen Instrumenten aus den Rippenzwischenräumen und der gekrümmten Wirbelsäule Korn für Korn entfernt werden. Der Fund wurde am Diagnostischen Zentrum in Nairobi, Kenia, mittels Computertomografie gescannt. Diese Technik ermöglichte es den Forschern, die sich herausbildenden „zweiten“ Zähne zu untersuchen und das Geschlecht sowie Alter des fossilen Fundes zum Todeszeitpunkt festzustellen. Der neue Skelettfund ist der älteste und vollständigste, der jemals von einem kindlichen menschlichen Vorfahren gemacht worden ist. Die Forscher erhoffen sich nun Einblicke in Gestalt, Körperbau, Verhalten, Fortbewegungs- und Entwicklungsmuster unserer frühen Vorfahren. (NATURE, September 2006)
Mammutgenom entschlüsselt Forscher vom Max-Planck-Institut für evolutionäre Anthropologie um Michael Hofreiter untersuchten im Dezember 2005 die Mitochondrien-DNA eines Mammuts, dessen Überreste Ende der 1990er-Jahre am Taimyr-See in Sibirien entdeckt wurden. Sie identifizierten dabei sämtliche knapp 17.000 Basenpaare und verglichen sie mit der Mitochondrien-DNA der heute noch lebenden Elefantenarten. Auf der Basis dieser Daten gehen die Forscher davon aus, dass das Mammut deutlich enger mit dem Asiatischen als mit dem Afrikanischen Elefanten verwandt ist. Während sich die Entwicklungslinien von Afrikanischem Elefanten und Mammut vor rund sechs Millionen Jahren trennten, war dies beim Mammut und dem Asiatischen Elefanten erst rund 440.000 Jahre später der Fall. Während sich die Leipziger Forscher noch mit dem vergleichsweise überschaubaren Erbgut in den Mitochondrien begnügten, gelang einem Team um den deutschen Molekulargenetiker Stephan Schuster an der Pennsylvania State University ein viel größerer Coup: Sie konnten mithilfe des bei 454 Life Sciences entwickelten Sequenzierverfahrens mehr als 28 Millionen DNA-Bausteine aus dem Knochenmaterial eines vor 27.700 Jahren gestorbenen Mammuts entziffern. Die Hälfte davon stammte von dem Eiszeitriesen, die andere von Mikroorganismen. Auch Schusters Team datiert den letzten gemeinsamen Urahnen von Mammut und Elefant auf ein Alter von sechs Millionen Jahren. Doch sehen sie – im Gegensatz zu ihren Leipziger Kollegen – im Afrikanischen Elefanten den nächsten Verwandten des Mammuts, ihr Erbgut stimmt nämlich zu 98,55 Prozent überein. (SCIENCE, Dezember 2005 und Januar 2006) Neandertaler Online NESPOS (Neandertal Studies Professional Online Service) heißt die neue Internetdatenbank, die seit März 2006 Neandertalerforscher weltweit vernetzt. Mehr als 2.000 Wissenschaftler aus über 200 Institutionen haben seitdem unter https://www.nespos.org Zugang zu virtuellen 3D-Modellen von eingescannten Funden oder wissenschaftlichen Ausgrabungsstätten. Sie können sich aber auch online über neue Forschungsprojekte und -ergebnisse informieren oder eine Literaturrecherche durchführen. Die NESPOSDatenbank steht im Museum der Stadt Mettmann und hat zum Ziel, die internationale Zusammenarbeit der Neandertalerforscher zu verbessern. (NEANDERTHAL MUSEUM)
SCHÄTZE, KNOCHEN, ERDZEITALTER
Wissen hoch 12: Innerhalb von nur zwei Jahren soll das gesamte Erbgut des Neandertalers
Erbanlagen des Individuums wider und erlaubt somit viel mehr Rückschlüsse.
Interview
entschlüsselt sein. Ein realistischer Zeitplan? Ist das überhaupt möglich?
In welchem Stadium befinden sich Ihre Arbeiten
Es ist ein sehr ambitionierter, aber durchaus realistischer Zeitplan. Innerhalb von zwei Jahren werden wir genug Material sequenziert haben, um einen Überblick des Genoms des Neandertalers präsentieren zu können.
derzeit?
Wir haben ungefähr fünf Millionen Basenpaare des Neandertalergenoms bestimmt. Die
Entschlüsselung
des
Neandertalerge-
noms soll auch dabei helfen die evolutionäre Die DNA, die Sie für die Sequenzierung aus
Verwandtschaft von Mensch und Neandertaler
fossilen Neandertalerknochen und -zähnen
aufzuklären. Welche Ergebnisse erwarten Sie?
isolieren, ist stark mit „fremdem“ Erbgut
Wird das Projekt auch neue Erkenntnisse über
beispielsweise
das Aussehen und das Verhalten des Neander-
von
Bakterien
und
Pilzen
vermischt. Nur fünf Prozent der aus den fossilen
talers bringen?
Knochen isolierten Genfragmente stammen
Wir liefern im Grunde genommen ein Werkzeug, das allen Wissenschaftlern in der Zukunft erlauben wird, gleich nachzusehen, ob der Neandertaler die menschliche oder die Schimpansenvariante getragen hat, wenn sie einen Unterschied im Erbgut von Schimpansen und Menschen finden, der Auswirkungen auf zum Beispiel Aussehen oder Verhalten hat.
vermutlich überhaupt vom Neandertaler. Mit welchen Methoden gelingt es Ihnen, die Neandertaler-DNA zu identifizieren?
Wir identifizieren die Neandertalersequenzen durch den Vergleich mit dem menschlichen Genom, das ja vollständig sequenziert ist. Bislang wurde vor allem die mitochondriale DNA
Prof. Dr. Svante Pääbo ist Direktor am Max-PlanckInstitut für evolutionäre Anthropologie in Leipzig und dort Leiter der Abteilung Genetik. © MPG
von Fossilien untersucht. Neue Sequenzierungsmethoden erlauben Ihnen nun auch die Analyse
Warum die Neandertaler vor rund 30.000 Jahren
der Zellkern-DNA. Welche Informationen kann
ausstarben, ist noch ein Rätsel. Welche Theorie
die mtDNA liefern? Welche Vorteile bietet die
vertreten Sie?
Zellkern-DNA?
Ich habe dazu keine Meinung. Ich versuche mich auf Fragen zu beschränken, denen wir empirisch nachgehen können.
Mitochondrielle DNA spiegelt nur die Verwandtschaft auf mütterlicher Seite wider. Zellkern-DNA spiegelt die Gesamtheit aller
205
Sonnenaufgang aus der Erdumlaufbahn gesehen © NASA, GSFC
Ausblick 2007
„
Das Jahr 2006 war reich an spektakulären Entdeckungen, spannenden Entwicklungen und überraschenden Einblicken in die Geheimnisse der Natur, des Kosmos, aber auch des Menschen selbst. Was aber bringt die Zukunft? Auf welche wissenschaftlichen Entwicklungen können wir im nächsten Jahr gespannt sein? In welchen Bereichen erwarten Forscher entscheidende Durchbrüche? Wir haben die Wissenschaftler gefragt. Solche Fragen darf man genauso wenig stellen, wie man einen Dichter danach fragen darf, welches Gedicht er gerade schreibt. Eine erwartete Entdeckung ist keine Entdeckung. Und wenn man einem Forscher sagt, was er finden soll, findet er nichts. Siegmar Roth, Max-Planck-Institut für Festkörperforschung, Stuttgart
„
“
Entscheidende wissenschaftliche Fortschritte auf die Frage, warum wir altern, erwarte ich an der Schnittstelle von Demografie und Biologie. Dafür muss die Vielfalt der Lebensformen untersucht werden. Denn wenn wir verstehen, warum einige Lebensformen altern und andere nicht, wenn wir verstehen, welche Faktoren ausschlaggebend dafür sind, ob ein Organismus über Reparaturprozesse instand gehalten wird oder an Gesundheit und Funktion einbüßt, könnte dies zu fundamentalen Durchbrüchen bei dem Verständnis von zentralen Alterungsprozessen sowie ihrer genetischen und umweltbedingten Determinanten führen. Diese Erkenntnisse könnten Strategien befördern, die den Alterungsprozess beim Menschen verlangsamen und ein längeres Leben unterstützen. James Vaupel, Max-Planck-Institut für demografische Forschung, Rostock
“
206
„
“ „
Das ist nicht wirklich vorhersagbar. Eduard Arzt, Max-Planck-Institut für Metallforschung, Stuttgart
„
Ich will nur etwas über den Tellerrand schauen und meine Erwartungen in der Infektionsbiologie nennen. Ich erwarte Durchbrüche bei der rationalen Entwicklung von neuen Interventionsmethoden zur Kontrolle der großen Seuchen. Einmal, weil wir immer tiefere Erkenntnisse gewinnen und zum anderen, weil in letzter Zeit deutliche Unterstützung, besonders von der Bill & Melinda Gates Stiftung diese Forschungsrichtung deutlich vorantreibt. Trotzdem gilt aber auch hier Yogi Berras Meinung: ‚Voraussagen sind schwer, besonders für die Zukunft. Stefan H.E. Kaufmann, Max-Planck-Institut für Infektionsbiologie, Berlin
“
Bei der Modellierung und Simulation biologischer Prozesse. Es wird in zehn Jahren möglich sein, komplexe biologische Prozesse als molekulare Netzwerke mit Hilfe von Rechnerprogrammen zu simulieren. Dann lassen sich Auswirkungen von Veränderungen in einem Netzwerk vorhersagen und neue Merkmalsvarianten eines biologischen Prozesses finden. Dies könnte die Grundlage für virtuelle Evolution und der Anfang rationaler Pflanzenzüchtung sein. Paul Schulze-Lefert, Max-Planck-Institut für Züchtungsforschung, Köln
„
„
“
Beim Zusammenhang zwischen Gehirnfunktionen und Intelligenz. Wir können auf der Ebene des Verhaltens inzwischen sehr detailliert intelligentes und weniger intelligentes Verhalten beschreiben und erklären. Gleichzeitig können wir auf neuronaler Ebene schon recht gut bestimmen, worin sich intelligentere von weniger intelligenten Menschen unterscheiden. Die Integration beider Forschungsrichtungen wird dazu führen, dass wir bald besser auch die neuronalen Grundlagen menschlicher Intelligenz verstehen. Elsbeth Stern, ETH Zürich
“
1. Erste mögliche Signale der Gravitationswellendetektoren LIGO beziehungsweise GEO600 (geplante Sensitivität fast erreicht). 2. Verbesserung der Daten über den kosmischen Mikrowellenhintergrund durch den Satelliten PLANCK und neue Hinweise auf Dunkle Energie / Dunkle Materie (soll 2007 ins All geschickt werden). 3. Erste Messdaten des Teilchenbeschleunigers Large Hadron Colllider (LHC) und Hinweise auf An- oder Abwesenheit von Supersymmetrie und Higgs-Teilchen. 4. Messung oder Nichtmessung von Laufzeitunterschieden hochenergetischer Photonen aus Gammastrahlenausbrüchen durch das Gammastrahlenobservatorium GLAST. Thomas Thiemann, Max-Planck-Institut für Gravitationsphysik, Potsdam
“
207
„
Die Antwort auf diese Frage ist nicht einfach. Wenn ich zurückdenke, kamen die meisten Durchbrüche völlig unerwartet, so dass die Vorhersagekraft irgendeiner Vermutung von mir ziemlich beschränkt wäre. Außerdem ist ein Jahr eine so kurze Zeit, dass ich irgendwelche bahnbrechenden Ergebnisse auf dieser Zeitskala in unserem Labor sowieso ausschließen muss. Thomas Udem, Max-Planck-Institut für Quantenoptik, Garching
“„
„
Ich erwarte in naher Zukunft entscheidende Impulse in der fundamentalen Physik. Der LHC wird ab 2007 lange erwartete und wichtige neue Randbedingungen in der Teilchenphysik liefern. Möglicherweise werden wir das erste Mal Gravitationswellen sehen. Bei den Schwarzen Löchern werden wir mit Hilfe von Radio- und Infrarotinterferometrie, sowie mit Röntgenstrahlung Informationen aus der unmittelbaren Umgebung des Schwarzschildradius gewinnen. Und zu guter Letzt werden mehrere gigantische Durchmusterungsprojekte der Dunklen Energie auf den Leib rücken. Persönlich am nächsten steht mir dabei das Röntgen-Projekt eROSITA, das 2007 offiziell beginnen soll. Günther Hasinger, Max-Planck-Institut für extraterrestrische Physik, Garching
“
Nichtinvasive Lichtmikroskopie mit Nanoauflösung wird unser Wissen über die Lebensvorgänge in der Zelle grundlegend erweitern...und uns den eigentlichen Ursachen von Krankheiten viel, viel näher bringen. Die Entwicklung wird für die Herstellung von Medikamenten und für die Prävention von Krankheiten intensiver und tiefgreifender sein, als bisher erwartet. Stefan W. Hell, Max-Planck-Institut für biophysikalische Chemie, Göttingen Geodätische Methoden wie die Satellitenbeobachtung werden in den Geowissenschaften, aber auch in der Wettervorhersage oder bei der Verbesserung von Frühwarnsystemen bei Naturkatastrophen in Zukunft eine immer wichtigere Rolle spielen. So könnte beispielsweise die Tsunami-Frühwarnung bereits in zehn Jahren - völlig anders als heute – vielleicht mithilfe der so genannten GPS-Reflektometrie erfolgen. Zur kontinuierlichen flächendeckenden Überwachung der Meere im Rahmen eines Tsunami-Frühwarnsystems reicht die Zahl der GPS- und GLONASS-Satellten zurzeit aber noch nicht aus. Da verspricht das Galileo-Satellitennetz Abhilfe, das Ende 2010 voraussichtlich betriebsbereit sein wird. Dann sind insgesamt über 90 Satelliten in der Umlaufbahn, die dabei helfen könnten, jede außergewöhnliche Veränderung der Ozeanoberfläche und damit auch jeden Tsunami schnell und präzise zu registrieren. Jochen Zschau, GeoForschungsZentrum Potsdam
“„
“
208
„
„
“
Entwicklung entscheidend wirksamer Krebstherapien! Axel Ullrich, Max-Planck-Institut für Biochemie, Martinsried
Ich hoffe, dass wir in den nächsten Jahren besser verstehen wie Mikroorganismen den Kohlenstoff, Stickstoff und Schwefelkreislauf der Erde beeinflussen. Noch immer werden jedes Jahr neue Stoffwechselwege und neue Lebensformen entdeckt, die unser Verständnis der Stoffflüsse der Erde auf den Kopf stellen. Ich erwarte auch, dass wir endlich auch besser verstehen, nach welchen ökologischen Prinzipien das Vorkommen und die Verteilung von Mikroorganismen gesteuert ist. Da wir so viele Jahre methodenlimitiert waren, können wir jetzt erst Hypothesen zur Biologie und Ökologie der Mikroorganismen in der Umwelt untersuchen. Antje Boetius, Max-Planck-Institut für marine Mikrobiologie, Bremen
“ „
1. In der modernen Biologie allgemein wird die Forschung in der molekularen Genetik ganz neue Einblicke in die Genregulation geben. Untersuchungen in immer mehr Organismen zeigen mittlerweile, dass Zellen nicht nur kodierende, also Protein-erzeugende Boten-RNAs (mRNAs) enthalten, sondern darüber hinaus weitere RNA Spezies besitzen (z.B. micro-RNA, small-interfering RNA), die die Ausprägung von Genen zumindest mitsteuern oder aktiv unerwünschte genetische (Fremd-) Botschaften unterdrücken. Und besonders aufregend wäre es, wenn sich tatsächlich erhärten sollte, dass erworbene Eigenschaften – via RNA vermittelt – vielleicht doch direkt in die nächste Generation epigenetisch vererbt werden können. 2. Die chemische Ökologie wird in den nächsten Jahren ihr Wissen um die Kommunikation zwischen Organismen in verschiedenen Ökosystemen deutlich erweitern können: Durch molekulare Methoden werden noch unbekannte Kleinstlebewesen und Mikroorganismen besonders in Erdböden erstmals erfasst und bestimmt und ihre Interaktionen untereinander untersucht (Stichworte Biodiversitätsforschung / Rhizospherenforschung). Dies wird sich auch auf marine Lebensräume erweitern. 3. Ökologie generell wird durch neue, auch durch Satelliten gestützte „in situ“ Messmethoden Stoffkreisläufe global sehr genau erfassen und zuordnen können. Differentielle Analysen z.B. über den Kohlenstoffeintrag in die Atmosphäre bzw. dessen Re-Fixierung und erneute Freisetzung durch bestimmte Organismengruppen oder ganze Ökosysteme werden künftig einen gezielten und damit besseren Umgang mit dem Menschen dienenden, natürlichen Ressourcen und seiner Umwelt erlauben. Jan Kellmann, Max-Planck-Institut für chemische Ökologie, Jena
“
209
210
Bilder aus der Wissenschaft Die Wissenschaft lebt von Bildern: Ob zur Visualisierung komplexer Zusammenhänge, als atomgenaues Mikroskopbild kleinster Strukturen oder als hochaufgelöste Aufnahme eines Weltraumteleskops ohne solche Abbildungen der Wirklichkeit wären wir heute um einige Erkenntnisse ärmer. Viele Bilder geben Einblicke in bisher unbekannte Welten – sei es in die Tiefen des Weltraums oder aber in das Innerste unserer Zellen und Gewebe. Sie verraten uns, wie Sterne geboren werden oder wie unser Gehirn funktioniert. Sie enthüllen, wie Pflanzen und Tiere aus einem Zellklumpen zum vollständigen Organismus werden, aber auch, warum eine Fliege an der Wand „klebt“. Andere Bilder helfen uns dabei, Prozesse und Wechselwirkungen zu verstehen, die wir als „Augentiere“ in ihrer ganzen Komplexität sonst kaum erfassen könnten. So zeigen Klimasimulationen anschaulich und direkt, wie unsere Treibhausgasemissionen das „irdische Thermostat“ in die Höhe treiben und wo beispielsweise besonders hohe Temperaturen zu erwarten sind. Dreidimensionale Strukturmodelle von Atomen oder Molekülen tragen dazu bei, das Verhalten von Botenstoffen, Medikamenten oder künstlichen Oberflächen zu erklären. Die Bilder der Fernerkundungs- und Erdbeobachtungssatelliten wiederum zeigen unseren Planeten und seine Oberfläche aus einer ungewohnten Perspektive und ermöglichen so die Beobachtung, Einordnung und Erforschung beispielsweise von Wetterphänomenen, geologischen Verwerfungen oder Umweltveränderungen. Eines jedoch ist all diesen Aufnahmen und Visualisierungen gemeinsam: Sie ermöglichen uns einen faszinierenden und schönen Einblick auf die Welt und ihre Phänomene.
Ein neutrophiler Granulozyt nimmt eine Kette von Anthrax-Bakterien auf. Die Immunzellen produzieren ein auf Milzbrand-Bakterien tödlich wirkendes Protein und schützen so den Organismus.© Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
211
Rutschfeste Kontakt-Aufnahme Insekten laufen Wände hoch oder sitzen kopfüber an der Zimmerdecke. Möglich machen dies ausgeklügelte Haftstrukturen an den Füßen der Tiere. Sie bestehen aus nur wenigen Mikrometer feinen Härchen. Die optimale Hafttechnik, die sich über Jahrmillionen entwickelt hat, ist abhängig von der Form dieser Härchen an ihren Enden. Mit Rasterelektronenmikroskop-Aufnahmen wie der eines Fußes des grünen Ampferblattkäfers (Gastrophysa viridula) machen die Materialforscher die Form der winzigen Haft-Härchen im Kontakt mit Oberflächen sichtbar. Dabei fanden sie einen simplen mathematischen Zusammenhang heraus: Je größer das Körpergewicht einer Tiergruppe, desto kleiner und zahlreicher sind die Haftkontakte. Diese Forschungsergebnisse bergen ein großes Anwendungspotential für jede Art von Befestigungen – von wiederverwendbarem, selbsthaftendem Klebeband bis hin zu komplexen Kletterrobotern.
212
© Max-Planck-Institut für Metallforschung, Stanislav Gorb
BILDER AUS DER WISSENSCHAFT
Wachstumskegel eines Nervenzellenfortsatzes So genannte Axone (Nervenzellenfortsätze) übertragen im Nervensystem Signale – beispielsweise vom Auge empfangene Reize – zum Gehirn. Für die Entwicklung solcher Informationskanäle im Embryo ist entscheidend, dass die Axone zielgerichtet zu ihrem oft weit entfernten Bestimmungsort geleitet werden – vermutlich mit Hilfe so genannter Lenkungsmoleküle. Am Ende eines Nervenzellenfortsatzes entstehen Wachstumskegel mit mehreren dünnen Ausläufern: Sie können in wenigen Minuten neu gebildet beziehungsweise wieder eingezogen werden, um ein Gebiet abzutasten.
Rasterelektronenmikroskopische Aufnahme (10.000fache Vergrößerung) © Max-Planck-Institut für Dynamik und Selbstorganisation
213
Tumormarker im Fluoreszenzlicht Hier dargestellt ist eine atypische Lokalisierung des Zelladhäsionsproteins ß-Catenin (gelb) im gutartigen Frühstadium eines menschlichen Dickdarmtumors. Normalerweise findet sich dieses Protein nur an den Zellgrenzen. Tritt es wie hier zusätzlich im Kern einzelner Tumorzellen auf, so entwickelt es neue Fähigkeiten. Das ist ein Startsignal für die Entwicklung eines gutartigen Tumors zum bösartigen Karzinom. Lichtmikroskopische Aufnahme eines Paraffinschnitts nach Immunfluoreszenzmarkierung. Die Zellkerne wurden mit einem DNS-spezifischen Farbstoff blau angefärbt. 250fache Vergrößerung. © Max-Planck-Institut für molekulare Physiologie, Dortmund; Wissenschaftliche Dokumentation Peter Herter, Gesine Schulte
214
BILDER AUS DER WISSENSCHAFT
Haarsinneszellen einer Zebrafisch-Larve Haarsinneszellen nehmen durch Bewegung oder Schall ausgelöste mechanische Reize wahr und übertragen sie als Signal auf das Nervensystem. Die nachkolorierte Aufnahme zeigt eine Gruppe von Haarsinneszellen auf der Oberfläche einer Zebrafisch-Larve. Die auf die Übertragung des mechanischen Reizes spezialisierten Bereiche liegen in der Spitze der Stereocilienbündel.
© Max-Planck-Institut für Entwicklungsbiologie, Tübingen Funktion der Haarsinneszellen, Arbeitsgruppe T. Nicolson Teresa Nicolson (Objekt), Jürgen Berger (Darstellung)
215
Im Flug gefangen Trifft energiereiches Licht auf Materie, so gibt es an der Grenzfläche des Materials eine Wechselwirkung. Es entstehen Elektronen, die von dem Material aus in alle Himmelsrichtungen wegfliegen. Die negativ geladenen Elektronen fangen die Physiker mit Hilfe dieser golden glänzenden Kugel ein und untersuchen sie auf Geschwindigkeit und Richtung. Photoelektronen- und Photoionenspektroskopie heißt diese Methode, Elektroneneigenschaften zu untersuchen. In der hell leuchtenden Mitte der Vakuumkammer befindet sich die Probe, auf die der Lichtstrahl trifft. Sensoren an den Kugelwänden, Laufzeitspektrometer genannt, fangen die Elektronen ein. Gekühlt wird das ganze System durch flüssigen Stickstoff, der von oben auf das Zentrum der Anordnung geträufelt wird und unten in einer Wolke entweicht.
216
Konventionelle Fotografie © Fritz Haber Institut der Max-PlanckGesellschaft, Berlin; Abteilung Molekülphysik, Uwe Becker
BILDER AUS DER WISSENSCHAFT
Ins Netz gegangen
© Max-Planck-Institut für Infektions-
Unser Immunsystem schützt uns effizient vor Viren und Bakterien. Eine wichtige Rolle spielen dabei die weißen Blutkörperchen (Leukozyten), insbesondere die neutrophilen Granulozyten. Sie können Bakterien buchstäblich auffressen, indem sie die Erreger umschließen und im Zellinneren verdauen. Kürzlich entdeckten Wissenschaftler einen völlig anderen, zusätzlichen Mechanismus: Neutrophile können faserige Strukturen wie ein Netz auswerfen, damit Bakterien fangen und außerhalb der Zelle abtöten. Dieses bislang unbekannte Phänomen haben die Forscher mit dem Rasterelektronenmikroskop sichtbar gemacht. In den gelben Netzen der Neutrophilen verfangen sich die roten, unerwünschten Eindringlinge – wie in diesem Fall ShigellaBakterien –, kleben fest und werden so eliminiert.
biologie, Berlin; Mikroskopie Volker Brinkmann
217
Atomare Perlschnüre Die geometrische Anordnung der Atome an der Oberfläche von Einkristallen spielt eine entscheidende Rolle beim Verständnis ihrer physikalischen und chemischen Eigenschaften. Hier machten Wissenschaftler die Oberflächenstruktur der Einkristalle unter anderem mit Hilfe computergestützter theoretischer Methoden sichtbar. Dazu haben sie die Visualisierungssoftware BALSAC (Build and Analyze Lattices, Surfaces, And Clusters) entwickelt. Die Darstellung entstand aus einer Visualisierung des kubisch-flächenzentrierten Palladiumeinkristalls auf der Basis bekannter kristallografischer Daten. Für die Darstellung der obersten Schicht des Palladium-Einkristalls wurde die Oberfläche aus ästhetischen Gründen optisch stark verzerrt. Dadurch entsteht der Eindruck von gekrümmten Flächen aus Perlschnüren, die im Zentrum des Bildes ins Unendliche führen.
218
© Fritz-Haber-Institut der Max-PlanckGesellschaft, Berlin Abteilung Theorie Klaus Hermann
BILDER AUS DER WISSENSCHAFT
Nanostäbchen mit Goldköpfchen
© Max-Planck-Institut für Mikrostrukturphysik, Halle Experimental Department II Luise Schubert, Peter Werner
Wie Zündholzer ragen winzige Silizium-Nanodrähte aus einem Siliziumsubstrat heraus. Bei 525 Grad Celsius dampfen die Physiker Gold auf eine flache Siliziumscheibe und setzen sie anschließend einem Strahl von Siliziumdampf aus. Wo die Goldtropfen auf der Oberfläche aufliegen, beginnen die Nanodrähte in die Höhe zu wachsen. Die nachträglich eingefärbte Rasterelektronenmikroskop-Aufnahme zeigt die Erhebungen, die zwischen zwei und 250 Nanometer hoch sind (ein Nanometer entspricht einem milliardstel Millimeter). Je länger die Wissenschaftler die Probe dem Siliziumdampf aussetzen, desto höher wachsen die Stäbchen. Nach dem Wachstum verbleibt das Gold als Kappe auf den Drähtchen. Solche Experimente aus der Grundlagenforschung sollen in Zukunft die Herstellung elektronischer Bauteile ermöglichen.
219
Sonnenfeuer auf die Erde geholt Diese Aufnahme zeigt den Röntgengenerator Z-Machine am Sandia National Laboratory in Albuquerque, New Mexico in Aktion. Wenn die Maschine feuert, verdampft die Energie einer 20 Millionen Ampere starken Entladung eine Anordnung von dünnen TungstenDrähten und erzeugt ein Plasma. Dieses implodiert und produziert dadurch einen starken Röntgenpuls. Im Februar 2006 erzeugte die ZMachine bei einer solchen Entladung überraschend Temperaturen von mehr als zwei Milliarden Grad Celsius – heißer als im Innere der Sterne.
© Sandia National Laboratories, Photo by Randy Montoya
220
BILDER AUS DER WISSENSCHAFT
Schwarzes Loch mit Strahlenbündeln Das galaktische Doppelsternsystem SS433 besteht aus einem massereichen, jungen Riesenstern, um den vermutlich ein Schwarzes Loch kreist. Es verschluckt vom Riesenstern verlorenes Gas. Die dabei freiwerdende Energie schleudert einen sehr kleinen Teil des Überströmenden Gases in Form zweier gebündelter Strahlen, so genannter Jets, hinaus. Aufgrund von Gezeitenkräften ändert sich die Raumrichtung der Jets in regelmäßigen Abständen. Dadurch entsteht die spiralförmige Struktur eines der Jets, wie die Aufnahme einer Computersimulation zeigt.
© Computersimulation Max-Planck-Institut für Astrophysik, Garching; Stellare Astrophysik Wolfgang Hillebrandt, Ewald Müller
221
Herbstlandschaft im Allerkleinsten Beim Trocknen von Dispersionen können sich „Kolloidkristalle“ mit interessanten optischen Eigenschaften bilden. Sie eignen sich zum Beispiel zur Untersuchung der Filmbildung wässriger Kunststoffdispersionen (Latex). Grobe Strukturen entsprechen länglichen „kristallinen“ Körnern, deren Wachstumsrichtung durch die Fließrichtung festgelegt ist. Feinere Strukturen sind Stufen auf den „Kristallflächen“. Die intensive Färbung der Abbildung entsteht durch weißes Licht, das an den Gitterebenen je nach Wellenlänge verschieden gebeugt wird („LaueKontrast“).
Lichtmikroskopie im Dunkelfeld (schräge Beleuchtung) © Max-Planck-Institut für Polymerforschung, Mainz; Alexander Du Chesne
222
BILDER AUS DER WISSENSCHAFT
Landschafts-Verformungen im Modell
© NASA/JPL
Eine neue Computersimulation, entwickelt durch Wissenschaftler des Jet Propulsion Laboratory der NASA und mehreren amerikanischen Universitäten, kommt zu dem Ergebnis, dass diese Region ein 25prozentiges Risiko aufweist, dass hier in den nächsten 20 Jahren ein Erdbeben der Magnitude 7 oder höher auftritt. Die Forscher nutzten die Simulation, um die Erdbeben der letzten 40.000 Jahre in Kalifornien zu modellieren und stellten dabei fest, dass 400 größere Erdbeben (Magnitude 7 oder höher) in einem durchschnittlichen Abstand von jeweils 101 Jahren auftraten. Dieses Bild zeigt ein simuliertes Radar-Interferometrie-Muster von seismischen Deformationen, wie sie in Verbindung mit einem Erdbeben in der San Francisco-Region auftreten würden. In gelb ist der San Andreas-Graben markiert. Jeder interferometrische Farbzyklus entspricht einem Versatz des Untergrunds von 56 Millimetern.
223
Wirbelsturm als Farbenmeer Der Wirbelsturm Katrina ist hier vor seinem Anwachsen zu einem Hurrikan als Aufnahme des QuikSCAT Satelliten der NASA zu sehen. Aufgenommen am 25. August 2005 um 4:37 Uhr Ortszeit hatte der Sturm zu dieser Zeit eine Windgeschwindigkeit von rund 80 Kilometern pro Stunde und wurde damit „nur“ als Tropischer Sturm klassifiziert. Die Abbildung stellt die Windgeschwindigkeit als Farbe dar, die Windrichtung ist über kleine Wimpel kodiert. Die höchsten Windgeschwindigkeiten (dunkelrot) finden sich nahe dem Auge des Sturms.
© NASA/JPL/QuikScat Science Team
224
BILDER AUS DER WISSENSCHAFT
Kosmisches Feuerrad Die Cartwheel Galaxie liegt 500 Lichtjahre von der Erde entfernt im Sternbild „Bildhauer“. Die ungewöhnliche Form dieser Galaxie ist wahrscheinlich die Folge einer vor mehreren hundert Millionen Jahren stattgefundenen Kollision mit einer der kleineren Galaxien links unten im Bild. Das Bild kombiniert die Daten von vier verschiedenen Observatorien: dem Chandra Röntgenobservatorium (Röntgenstrahlung/ purpurfarben), dem Galaxy Evolution Explorer-Satelliten (UV-Strahlung/ blau), dem Weltraumteleskop Hubble (sichtbares licht/grün) und dem Spitzer Weltraumteleskop (Infrarot/rot).
© Composite: NASA/JPL/Caltech/ P.Appleton et al. X-ray: NASA/CXC/ A.Wolter, G.Trinchieri et al.
225
Glossar Adhäsion
Anziehungskraft zwischen Molekülen zweier chemisch unterschiedlicher Stoffe.
weitesten Auslenkung bis zum Ruhepunkt des Pendels. Anaerob
Aerosole
Feste oder flüssige Teilchen in der Atmosphäre, zum Beispiel Staub, Rauch oder Salzkristalle. Aerosole schweben als feinste Partikel (von 0,0001 bis 10 µm) in der Luft und können Strahlung absorbieren und emittieren. Allgemeine Relativität
s. Relativitätstheorie
A
Bezeichnung für eine chemische Reaktion, die unter Sauerstoffabschluss abläuft oder ein Lebewesen, das für sein Überleben keinen freien Sauerstoff braucht. Viele Mikroorganismen, darunter Milchsäurebakterien, Hefen oder Methan produzierende Bakterien können zeitweise oder vollständig ohne Sauerstoff auskommen. Ihr Stoffwechsel nutzt anstelle des Sauerstoffs Sulfat, Nitrat, Kohlenstoffdioxid oder andere Oxidationsmittel.
Alzheimer
Anthropologie
Die Alzheimer-Krankheit gehört zu den häufigsten Demenzerkrankungen. Sie ist charakterisiert durch eine Abnahme wichtiger Gehirnfunktionen wie dem Gedächtnis oder der Lernfähigkeit. Dies wird ausgelöst durch die fortschreitende Zerstörung von Gehirnzellen und Nervenzellkontakten. Die Zerstörung der Gehirnzellen steht unter anderem im Zusammenhang mit einer Ablagerung von so genannten Amyloid-Plaques, EiweißVerbindungen, die den Zellstoffwechsel unterbinden. Die genauen Ursachen der Erkrankung sind bisher noch ungeklärt, Eine Behandlung, die das Fortschreiten der Krankheit aufhält oder die Schäden rückgängig macht, gibt es bisher nicht. Im Frühstadium kann jedoch der Krankheitsverlauf verlangsamt werden.
Aus dem griechischen abgeleiteter Fachbegriff für die „Wissenschaft vom Menschen“. In der Biologie umfasst sie die vergleichende Forschung der Biologie des Menschen, darunter auch die Erforschung der Evolution des Menschen.
Amplitude
Antikörper
Physikalische Bezeichnung für die maximale Auslenkung einer Schwingung aus ihrer Mittellänge. Bei einem Pendel entspräche die Amplitude der Entfernung vom Punkt der
Antikörper, auch als Immunglobuline bezeichnet, gehören zu den wichtigsten Abwehrmolekülen des Immunsystems von Wirbeltieren. Sie sind spezifisch an bestimmte
Antigene
Stoffe oder Moleküle, die im Körper eine Immunantwort auslösen. Dies können beispielsweise Proteine auf der Oberfläche von Krankheitserregern sein, aber auch körpereigene Substanzen, die vom Immunsystem irrtümlich als fremd angesehen werden. Im Rahmen der ausgelösten Immunreaktion binden Antikörper an die Antigene und markieren sie so für weitere Abwehrschritte.
227
AB
Strukturen, die Antigene, angepasst und binden an diese. Die hohe Spezifität der Antikörper wird in der Medizin gezielt genutzt: Immunglobuline werden als passiver Impfstoff gegen Krankheiten genutzt, dienen aber auch, ergänzt durch einen radioaktiven oder fluoreszierenden Stoff als Marker für physiologische Untersuchungen. Antimaterie
Nach unserem heutigen Weltbild sind beim Urknall Materie und Antimaterie zu gleichen Teilen gebildet worden. Dabei kann man sich die Antimaterie wie eine Art Spiegelbild der Materie vorstellen oder wie Materie unter umgekehrtem Vorzeichen: Beide verhalten sich unter bestimmten Voraussetzungen exakt gleich. Kollidiert ein Materieteilchen mit seinem korrespondierenden Antimaterieteilchen, löschen sich beide gegenseitig aus. Warum dies nicht ständig geschieht und wo diese Antimaterie seither geblieben ist, ist bis heute unklar. 1995 sind am Teilchenbeschleuniger des CERN in Genf erstmals Antiprotonen des Wasserstoffs hergestellt und nachgewiesen worden. Archaea
Die Archaea bilden neben den Bakterien und den Eukaryoten, den Zellkern tragenden Organismen, die dritte Domäne aller Lebewesen. Sie sind einfache einzellige Organismen ohne Zellkern. Ihre Erbinformation liegt frei im Zellplasma, sie besitzen weder ein Zellskelett noch Zellorganellen. Erst in den 1970er-Jahren entdeckt, sind viele Archaea an extreme Lebensbedingungen, wie Temperaturen von über 80°C, hohe Salzkonzentrationen oder sehr hohe oder niedrige pH-Werte angepasst. Atom
Das Atom, (von griechisch atomos= unteilbar), galt lange Zeit als kleinster, nicht
228
mehr teilbarer Baustein aller Materie. Heute weiß man jedoch, dass das Atom zwar chemisch nicht weiter teilbar ist, physikalisch jedoch aus weiteren Untereinheiten besteht. Bakterie
Mikroorganismen, die zusammen mit den Eukaryoten und den Archaea die drei Hauptgruppen des Organismenreiches bilden. Merkmal der Bakterien ist, dass ihre Erbsubstanz DNA nicht von einem Zellkern umschlossen ist, sondern frei im Zellplasma liegt. Viele Krankheitserreger gehören zu den Bakterien, gleichzeitig sind jedoch auch viele lebenswichtige biologische Prozesse ohne diese Mikroorganismen nicht möglich. Basenpaare
Die Basenpaare sind ein wichtiger Bestandteil der DNA und der RNA. In der DNA finden sich die Basen Adenin (A), Thymin (T), Guanin (G) und Cytosin (C), in der RNA ist Thymin durch Uracil ersetzt. Über die Abfolge dieser Basen wird die eigentliche Erbinformation kodiert. Da sich jede Base nur ganz spezifisch mit einer der anderen drei Basen verbindet (Basenpaar), kann von jedem Strang ein genau komplementärer Strang hergestellt werden. Diese Art der Kopie mithilfe der komplementären Basenpaare ermöglicht erst die Transkription und damit die Weitergabe der genetischen Information. Biodiversität
Ganz allgemein Bezeichnung für die Vielfalt und Verschiedenheit von Pflanzen- und Tierarten sowie Lebensgemeinschaften in einem Ökosystem. Darüber hinaus meint der Begriff aber auch die genetischen Variationen innerhalb einer bestimmten Art, etwa Variationen in Augen- oder Haarfarbe beim Menschen.
GLOSSAR
Gewicht von Pflanzen und Tieren, die zu einem bestimmten Zeitpunkt auf einer Flächeneinheit leben. Die Angabe erfolgt meistens in t/ha. Die Biomasse kann weiter unterteilt werden: Die Phytomasse enthält nur Pflanzen und Mikroorganismen, die Zoomasse nur Tiere.
galvanischen Zelle, die die chemische Reaktionsenergie eines kontinuierlich zugeführten Brennstoffes und eines Oxidationsmittels in elektrische Energie umwandelt. Als Brennstoffe kommen neben Wasserstoff auch andere wasserstoffhaltige Verbindungen in Frage, darunter Methanol in flüssiger oder gasförmiger Form, Erdgas oder Benzin. Sie können entweder von der Brennstoffzelle direkt verbrannt oder in einem vorgeschalteten „Reformer“ zu Wasserstoff umgewandelt werden. Die Automobilbranche testet gegenwärtig verschiedene Prototypen von Brennstoffzellen getriebenen Fahrzeugen. Darunter sind sowohl Wasserstofffahrzeuge als auch Brennstoffzellenantriebe, die Methanol- oder Benzin als Brennstoff nutzen können.
Biosphäre
Chimäre
Die Biosphäre bezeichnet den Raum, der von Pflanzen, Tieren und sonstigen Lebewesen bewohnt wird.
Der Begriff „Chimäre“ stammt ursprünglich aus der griechischen Mythologie. Er steht in der Naturwissenschaft für Mischoder Zwitterwesen, die genetische Anteile zweier unterschiedlicher Arten in sich tragen. Ein Beispiel für solche meist gentechnisch erzeugten Organismen sind auch Bakterien, denen ein oder mehrere menschliche Gene eingepflanzt wurden, aber auch Embryonen, die aus der Verschmelzung zweier Zellkerne verschiedener Arten hervorgehen.
Biomarker
Unter Biomarkern versteht man charakteristische Substanzen des Stoffwechsels, wie zum Beispiel bestimmte Enzyme und Proteine, die sich durch die Einwirkung beispielsweise von Medikamenten oder Giften verändern. Wird diese Veränderung erfasst, dient sie als Überwachungs- und Untersuchungsmethode für die Wirkung der getesteten Substanzen. Biomasse
Biosynthese
Die Biosynthese beinhaltet den Aufbau von komplexen organischen Verbindungen im lebenden Organismus. Blastozyste
Ein Embryo während des ca. 4. – 7. Tages der Entwicklung. Die Blastozyste besteht aus einer äußeren Zellgruppe, aus der sich die Plazentaanteile entwickeln (Trophoblast), und der inneren Zellmasse, aus der sich der Fetus entwickeln wird (Embryoblast). Zwischen beiden Zellschichten befindet sich ein flüssigkeitsgefüllter Hohlraum, die so genannte Blastzozystenhöhle.
Die DNA liegt bei allen Zellkern besitzenden Lebewesen (Eukaryonten) nicht frei im Zellkern vor, sondern ist zu Chromosomen „verpackt“. Dabei wird der DNA-Faden um spezielle Hüllproteine, die Histone, gewickelt und in eine kompaktere Form gebracht.
Brennstoffzelle
Cyanobakterien
Um aus Wasserstoff Strom zu erzeugen, verwendet man Brennstoffzellen. Dabei handelt es sich um eine besondere Art der
Cyanobakterien, auch als „Blaualgen“ bezeichnet, sind einzellige Organismen, die ihre Energie über Photosynthese gewinnen.
BC
Chromosom
229
DE
Im Gegensatz zu den Algen besitzen sie jedoch keinen Zellkern und gehören daher nicht zu den Eukaryoten, sondern zu den Prokaryoten. Die Vorfahren der heutigen Cyanobakterien gehörten wahrscheinlich zu den ersten photosynthetisch aktiven Organismen der Erde und hatten großen Anteil an der Entstehung einer sauerstoffhaltigen Atmosphäre. Demografie
Wissenschaftliche Disziplin, die sich mit dem Leben, Werden und Vergehen menschlicher Bevölkerungen befasst, sowohl mit ihrer Zahl als auch mit ihrer Verteilung im Raum und den Faktoren, insbesondere auch sozialen, die für Veränderungen verantwortlich sind. Demografischer Wandel
Veränderungen in der Bevölkerungszahl und Bevölkerungszusammensetzung, die aus den Entwicklungen der Geburten- und Sterberate sowie den Zu- und Abwanderungen innerhalb eines Landes oder einer Region resultieren.
kern befindlichen Erbinformation auch DNA in den „Kraftwerken“ der Zelle, den Mitochondrien. Diese mitochondriale DNA (mtDNA) wird unabhängig von der Zellkern-DNA weitervererbt, da alle Eizellen zusätzlich zum Kern auch Mitochondrien besitzen. Da diese Weitergabe nur über die Mutter an ihre Nachkommen erfolgen kann, spielt die Auswertung der mtDNA eine wichtige Rolle in der Evolutionsforschung. Anhand der durch eine relativ konstante Mutationsrate ausgezeichneten mtDNA können so Verwandtschaftsverhältnisse über Jahrtausende hinweg rekonstruiert werden. Eizelle
Die Eizelle (lateinisch Oocyte) ist die Keimzelle weiblicher zweigeschlechtlicher Organismen. Elektron
Elektronen sind negativ geladene Elementarteilchen. Im Atom bilden sie die Hülle um den positiv geladenen Atomkern. Elektronenmikroskop
Depolarisation
Änderung des Membranpotenzials einer Zelle, verursacht durch einen Ein- oder Ausstrom von geladenen Teilchen (Ionen). DNA
Engl. für desoxyribonuclein acid; deutsch: DNS, Desoxyribonukleinsäure. Die Erbsubstanz DNA bildet eine Doppelhelix aus zwei Nucleotidsträngen, die sich aus dem Zucker Desoxyribose, einem Phosphorsäurerest und den vier organischen Basen Adenin, Cytosin, Guanin und Thymin zusammensetzen. Die Abfolge dieser Basen im Strang kodiert die Erbinformation. DNA, mitochondriale
In den Zellen existiert neben der im Zell-
230
Im Gegensatz zum Lichtmikroskop nutzt ein Elektronenmikroskop einen gebündelten Strahl aus Elektronen als Messstrahlung. Dieser besitzt eine viel kleinere Wellenlänge als das Licht und kann somit Strukturen abbilden, die kleiner als 200 Nanometer sind. Bis zu 20millionenfache Vergrößerungen sind möglich. Da die zu untersuchenden Proben auf bestimmte Weise präpariert werden müssen, ist die Aufnahme lebender Gewebe- oder Zellstrukturen damit nicht möglich. Embryo
Als Embryo bezeichnet man das Frühstadium eines sich entwickelnden Lebewesens. Beim Menschen spricht man bis zur neunten Schwangerschaftswoche, dem Zeitpunkt der Ausbildung der inneren Organe, von einem
GLOSSAR
Embryo, danach von einem Fetus. Die Embryonalentwicklung durchläuft verschiedene Stadien.
bebens ist dagegen kein Messwert, sondern gibt die sichtbaren Auswirkungen wie Schäden an Gebäuden in mehreren Stufen an.
Enzym
Erdebebenherd
Proteine, die als Biokatalysatoren wirken. Als Auslöser und Beschleuniger der meisten biochemischen Reaktionen im Stoffwechsel sind sie für alle Organismen unentbehrlich. Viele Enzyme sind speziell an bestimmte Aufgaben im Körper angepasst.
Erdbebenherde (auch: Hypozentren) sind die Entstehungsorte von Erdbeben. Sie liegen meist in bis zu 70 Kilometer Tiefe (Flachbeben). Weitaus seltener sind Beben, die unterhalb von 70 Kilometern bis in eine Tiefe von 700 Kilometern auftreten. Senkrecht über dem Hypozentrum auf der Erdoberfläche liegt das Epizentrum eines Bebens.
Epigenetisch
Epigenetisch heißt, dass nachträglich die genetischen Eigenschaften verändert werden. Epigenetische Mechanismen gibt es nur bei Säugetieren. Sie sind in deren Entwicklung wichtig. Es wird entweder das von der Mutter oder das vom Vater stammende Gen inaktiviert oder aktiviert Dies geschieht durch Methylierung bestimmter Regionen des Genoms. Epizentrum
Ort auf der Erdoberfläche, der sich senkrecht über einem Erdbebenherd befindet. Im Epizentrum treten die stärksten Erdbebenwellen auf. Erdbebenstärke
Die Stärke eines Erdbebens wurde früher meist als Stärke auf der Richter-Skala angegeben. Dieser Wert ergibt sich aus dem maximalen Ausschlag eines Seismographen, der Amplitude, sowie dem Zeitintervall zwischen Eintreffen der Erdbebenwellen (Primär- und Sekundärwellen). Heute wird die Erdbebenstärke dagegen meist als MomentMagnitude angegeben. Sie beschreibt die Energiemenge, die von einem Beben freigesetzt wird und ergibt sich aus der Größe der Rissfläche im Untergrund, der mittleren Verschiebung der Gesteinsblöcke und der Gesteinsfestigkeit. Die Intensität eines Erd-
EF
Eruption
Bezeichnet die verschiedenen Arten von vulkanischen Ausbruchstätigkeiten (u. a. ausfließend, auswerfend). Nach der Lage der Eruptionen werden Zentraleruption (z.B. Stratovulkan), Lineareruption (z.B. Spaltenvulkanismus) und großflächige Arealeruptionen unterschieden. Exoplanet
Ein Exoplanet oder extrasolarer Planet ist ein Planet, der nicht Teil unseres Sonnensystems ist, sondern einen anderen Stern als die Sonne umkreist. Die ersten Exoplaneten wurden 1992 in der Umlaufbahn um einen Pulsar entdeckt, der erste Exoplanet um einen sonnenähnlichen Stern 1995. Bisher ist allerdings auch unter den Exoplaneten kein Planet gefunden worden, auf dem Leben möglich wäre. Fettsäurekonjugate
Verbindungen von Fettsäuren beispielsweise mit Aminosäuren oder Zuckern. Fluoreszenz
Verschiedene Moleküle reagieren auf eine Bestrahlung mit Licht kurzer Wellenlängen (= energiereicher) mit der Emission von Licht längerer Wellenlängen (= energieärmer).
231
F
Dieses Verhalten entsteht dadurch, dass einige Elektronen des Moleküls durch das absorbierte Licht auf einen höheren Energiezustand angehoben werden (angeregt). Nach kurzer Zeit jedoch fallen sie auf ihr Ursprungsniveau zurück und geben die überschüssige Energie als Photon (Lichtteilchen) wieder ab. Dieses Licht erzeugt das Fluoreszenzleuchten. Follikel
Das Follikel ist die Einheit von Eizelle und die sie umgebenden Hilfszellen im Eierstock. Die Follikelzellen und die Eizelle umgebenden Bindegewebsschichten spielen unter anderem für die Produktion von Geschlechtshormonen wie Östrogen und Progesteron eine entscheidende Rolle.
Fungizid
Ein chemischer oder biologischer Wirkstoff, der Pilze und ihre Sporen abtötet oder ihr Wachstum blockiert. Fungizide werden beispielsweise im Pflanzenbau oder aber auch als Holzschutzmittel eingesetzt. Gamma-Strahlung
Energiereiche elektromagnetische Strahlung, wie sie beispielsweise beim radioaktiven Zerfall von Atomen entstehen kann. Ihre Wellenlänge liegt unterhalb von 0,5 Nanometer und ist damit extrem kurz. Gammastrahlen können Materie durchdringen, ohne dabei reflektiert oder abgelenkt zu werden. Ein Teil der Strahlung wird jedoch absorbiert und kann schwere Schäden in Geweben und Zellen hervorrufen.
Frequenz
Anzahl der Schwingungen pro Zeiteinheit bei Wellen. Die Einheit der Frequenz ist Hertz, definiert als Schwingungen pro Sekunde. In technischen Anwendungen wie in Computern werden heute maximale Taktfrequenzen von einigen wenigen Gigahertz (einer Milliarde Schwingungen pro Sekunde) erreicht. Radiowellen bewegen sich im Bereich von Kilohertz bis Megahertz. Fulleren
Kugelförmiges, hohles Molekül aus Kohlenstoffatomen. Bekanntestes Beispiel ist das Buckminster-Fulleren, eine C60-Verbindung, in der die Kohlenstoffatome in zwölf Fünfecken und 20 Sechsecken angeordnet sind. Der Hohlraum der Fullerene kann metallische oder nichtmetallische Moleküle aufnehmen und könnte so zukünftig möglicherweise auch als „Nano-Transportmolekül“ eingesetzt werden. Benannt sind die Fullerene nach dem Architekten Richard Buckminster Fuller, dessen geodätische Kuppeln der Fulleren-Struktur ähneln.
232
Geburtenrate
Anzahl der lebend geborenen Kinder pro 1.000 Einwohner eines Landes oder einer Region innerhalb eines Jahres. Gelelektrophorese
Gelelektrophorese ist eine analytische Methode der Chemie und Molekularbiologie, um verschiedene Arten von Molekülen zu trennen. Dabei wandert eine Mischung aus zu trennenden Molekülen unter Einfluss eines elektrischen Feldes durch ein Gel, welches in einer ionischen Pufferlösung liegt. Je nach Größe und Ladung der Moleküle bewegen sich diese unterschiedlich schnell durch das als Molekularsieb wirkende Gel. Dabei wandern kleine, negativ geladene Moleküle (Anionen) am schnellsten in Richtung der positiv geladenen Anode und positiv geladene Moleküle (Kationen) in Richtung der negativ geladenen Kathode.
GLOSSAR
Gen
Glukosinulate
Ein Gen ist ein Abschnitt auf der Erbsubstanz DNA, der die Information zur Produktion eines biologisch aktiven Moleküls beinhaltet.
Als genetische Redundanz wird die Wiederholung genetischer Information innerhalb der DNA bezeichnet. Die Funktion dieser Wiederholungen ist bisher weitgehend unbekannt.
Glukosinulate oder Senfölglykoside sind chemische Verbindungen, die in bestimmten Pflanzen gebildet werden und beispielsweise den verschiedenen Kohlarten ihren typischen bitteren Geschmack geben. Insgesamt sind heute mehr als einhundert Glucosinolate bekannt, die alle eine gemeinsame chemische Grundstruktur besitzen und sich hauptsächlich in der Zusammensetzung ihrer Seitenketten unterscheiden.
Genexpression
GPS
Die Synthese von Proteinen nach einer spezifischen, von einem Gen abgelesenen „Bauanleitung“.
Abkürzung für „Global Positioning System“, ein satellitengestütztes Verfahren zur Positionsbestimmung. Von den GPSSatelliten, deren Position immer bekannt ist, werden Funksignale ausgesendet. Ihre Laufzeiten werden von den Empfangsgeräten zur Entfernungsberechnung herangezogen. Für eine exakte Positionsangabe werden die Entfernungen zu mindestens drei Satelliten benötigt.
Genetische Redundanz
Genom
Die Gesamtheit der genetischen Information eines Organismus wird als Genom bezeichnet. Geodäsie
Wissenschaft von der Vermessung der Erdoberfläche und des Erdschwerefeldes. Die Geodäsie vermisst sowohl die globalen Eigenschaften der Erde als auch ihre lokale Form, z.B. zur Herstellung von Karten. Auch in der Objektvermessung wie auf Baustellen kommt sie zum Einsatz. Globale Mitteltemperatur
Weltweite Messungen an Klimastationen liefern die Grundlagendaten für ein großräumiges Temperaturmuster. Aus diesem kann durch Flächenmittelung anschließend die globale Mitteltemperatur berechnet werden. Diese liegt heute bei ungefähr 15°Celsius. Ihre Veränderungen sind ein wichtiger Indikator für die globale Erwärmung und den Treibhauseffekt.
G
Gravitation
Die Gravitation ist eine der vier Grundkräfte der Physik. Sie bewirkt die wechselseitige Anziehung von zwei Körpern und sorgt beispielsweise auf der Erde für die Schwerkraft. Hier beträgt sie ungefähr 9,8 m/s2. Der Physiker Isaac Newton stellte 1666 erstmals ein mathematisches Gesetz für diese Kraft auf. Albert Einstein definierte 1916 in seiner Allgemeinen Relativitätstheorie die Gravitation als Krümmung der Raumzeit. Gravitationswellen
Die extreme Beschleunigung großer Massen im Raum, beispielsweise bei einer Sternenexplosion, erzeugt lokale Verformungen der Raumzeit – eine Art „Rippel“ in der Schwerkraft. So jedenfalls postuliert es Einsteins Theorie der Allgemeinen Relativität. Diese winzigen Veränderungen der Gravita-
233
HI
tion breiten sich mit Lichtgeschwindigkeit aus und erreichen so auch die Erde. Bisher jedoch konnten sie noch nie direkt nachgewiesen werden, da die technischen Möglichkeiten der Observatorien nicht ausreichten. Halbleiter
Material, dessen Leitfähigkeit veränderbar ist. Je nach Temperatur kann es sich daher wie ein Leiter oder aber wie ein Nichtleiter verhalten. Durch gezielte Verunreinigung mit Fremdatomen kann die Leitfähigkeit eines Halbleiters beeinflusst werden. In der Mikroelektronik spielen Silizium-basierte Halbleiter eine entscheidende Rolle. Hier, als Bausteine von Transistoren, wird ihre Leitfähigkeit durch Anlegen einer Steuerspannung oder eines Steuerstroms verändert und so die benötigte Schaltfunktion erreicht.
234
Hormon
Chemische Signalstoffe, die in spezialisierten Zellen gebildet und in Körperflüssigkeiten transportiert werden. Sie zirkulieren im Körper und koordinieren durch Wechselwirkung mit ihren Zielzellen die verschiedenen Teile des Körpers. Beispiele für Hormone sind unter anderem die Geschlechtshormone Testosteron und Östrogen. Aber auch Serotonin und Dopamin sind wichtige Botenstoffe des Gehirns. Insulin
Ein in der Bauschspeicheldrüse gebildetes Hormon, das an der Regulation des Blutzuckerspiegels beteiligt ist. Es fördert die Aufnahme des Zuckers Glukose durch die Zellen und senkt dadurch die Zuckerkonzentration im Blut.
Holografie
IPCC
Bezeichnung für ein Verfahren, mit deren Hilfe ein dreidimensionales Abbild eines Gegenstands oder einer Person erstellt werden kann. Dabei tastet ein Laserstrahl den Gegenstand ab und erzeugt ein Abbild auf einer halbtransparenten Fotoplatte. Auf dieser ist jeder Punkt des Objekts nicht durch einen Punkt auf der Platte repräsentiert, sondern durch das Interferenzmuster, dass die vom Objekt zurückgeworfenen Laserstrahlen bei Kontakt mit den ursprünglichen Laserstrahlen erzeugten. Dieses spezifische Interferenzmuster, eine Abfolge von feinen Streifen, erzeugt, wenn es bei der Wiedergabe erneut mit Laserlicht der gleichen Frequenz bestrahlt wird, beim Betrachter ein Abbild des Gegenstands. Verschiebt der Betrachter seine Sichtperspektive leicht, verändert sich auch das Hologramm entsprechend und es entsteht ein räumlicher Eindruck.
Das Intergovernmental Panel on Climate Change wurde 1988 vom Umweltprogramm der Vereinten Nationen und der Weltorganisation für Meteorologie gegründet. Als zwischenstaatlicher Ausschuss soll es die Risiken des globalen Klimawandels abschätzen sowie die Erkenntnisse hinsichtlich des Klimasystems beurteilen. Das IPCC bildet die Schnittstelle zwischen Wissenschaft und Politik und hat seinen Hauptsitz in Genf. Isolierscheide
Die Isolier- oder Markscheide dient der elektrischen Isolation der Erregung leitenden Nervenfortsätze, der Axone, gegenüber der Umgebung. Sie besteht aus der sehr lipidhaltigen Substanz Myelin, die das Axon in mehreren Schichten spiralförmig umschließt. Einige neurologische Erkrankungen wie Multiple Sklerose sind durch den fortschreitenden Abbau der Myelinscheide gekennzeichnet.
GLOSSAR
Isotop
Atom eines chemischen Elements, das sich durch die Anzahl der Neutronen im Atomkern von anderen Isotopen dieses Elements unterscheidet. Die meisten Elemente besitzen ein oder wenige weitere stabile Isotope, die restlichen sind radioaktiv und zerfallen nach längerer oder kürzerer Zeit. Kaltzeiten
Geologische Zeitabschnitte, in denen die Temperaturen so weit absinken, dass sich umfangreiche Gletscher und Inlandeismassen bilden. Es gab mindestens vier bedeutende Kalt- oder Eiszeiten (vor über 570, vor 440, vor 280 und vor 2,5 Mio. Jahren). Der Begriff Eiszeit wird oft sinngleich mit Kaltzeit verwendet. Da nicht immer eine Zeit mit niedrigen Temperaturen zwangsläufig mit Gletscherbildungen verbunden ist und es auch kalte, aber eisfreie Gebiete gibt, wird statt „Eiszeit“ der Begriff Kaltzeit verwendet. Kapillarkraft
Die Kapillarkraft beschreibt das Verhalten von Flüssigkeiten in engen Röhren. Taucht man ein solches Röhrchen in Wasser, steigt die im Röhrchen enthaltene Flüssigkeit über den Spiegel des umgebenden Wassers an. Dieser der Schwerkraft entgegenwirkende Effekt entsteht durch die Adhäsionskraft, die Anziehungskraft zwischen der Glaswand des Röhrchens und dem Wasser. Karzinom
s. Krebs Katalyse
Bezeichnung für eine chemische Reaktion, die durch einen so genannten Katalysator beschleunigt oder verändert wird. Der Katalysator ist ein Stoff, der an einer chemischen Reaktion beteiligt ist, ohne dabei verbraucht zu werden. Er liegt am Ende der
Reaktion im gleichen Zustand wie zu Beginn vor und steht so direkt für eine weitere Reaktion zur Verfügung.
IK
Kerntransfer
Übertragung des Zellkerns einer Körperzelle in eine entkernte, unbefruchtete Eizelle. Als Ergebnis wird der Zellkern der Körperzelle „reprogrammiert“ und in einen undifferenzierten, quasi embryonalen Zustand zurückversetzt. Mithilfe dieser Methode entstand das Klonschaf „Dolly“, das erste aus einer Körperzelle geklonte Säugetier. Klimazone
Großräumige Gebiete auf der Erde, die ein ähnliches Klima aufweisen. Ursachen für die verschiedenen Klimazonen sind die unterschiedliche Einstrahlung und die daraus resultierende atmosphärische Zirkulation. Klonen
Im weitesten Sinne versteht man unter Klonen die natürliche oder künstliche Entstehung von genetisch identischen Kopien einer Zelle oder eines gesamten Organismus. Koevolution
Unter Koevolution versteht man die wechselseitige Beeinflussung zweier Arten im Laufe ihrer Stammesgeschichte. Kognition
Die Kognition umfasst die mentalen Prozesse eines Tieres oder Menschen, wie das „Denken“, darunter Wahrnehmung, Aufmerksamkeit, Lernfähigkeit, Gedächtnis, Kombinationsgabe und Abstraktionsvermögen, aber auch die Kreativität und die Fähigkeit, Entscheidungen zu treffen. Kolloid
Ein Kolloid ist der Oberbegriff für eine fein verteilte Anordnung von Teilchen innerhalb
235
KL
eines Gases, einer Flüssigkeit oder eines Feststoffs. Sind kleine Feststoffpartikel in einem Gas verteilt, spricht man von Aerosolen, bei festen Teilchen in einer Flüssigkeit von einem Sol oder einer kolloidalen Lösung. Auch die Mischung von feinsten Öltröpfchen in Wasser gehört zu den Kolloiden, sie wird als Emulsion bezeichnet.
Kybernetik
Wissenschaft von der Struktur und Funktionsweise komplexer Systeme. Diese beinhalten meist diverse Steuerungs- und Rückkopplungsmechanismen. Das Gesamtgebiet der Kybernetik umfasst dabei sowohl technische als auch biologische Systeme. Lichtgeschwindigkeit
Konformationsänderung
Als Konformation bezeichnet man die räumliche Anordnung der Atome in einem organischen Molekül. Einige der Kohlenstoffverbindungen sind so angelegt, dass an bestimmten Bindungsstellen der Atome ein Drehen oder Umklappen der Bindung möglich ist und so eine Änderung der Konformation des Gesamtmoleküls erfolgt. Konvektion
Im Allgemeinen versteht man unter einer Konvektion die aufsteigende Bewegung eines Stoffes in plastischen Massen, Flüssigkeiten und Gasen. In den Geowissenschaften stellen die Konvektionsströmungen Magmenbewegungen im zähplastischen Bereich der Asthenosphäre dar. Sie gehen auf Wärmeströme aus dem Inneren der Erde zurück und sind verantwortlich für die Erdkrustenbewegung. Dabei werden Kontinentalplatten von dem strömenden Magma mitgeschleppt. Nicht nur im Erdmantel, sondern auch im äußeren Erdkern gibt es Konvektionsströmungen von geschmolzenem Material. Im Erdkern wird durch diese Bewegungen der Erdmagnetismus aufrechterhalten. Krebs
Sammelbegriff für unterschiedliche Krankheitsformen, bei denen Körperzellen entarten und unkontrolliert wachsen. Dabei wird gesundes Gewebe verdrängt und zerstört, häufig entstehen bösartige Geschwulste.
236
Der Begriff Lichtgeschwindigkeit, abgekürzt „c“, steht für die Ausbreitungsgeschwindigkeit von elektromagnetischen Wellen, zu denen auch das Licht gehört. Die Lichtgeschwindigkeit im Vakuum ist in der Physik als eine der Naturkonstanten definiert, da sie nach Einsteins Relativitätstheorie die maximal erreichbare Geschwindigkeit aller Energieund Materieformen ist. Die Lichtgeschwindigkeit ist definiert als 299.792.458 Meter pro Sekunde. Magma
Glutflüssige Gesteinsschmelze im Erdinneren. Kühlt sich Magma ab, entstehen Erstarrungs- oder magmatische Gesteine. Je nach Chemismus und Abkühlungsgeschwindigkeit des Magmas bilden sich unterschiedliche Gesteine (z.B. Basalt, Granit, Trachyt). Dringt Magma bis an die Erdoberfläche, spricht man von Lava. Materie
Alles Stoffliche im Universum, dessen Ruhemasse ungleich Null ist, das also eine Masse besitzt. Allgemein gesprochen alles, aus dem wir bestehen und das uns umgibt. In der Physik gelten Masse, Struktur, thermische Energie und der Raum, den die Materie einnimmt, als ihre definierenden Eigenschaften. Megacity
Allgemeine Bezeichnung für Städte mit großer Ausdehnung, hoher Einwohnerdichte
GLOSSAR
und über acht Millionen Bewohnern. Besonders Entwicklungsländer sind von einer zunehmenden Verstädterung und einem unkontrollierten Wachstum ihrer Städte betroffen. Beispiele für Megacities sind Mexiko-City, Seoul, Shanghai oder Kairo. Größte Megacity ist derzeit Tokyo mit schätzungsweise 35 Millionen Einwohnern.
Signale im Nervensystem aufzunehmen und weiterzuleiten. Neuronales Netzwerk
Metastasen entstehen, wenn Krebszellen von einem bösartigen Tumor aus an andere, entfernte Orte im Körper streuen und dort Tochtergeschwülste bilden.
Die funktionelle Struktur des Gehirns von Tieren und Menschen bildet ein neuronales Netzwerk: Die einzelnen Nervenzellen (Neuronen) sind über vielfache Wechselwirkungen miteinander verschaltet. Die Erforschung dieser Gehirnarchitektur und ihrer Funktionsweise bildet die Grundlage für die Entwicklung künstlicher neuronaler Netze, beispielsweise für die Steuerung von Robotern.
Mitose
Neutronenstern
Teilung von Körperzellen, bei denen die Tochterzellen jeweils einen kompletten Chromosomensatz von der Mutterzelle erhalten. Um dies zu erreichen, werden die Chromosomen in der Ausgangszelle zunächst verdoppelt und dann auf die beiden Tochterzellen aufgeteilt.
Massereiche Sterne können am Ende ihres Lebenszyklus zu Neutronensternen werden. In diesen ist die Materie extrem dicht zusammengeballt: Ein Stecknadelkopf davon würde auf der Erde mehr als eine Millionen Tonnen wiegen. Wegen dieser Dichte besitzt ein Neutronenstern eine extrem starke Anziehungskraft, die sogar das Licht in seinem Umfeld ablenkt.
Metastase
Mutation
Durch eine Mutation wird die Abfolge der Basenpaare im Erbgut und damit auch die genetische Information verändert. Mutationen können durch „Kopierfehler“ beispielsweise bei der Zellteilung entstehen, aber auch durch spontane bzw. durch chemische oder physikalische Einflüsse erzeugte Zerstörungen von einzelnen Basen oder ganzen Gruppen von Basen der DNA. Nanometer
Längenmaß. Ein Nanometer entspricht einem Millionstel Millimeter, oder 10-9 Metern. Neuron
Fachbezeichnung für Nervenzelle (aus dem Griechischen), die darauf spezialisiert ist,
MN
Nukleäres Gedächtnis
s. epigenetisch Nukleinsäure
s. DNA Ökologie
Lehre von den Wechselbeziehungen zwischen den Organismen untereinander sowie zu ihrer unbelebten Umwelt. Ökosystem
Funktionelle Einheit aus einem Lebensraum und den darin lebenden Organismen. In einem Ökosystem bilden alle biotischen (lebende Bestandteile) und abiotischen (nichtlebende Bestandteile) Faktoren ein zusammenwirkendes Gefüge.
237
OP
Oocyten
s. Eizellen
zung. Die Nachkommen entstehen dabei aus den unbefruchteten Eizellen der Mutter.
Oxidation
Pathogen
Chemische Reaktion, bei der der oxidierte Stoff Elektronen abgibt. Ein direkter Elektronentransfer findet jedoch nur in einem Teil dieser Reaktionen statt, meist werden die Elektronen nur rechnerisch dem anderen Reaktionspartner zugeschlagen, die formale „Oxidationszahl“ erhöht sich dadurch. In der organischen Chemie bezieht sich der Begriff meist auf eine Aufnahme von Sauerstoff oder eine Abgabe von Wasserstoff (Dehydrierung). Eine Oxidation in Abwesenheit von Sauerstoff bezeichnet man als anaerobe Oxidation.
Medizinischer Fachbegriff für eine Substanz oder einen Organismus, die krankheitserregend wirken. Bakterien, Viren und Parasiten können als Krankheitserreger fungieren.
Oxidation, anaerobe
s. Oxidation Parkinson
Die Parkinson-Krankheit ist eine der häufigsten Erkrankungen des zentralen Nervensystems. Bei dieser sind vor allem Bewegungsabläufe – willkürliche und unwillkürliche – gestört. Im Gehirn ist Parkinson durch den fortschreitenden Verlust von Nervenzellen in der so genannten Substantia nigra, einer durch hohe Eisen- und Melaningehalte dunkel gefärbten Region des Mittehirns, charakterisiert. Da diese Zellen den Botenstoff Dopamin produzieren, der für die Regulation der Bewegungssteuerung und -koordination entscheidend ist, löst ihre Zerstörung einen Dopaminmangel aus. Das für Parkinson typische Ruhezittern (Tremor) entsteht durch das relative „Übergewicht“ der Botenstoffe Acetylcholin und Glutamat gegenüber dem Dopamin.
PCR-Technik
Die Polymerase-Kettenreaktion (englisch polymerase chain reaction) ist ein Verfahren, mit dem gezielt kurze Teile der Erbsubstanz DNA vervielfältigt werden können, ohne dass ein lebender Organismus dafür benötigt wird. In einer über mehrere Zyklen laufenden Kettenreaktion werden die DNA-Stücke mithilfe des Enzyms Polymerase und mehrfacher Erhitzung so lange kopiert bis ausreichend Material für die eigentlichen Analysen vorliegt. Permafrostboden
Böden, vor allem in polaren Regionen (Permafrostgebiete), die ständig gefroren sind und in den wärmeren Monaten nur oberflächlich bis wenige Meter tief auftauen. Da das Eis im Untergrund die Versickerung des Auftauwassers verhindert, sind die Böden dann stark vernässt und schlammig. In Hanglagen neigen Permafrostböden zu Rutschungen. Phänomenologie
Im naturwissenschaftlichen Zusammenhang steht die Phänomenologie für eine beschreibende Herangehensweise, bei der zunächst nur die vorliegenden Daten ausgewertet werden und nach Möglichkeit noch keine Interpretation im Licht einer Theorie erfolgt.
Parthenogenese
Die Parthenogenese, umgangssprachlich auch als „Jungfernzeugung“ bezeichnet, ist eine Form der eingeschlechtlichen Fortpflan-
238
Photon
Das Photon (von griechisch phos = Licht) ist ein Grundbaustein elektromagnetischer
GLOSSAR
Strahlung, zu der auch das Licht gehört. Es markiert die kleinste mögliche Einheit von Strahlung jeder Frequenz, ein so genanntes „Quant“. Wie die Elementarteilchen besitzt auch das „Lichtteilchen“ neben seinen Teilcheneigenschaften ebenfalls Wellencharakter.
Erdbeben und Vulkanismus entladen. Es gibt konvergierende Plattengrenzen (Platten bewegen sich aufeinander zu), divergierende Plattengrenzen (Platten bewegen sich voneinander weg) und konservative Plattengrenzen (Platten gleiten aneinander vorbei).
Photosynthese
Plumes
Mithilfe der Photosynthese produzieren grüne Organismen unter Ausnutzung der Energie des Sonnenlichts energiereiche organische Verbindungen. Dabei wird die Energie der Strahlung zunächst durch bestimmte Pigmente absorbiert und dann in chemische Energie umgewandelt. Dieser so genannten Lichtreaktion folgt die Dunkelreaktion, bei der über mehrere Schritte Zucker und Stärke entstehen.
Plumes sind heiße, eng umgrenzte Magmaströmungen im Erdinneren und Teil der Konvektion. Sie steigen im Erdmantel auf und sind für die Bildung von langen Ketten von Vulkanen und Vulkaninseln an der Erdoberfläche, wie beispielsweise Hawaii, verantwortlich. Vermutlich stammt das Material der Plumes aus der Erdkern-Mantel-Grenze. Polymer
Bezeichnung für die Entstehung neuer „Äste“ im Stammbaum von Arten oder Organismengruppen im Laufe der Evolution.
Ein Polymer ist eine chemische Verbindung, die aus einer einfachen oder verzweigten Kette von vielen gleichartigen Molekülen besteht. Beispiele dafür sind die Kunststoffe PVC oder Polyethylen.
Placebo
Prokaryoten
Ein Placebo ist ein Präparat, das keinerlei medizinisch wirksame Substanz enthält und daher eigentlich nicht als Medikament wirken kann. Untersuchungen haben jedoch gezeigt, dass auch ein solches Scheinmedikament bei bis zu einem Drittel der Patienten eine positive Wirkung auslöst. Dieser so genannte „Placebo-Effekt“ muss daher in medizinischen Studien immer auch berücksichtigt werden. Ein Medikament gilt nur dann als ausreichend wirksam, wenn es signifikant besser wirkt als das einer Kontrollgruppe unwissentlich verabreichte Placebo.
Prokaryoten sind Lebewesen, deren Zellen keinen Zellkern besitzen. Die Erbsubstanz liegt daher frei im Zellplasma. Zu diesen Organismen gehören die Bakterien und die Archaea, früher auch als Urbakterien bezeichnet.
Phylogenetische Aufspaltung
Plattengrenze
Eine Plattengrenze kennzeichnet den Übergangsbereich von einer Kontinentalplatte zu einer anderen. Hier kommt es zu Spannungen und Reibungen, die sich durch
P
Protein
Die auch als Eiweiße bezeichneten Makromoleküle bestehen chemisch aus einer Abfolge von Aminosäuren, Grundbausteine sind Wasserstoff, Kohlenstoff, Stickstoff und Sauerstoff. Ihr Aufbau ist in den Genen kodiert Ihre komplexe räumliche Struktur bestimmt entscheidend ihre Funktionsfähigkeit. Proton
Protonen sind positiv geladene Elementarteilchen, die gemeinsam mit den neutralen
239
PQ
Neutronen den Atomkern bilden. Die Anzahl der Protonen im Kern ist für jedes Element charakteristisch. Sie bestimmt die so genannte Ordnungszahl des Elements und damit auch seine Position im Periodensystem der Elemente. Pulsar
s. Neutronenstern Quanten
Ein Quant bezeichnet ein Teilchen oder eine Zustandsgröße, die nur in diskreten, sozusagen „portionierten“ Größen vorliegen kann. Ein Beispiel ist das Photon, ein elektromagnetisches Teilchen, das als „Quant“ keinen Teil seiner Energie abgeben kann, sondern nur als Ganzes erzeugt oder vernichtet werden kann. Quantenteleportation
In der klassischen Physik ist die Teleportation die Übertragung von Information über eine Struktur, mit deren Hilfe diese an einem anderen Ort reproduziert werden kann. Nicht der Gegenstand selbst wird befördert, sondern nur sein vollständiger „Bauplan“. Im Reich der kleinsten Teilchen, der Quantenmechanik lässt sich jedoch die dafür benötigte vollständige Information über den Zustand eines Teilchens nicht ermitteln, also auch nicht übertragen. 1997 gelang in einem Experiment eine Übertragung von Eigenschaften innerhalb eines miteinander verschränkten Photonenpaares. Die Photonen eines solchen, aus einem Photon durch Aufspaltung entstandenen Paares, befinden sich in einem gemeinsamen Zustand, der nicht für jedes Teilchen einzeln beschrieben werden kann. Diese gegenseitige Beeinflussung ist unabhängig von der Entfernung der Photonen und kann daher für eine Übertragung von Eigenschaften ausgenutzt werden.
240
Quantentheorie
Auch Quantenmechanik. Die physikalische Theorie der Quantenmechanik beschreibt das Verhalten der Materie im Bereich der Atome und anderer kleinster Teilchen. In den 1920er und 1930er-Jahren unter anderem von Werner Heisenberg und Erwin Schrödinger entwickelt, erklärt sie Phänomene im Mikro- und Nanomaßstab, die unter anderem mit der Relativitätstheorie nicht vereinbar oder erklärbar waren. Dazu gehört beispielsweise die Heisenbergsche Unschärferelation. Quark
Quarks gehören zu den fundamentalen Bausteinen der Materie. So besteht beispielsweise das Proton, ein positiv geladenes Teilchen des Atomkerns, aus jeweils drei Quarks. Deren Existenz wurde 1964 von dem Physiker Murray Gell-Mann postuliert, der den Namen einer Textzeile des irischen Schriftstellers James Joyce entnahm. Quarks tragen die elektrische Ladung von -1/3 oder +2/3. Sie treten niemals isoliert auf, sondern bilden immer Gruppen, deren Gesamtladung eine ganze Zahl ergibt. Insgesamt kennen Physiker heute sechs verschiedene QuarkArten, die auch als „Flavours“ (Geschmacksarten) bezeichnet werden. Sie unterscheiden sich unter anderem durch ihre Masse, ihren Spin und ihre Ladung. Quasar
Abkürzung für englisch: „quasi-stellar radio source“ (quasistellare Radioquelle). Als Quasare bezeichnet man entfernte Galaxien, die starke Radiostrahlung aussenden. Diese entsteht meist durch ein wachsendes Schwarzes Loch in ihrem Zentrum, das Materie verschlingt und dabei die Radiostrahlung freisetzt.
GLOSSAR
Radar
Reproduktives Klonen
Abkürzung für englisch: „Radio Detection and Ranging“ (Entdeckung und Entfernungsmessung mittels Funkwellen). Ein Radar sendet Wellen, meist im Mikrowellenbereich, aus. Diese werden von im Weg liegenden Objekten reflektiert und gelangen so zurück zum Radargerät. Aus der Art der Reflektion kann man Position und Größe der georteten Objekte ermitteln.
Als reproduktives Klonen wird das Klonen mit dem Ziel der Schaffung eines lebenden, geklonten Organismus bezeichnet.
Radiokarbondatierung
Die Radiokarbondatierung ist eine Methode zur Altersbestimmung von organischen, kohlenstoffhaltigen Materialien. Das Verfahren basiert auf dem radioaktiven Zerfall des in der Atmosphäre kontinuierlich erzeugten Kohlenstoffisotops C14. So lange ein Lebewesen lebt, nimmt es ständig neues C14 aus der Luft auf und dadurch entspricht sein C14-Gehalt immer der Konzentration der Umwelt. Stirbt der Organismus, nimmt er kein neues C14 auf: Durch den radioaktiven Zerfall des Isotops verringert sich der C14-Gehalt daher im Laufe der Zeit in einem fest definiertem Maß. Über die Messung des heute noch vorhandenen C14 in einem Fossil oder anderen organischen Material kann daher dessen Alter ermittelt werden. Diese Datierungsmethode erlaubt Altersbestimmungen bis zu einem Alter von rund 50.000 Jahren. Relativitätstheorie
Anfang des 20. Jahrhunderts von Albert Einstein aufgestellte physikalische Theorien. Die Allgemeine Relativitätstheorie beschreibt die Anziehungskraft (Gravitation) als Krümmung in der Geometrie der Raumzeit. Die Spezielle Relativitätstheorie erklärt, dass mit Ausnahme der Lichtgeschwindigkeit alle Bewegungen in Raum und Zeit immer durch den Bezugspunkt – das Verhalten des jeweiligen Beobachters – beeinflusst werden.
RS
Rezeptoren
Rezeptoren sind Eiweißstrukturen, die als Bindungsstellen auf der Membran von Zellen, aber auch von Zellorganellen fungieren und durch Andocken entsprechender Moleküle Informationen von außerhalb der Zelle nach innen weiterleiten. RNA, ribosomale
Die ribosomale Ribonukleinsäure, abgekürzt rRNA, ist eine Ribonukleinsäure, die in den Ribosomen vorkommt. Die rRNA ist wie die Transport-RNA (tRNA) eine nicht-kodierende RNA. Sie trägt somit keine genetische Information, die in Proteine umgeschrieben wird, sondern ist als RNA-Molekül in der Zelle aktiv. Sie ist zusammen mit den ribosomalen Proteinen am Aufbau und der enzymatischen Aktivität des Ribosoms und damit an der Proteinsynthese beteiligt. Die rRNA wird von der sogenannten rDNA codiert. Schwerkraft
s. Gravitation Sedimente
Durch Wasser, Wind und Eis abgelagerte Materialien. Unterscheiden lassen sich klastische Sedimente (Ablagerungen von verwitterten Gesteinsbruchstücken), chemische Sedimente (aus einer Lösung ausgefällte Ablagerungen) und biogene Sedimente (Ablagerungen von Pflanzen und Tierresten). Verfestigte Sedimente werden Sedimentgestein genannt. In ihnen sind vielfach Fossilien eingeschlossen.
241
S
Seismik
Spektrallinie
Verfahren, das zur Untersuchung der Wellenausbreitung in der Erdkruste angewendet wird. Mithilfe von künstlich erzeugten Erdstößen (Sprengseismik) und deren Messung mittels Seismographen wird das Verhalten der Wellen erkundet. Da sich Wellen in unterschiedlichen Gesteinsschichten auch mit unterschiedlichen Geschwindigkeiten fortpflanzen, ist dies eine Möglichkeit, den Aufbau der Erde zu bestimmen. Allgemeiner wird der Begriff Seismik auch für Erdkrustenbewegungen oder die Erdbebenkunde verwendet.
Als Spektrallinien bezeichnet man die scharf voneinander abgegrenzten hellen oder dunklen Linien innerhalb eines Spektrums elektromagnetischer Strahlung. Die Breite und Frequenz dieser Linien ist spezifisch für bestimmte Elemente und gibt daher Aufschluss über die Zusammensetzung beispielsweise von chemischen Substanzen oder kosmischen Gaswolken. Die hellen Emissionslinien entstehen, wenn die Elektronen eines Elements von einem höheren in ein niedrigeres Energieniveau zurückfallen. Dabei senden sie Photonen (Lichtteilchen) aus, die als Licht bestimmter Wellenlänge registriert werden kann. Dunkle Absorptionslinien entstehen, wenn ein Element oder Molekül Energie aus dem eintreffenden Licht absorbiert und dadurch Elektronen auf ein höheres Energieniveau angehoben werden.
Sekundärstoffe
Verkürzt für sekundäre Inhaltsstoffe oder sekundäre Pflanzenstoffe. Unter dieser Bezeichnung werden Stoffe zusammengefasst, die nicht essenziell für das Wachstum oder die Entwicklung eines Organismus sind. Viele sekundäre Pflanzenstoffe dienen der Abwehr von Fraßfeinden oder Krankheitserregern, wie beispielsweise Pyrethroide, Alkaloide oder Cannabinoide, oder als Farbstoffe dem Schutz vor UV-Strahlung wie Carotinoide, Anthocyane oder Flavonoide. Singularität
Bereiche, in denen keine uns bekannten physikalischen Gesetze gelten. In der Astrophysik gilt dies für Schwarze Löcher und den Urknall.
Spindelapparat
Als Spindelapparat bezeichnet man eine für die Zellteilung wichtige zelluläre Struktur, die im Laufe der Teilung dafür sorgt, dass die Chromosomen gleichmäßig auf die beiden Tochterzellen verteilt werden. Er besteht im Prinzip aus zwei von entgegen gesetzten Polen der Zelle ausgehenden Faserbündeln (den Mikrotubuli), die an die Chromosomen binden und diese in die eine oder andere Richtung ziehen. Stammzellen
Soma
In der Neurobiologie bezeichnet Soma den Zellkörper einer Nervenzelle. Hier liegen der Zellkern, aber auch wichtige andere Zellbestandteile, wie die Mitochondrien und das endoplasmatische Reticulum. Vom Soma gehen Zellfortsätze ab, darunter das Axon, der lange faserartige Fortsatz, der den Hauptteil unserer Nerven bildet.
242
Körperzellen, die noch nicht voll ausdifferenziert sind. Dadurch sind sie fähig, je nach Stammzelltyp, noch einige oder aber auch alle Gewebe- und Zelltypen eines Organismus hervorzubringen. Stammzellen finden sich sowohl im Embryo, als auch im erwachsenen Organismus, beispielsweise im Knochenmark. Adulte Stammzellen sind im Gegensatz zu den embryonalen Stammzellen in ihrer Differen-
GLOSSAR
zierungsfähigkeit eingeschränkt und können meist nur noch wenige Zelltypen erzeugen. Strahlungsbilanz
Rechnerische Gegenüberstellung der Energieaufnahme und -abgabe der Erde und der Erdatmosphäre. Im langjährigen Mittel müssen sich Ein- und Ausstrahlung ausgleichen, damit die Erde nicht auskühlt oder sich aufheizt. Subduktionszone
Bereich, in dem eine ozeanische Platte unter eine andere Platte abtaucht und dabei in großer Tiefe schmilzt. Subduktionszonen sind durch hohe seismische Aktivität gekennzeichnet. Supernova
Eine Supernova ist die Explosion eines Sterns am Ende seines Lebenszyklus. Der Kern des Sterns kollabiert und die dabei entstehende Stoßwelle schleudert große Mengen glühender Gase, Strahlung, aber auch Elementarteilchen wie Neutrinos in Weltall. Während einer Supernova steigt die Leuchtkraft des Sternes plötzlich um das Millionen bis Milliardenfache an um dann wieder schnell abzufallen. Als Überrest bleibt oft ein so genannter Emissionsnebel zurück, wie beispielsweise der Krebsnebel M1 im Sternbild Stier.
kerne, Ionen oder Elementarteilchen durch elektromagnetische Felder auf hohe Geschwindigkeiten beschleunigt und entweder auf ein feststehendes Ziel oder aber auf entgegenkommende Teilchen gelenkt. Die resultierende Kollision setzt enorme Energie frei und lässt dabei auch neue Teilchen entstehen. Die Natur dieser freigesetzten Teilchen und der Energie gibt Teilchenphysikern wichtige Informationen über die Grundeigenschaften der Materie und die Wechselwirkungen von Elementarteilchen.
ST
Teraflops
„Flop“ steht für englisch: „floating-point operations per second” (GleitkommazahlOperationen) und ist ein Maß für die Rechengeschwindigkeit von Computern. Eine Gleitkomma-Operation kann beispielsweise eine Addition oder eine Multiplikation sein. Ein Teraflop entspricht 1012 Flops. Terpen
Hauptbestandteile der von Pflanzen produzierten ätherischen Öle. Diese Naturstoffe bilden eine sehr heterogene Gruppe organischer Verbindungen, die aus Isoprenoder Isopentenyleinheiten abgeleitet sind. Sie gehören zu den Lipiden und sind schlecht wasserlöslich. Thermohaline Zirkulation
Synapse
Kontaktstelle zwischen zwei Nervenzellen oder einer Nervenzelle und einem anderen Zelltyp. Spezielle Botenstoffe (Neurotransmitter) werden von der „Senderzelle“ in den Spalt zwischen den beiden Nervenendigungen freigesetzt und von der „Empfängerzelle“ aufgenommen. Teilchenbeschleuniger
In einem Teilchenbeschleuniger werden geladene Teilchen, wie beispielsweise Atom-
Meeresströmungen, die durch den Unterschied in Temperatur und Salzgehalt und somit der Dichte des Wassers hervorgerufen werden. Die thermohaline Zirkulation des Nordatlantiks gehört zu den großen Umwälzbewegungen in den Ozeanen und hat ihren Dreh- und Angelpunkt in Subpolargebiet. Dort sacken kalte Wassermassen in die Tiefe und strömen als Teil des so genannten conveyor belt am Grund des Atlantiks zurück in tropische Regionen.
243
TU
transgen
Als transgen wird ein Organismus bezeichnet, der durch gentechnische Manipulation Gene einer anderen Tier- oder Pflanzenart in sich trägt. Transgene Bakterien werden beispielsweise zur Produktion von in der Industrie benötigten Substanzen, aber auch von Medikamenten, eingesetzt. Nutzpflanzen können bereits heute gentechnisch so verändert werden, dass sie Abwehrstoffe gegen Schädlinge produzieren.
Da in diesem Punkt alle bisher etablierten physikalischen Theorien nicht greifen, existiert bisher keine allgemeingültige physikalische Beschreibung dieses Zustands und der begleitenden Prozesse. Noch ist auch nicht eindeutig geklärt, ob der Urknall wirklich der Beginn von allem war, oder aber ob er möglicherweise nur den Übergang eines zuvor bestehenden Zustands des Universums in seine heutige Form markiert. Verwerfung
Treibhausgas
Treibhausgase sind unter anderem Wasserdampf, Kohlendioxid, Methan, Lachgas, Ozon und zahlreiche schwefel- und fluorhaltige Gase. Sie tragen in der Atmosphäre zu einer Erwärmung auf der Erde bei, indem sie die von der Erdoberfläche abgestrahlte langwellige Wärmestrahlung teilweise reflektieren oder absorbieren, sodass diese nicht wieder in das All abgegeben werden kann. Ohne den natürlichen Treibhauseffekt läge die Mitteltemperatur der Erde nicht bei ca. 15°C, sondern lediglich bei -15°C. Durch den vermehrten Ausstoß von Treibhausgasen durch den Menschen wird der Treibhauseffekt verstärkt – als Folge davon steigen die globalen Mitteltemperaturen an.
Trennfugen in Gesteinen oder Gesteinsschollen, an denen eine Verschiebung oder Verstellung stattgefunden hat. Verwerfungen liegen im Bereich von Zentimetern bis hin zu Kilometern. Ein anderer Ausdruck für Verwerfung ist Störung. Vesikel
Vesikel sind kleine, von einer einfachen Membran umgebene Bläschen, die innerhalb der Zellen als „Transporter“ für bestimmte Substanzen fungieren. In den Nervenzellen werden beispielsweise die Botenstoffe (Neurotransmitter) in solchen Vesikeln vom Zellkörper in die Nervenendigungen transportiert. Virus
Tsunami
Durch untermeerische Vulkanausbrüche, Erdbeben oder Erdrutsche verursachte Flutwelle. Tsunamis können sich über Tausende von Kilometern ausdehnen, beim Auftreffen auf die Küste bis zu 30 Meter hoch werden und dabei ganze Landstriche verwüsten. Urknall
Der Begriff „Urknall“ (englisch „Big Bang“) bezeichnet den Beginn und die Frühzeit des Universums. Nach vorherrschender Lehrmeinung markiert der Urknall den Beginn sowohl aller Materie als auch der Raumzeit.
244
Im Gegensatz zu Bakterien besitzen Viren keinen eigenen Stoffwechsel. Sie bestehen fast nur aus ihrer Erbinformation, je nach Virentyp in Form von DNA oder RNA, und einer Hülle. Für ihre Vermehrung sind sie auf die Zellen ihres jeweiligen Wirtes angewiesen. Sie „kapern“ die Zellmaschinerie und bringen sie dazu, Virenproteine und neue Virengenome zu produzieren. Beim Freisetzen der neuen Viren wird die Wirtszelle zerstört. Warmzeiten
Warmzeiten (oder Interglaziale) sind Zeitabschnitte, die zwei Kaltzeiten vonein-
GLOSSAR
ander trennen. Sie besitzen ein wärmeres Klima, sodass es in diesen Zeiten zu einem Abschmelzen des Eises kommt.
ausbildet, die die Chromosomenhälften auseinander ziehen (s. Spindelapparat). Zona pellucida
Weißer Zwerg
Endstadium eines Sterns. Durch das Versiegen der Kernfusion in seinem Inneren wurde die äußere Hülle beim Übergang vom Stadium des Roten Riesen abgestoßen. Die Temperatur im Inneren beträgt nur noch zwischen 10.000 und 100.000 Grad, somit leuchtet der Stern weiß. Im Laufe einiger Milliarden Jahre kühlt er weiter aus und endet schließlich als erloschener Stern, als Schwarzer Zwerg. Wellenlänge
WZ
Die Zona pellucida, auch als „Glashaut“ bezeichnet, ist eine unter anderem aus Glykoproteinen bestehende Schutzhülle um die Eizelle. Sie spielt eine entscheidende Rolle bei der Befruchtung der Eizelle. Beim ersten Kontakt mit einer Spermienzelle ändert sie ihre Struktur und die auf ihrer Außenseite liegenden Rezeptoren und ermöglicht so dem Spermium das Eindringen in die Eizelle. Danach verändert sie erneut ihre Struktur und verwehrt so allen weiteren Spermien den Zugang.
Die Wellenlänge entspricht dem Abstand zweier benachbarter Wellenberge oder Wellentäler. Die Bestimmung der Wellenlängen des Lichts (Spektroskopie), das von Atomen und Molekülen ausgesendet wird, liefert wichtige Hinweise auf die Zusammensetzung und Physik beispielsweise von entfernten Sternen und Planeten, aber auch von Atomen und Teilchen auf der Erde. WHO
Die World Health Organisation (WHO) wurde am 7. April 1948 gegründet. Sie ist eine Behörde der Vereinten Nationen mit der Aufgabe, die internationale öffentliche Gesundheit zu fördern und Maßnahmen in diesem Bereich zu koordinieren. Zellkern
Der Zellkern ist ein gegenüber dem Zellplasma durch eine Doppelmembran abgetrennter Raum, in dem sich die DNA befindet. Zentrosomen
Das Zentrosom spielt eine wichtige Rolle bei der Zellteilung: Es ist der Organisator der Zellteilung, indem es als so genannter Spindelpol die Mikrotubuli, Proteinfasern,
245
Index A Abschmelzen, Grönlandeis 23 Abwehrstrategie bei Pflanzen 170 Adhäsion 142 Adulte Stammzellen 158 Aerosol 21, 76 AIDS 35, 46, 99, 105 Akkretionsscheibe 62 Akku, Lithium-Ionen 22 Aluminium 16 Alzheimer 27, 51 Ameise 17, 29, 39 Ampferblattkäfers 212 Andromedanebel 39, 61 Anerkennung 23 Angiogenese 107 Antarktis 27 Anthrax 9, 211 Antibiotika 26 Antigen 101 Antihaft-Beschichtung 145 Artbildung, sympatrische 21 Arten 46 Artensterben 38, 42 Atemnot 22 Atlantik 13 Atmosphäre 10, 16, 42, 75 Atom 218
B Bakterien 11, 24, 29, 33, 37, 46, 48, 56, 177, 217 BCG-Impfstoff 100 Bevölkerung 191 Bildung, frühkindliche 188 Bildungssystem 184 Biodiversität 42, 83 Biomarker 104 Bionik 140 Biosphäre, tiefe 176 Bogenlampen 151 Botenstoffe 24, 45, 166, 188 Braneworld-Theorie 125 Brennstoffzelle 26
C CARD-FISH-Technik 179 Cäsiumatomuhr 134 Cassini 66 CDA 68 Chip 149 Chlorophyll 40, 48 Cholesterin 48 Chromosom 19, 29, 158, 162 Contergan 110 Cosmic Dust Analyzer 68
D Darwin 21, 45 Demografischer Wandel 191
246
Descent Imager/Spectral Radiometer 69 Desertifikation 5 Deutscher Zukunftspreis 10 Digital Sloan Sky Survey 62 Dihydroxyphenylalanin 145 Dinosaurier 14, 21, 23, 26, 37, 41 Direkteinspritztechnik 10 Dispersionen 222 DISR 69 DNA 20, 28, 50, 52, 56, 156, 203 DNA-Sequenzierung 203 Dolly 156 Doppelpulsar 50 Doppelstern 34, 221 Drosophila 20 Duftbotschaften 171 Duftstoffe 25 Düne 42
E Ebolavirus 16 Einstein, Albert 50, 60, 62 Einstein, kosmologische Konstante 11 Einzeller 180 Eiszeit 9 Eiweiß-Plaques 27 Eizelle 161 Elektromagnetisches Spektrum 132 Elektronenmikroskop 23 Embryonale Stammzellen 154 Enceladus 70 Entwicklungsländer 6 Erbgut 203 Erdbeben 85, 223 Erdölentstehung 32 Erdsystemmodell 84 Ereignishorizont 62 Eukaryoten 57 Evolution 26, 28, 44, 45, 47, 172, 200
F Farbe 12 Festkörperphysik 15 Fettsäuren 24 Fire, Andrew 52 FISH 180 Flossen, Haifisch- 44 Flughund 16 Fluorescence in situ hybridisation 180 Fluoreszenz 165 Fluoreszenzmarker 166 Flüssigkeit, Entmischung 15 Fossil, lebendes 25 Fossil, neu entdecktes 26 Freak waves 49
Frequenzkamm, optischer 134 Frühwarnsystem 88 Fullerene 149 Fußball, Roboter- 4
G Galaxie 45, 47, 54, 61, 225 Gamma-ray Large Area Space Telescope 127 Gammastrahlen 14 Gammastrahlung 31 Geburtenrate 193 Geburtenziffer 192 Gecko 141 Gedankenkraft 42 Gehirn 19, 21, 25, 33, 38, 40, 112 Gehirnforschung 188 Gekoppelte Modelle 76 Geldschein 19 Genexpression 160 Genom, Mammut 15 Genom, Neandertaler 200 Genom, Rhesusaffe 21 Gensequenz 14 Genverdoppelung 172 Geräusche 12 Gesellschaft 46 Gesichtsscreme 8 Geysir 44 GLAST 127 Gletscher, Abschmelzen 18 Gletschererosion 14 globale Erwärmung 78 Global Deserts Outlook 6 Glückshormon 29 Grammatik 21 Granulozyten 217 Graphit 42 Gravitation 126 Gravitationswelle 62 Gravitationswellen-Detektor 62 Gravity Assist 67 Grönland 23 Gruppenverhalten 28
H H1N1 119 H5N1 116 Haarsinneszellen 215 Hafthärchen 143 Haftkontakt 212 Haftsystem 141 Halbleiter 43, 49 Hautfarbe 15 Hawaii-Vulkane 18 Hawking, Steven 65 Helium 14 HIV 46 HLRE 78 Hochwasser 75
Homo florensis 36 Homo neanderthaliensis 201 Homo sapiens 201 Hubble 61 Hund, Gensequenz 14 Hurrikan Katrina 224 Huygens 66
I Immunsystem 12, 16, 22, 37, 39, 99, 217 Impfstoff 18, 104 Infektionskrankheiten, Bekämpfung 19 Informatik, Jahr der 2 Initiative Stop-TB 101 Insekt, Haftorgane 17 Insektenauge 31 Intelligenzentwicklung 27 Invent a Chip 4 Io 68 IPCC 79
J Jahrhundertsommer 74 Jahr der Informatik 2 Jet 62 Jupiter 9
K Kabeljau 28 Kaltzeit 27 Kapillarkraft 142 Kindstod 22 Klebstoff 29 Klettverschluss 141 Klimaerwärmung 31 Klimamodell 13, 75 Klimaschutz 78 Klimasystem 76 Klimawandel 8, 21, 23, 50, 74 Klonen 156 Klonschaf Dolly 156 Koch, Robert 99 Koevolution 172 Kohle 17 Kohlenstoffnanoröhrchen 150 Kolloide 12 Kornberg, Roger 56 Kosmetika 9 Kosmologische Konstante 11 Kosmos 20, 26, 30, 43, 54 Krebs 13, 34, 40, 46, 106 Kristall 12, 25, 136, 218, 222 Kunstdenkmal, Reinigung 32 Kunststoff 40
L Landwirtschaft 82 Langzeiterinnerung 47 Large Hadron Collider 63, 126
Laser 30, 32 Laserfrequenzkamm 131 Laserlicht 131 Lasertechnik 24 Laser Interferometer Space Antenna 62 Lebenserwartung 191 Lebensstil 195 Lebertransplantation 29 Leidenfrost-Effekt 28 LHC 63, 126 Licht 32, 216 Lichtcomputer 38 Lichtantrieb 25, 30 Lichtfrequenz 131 Lichtgeschwindigkeit 127 Lichtmikroskop 165 LIDAR 89 Light detection and ranging 89 LISA 62 Loops 123
M Magerkohle 17 MAGIC-Projekt 34 Magmaplumes 18 Magnetfeld der Erde 11 Magnetresonanztomografie, funktionelle 113 Makrophagen 99 Malaria 22, 99 Mammut 15, 41, 204 Materie 26, 55, 123, 216 Mather, John C. 54 Meeressediment 176 Meeresspiegelanstieg 21, 23, 79 Meerestemperaturen 21 Meereswurm 51 Megacity 90 Mehltau 173 Mello, Craig 52 Merapi 88 Metastasen 13 Methan 16 Methanhydrat 178 Migranten-Kinder 32 Milchstraße 20, 45, 61 Milzbrand 9 Mitochondrien 39 Mittelmeer 24, 44 molekulares Imaging 164 Moleküle 43 Moonlet 68 Moore‘sche Gesetz 147 Multiple Sklerose 16 Mutation 162
N Nanomaterialien 23 Nanometer 148
INDEX
Nanomotor 25 Nanoröhrchen 44, 147 Nanoschicht 13 Nanostrukturen 23 Naturkatastrophen 85 Neandertaler 200 Nervenfaser 18 Nervenzelle 44, 47, 51, 166, 213 Neuromotorischen Prothese 42 Neuronale Netzwerke 113 Neutrinos 26 Neutronenstern 14, 31 Neutrophile 217 Nierenzellkarzinom 109 Nobelpreis, Chemie 56 Nobelpreis, Medizin 52 Nobelpreis, Physik 54 Nobelpreis, Physiologie 52 Nordanatolische Verwerfung 90 Nordatlantikstrom 13 Nordseeküste 8 Normen 28
O Ocean Drilling Programme 177 OECD-Studie 189 Ökosystem 36, 46
P Pandemie 119 Peapods 149 Pendelfrequenz 136 Pflanze, Stammzellen 15 Pflanze, Abwehrstrategie 170 Pflanze, Genatlas 175 Photosynthese 40 Piezo-Einspritztechnik 10 PISA 8, 184 Planet, extrasolarer 19 Planetensystem 37 Pluto 19, 46 Polymere 41, 43 Positronen-Emissions-Tomografie 113 Prime/Boost-Schema 104 Proteine 30, 34, 98 Protonen 24 Pulsar 43
Q Quanten 8, 22, 30 Quantencomputer 33 Quantenmechanik 133 Quantenteleportation 22 Quantentheorie 122, 125 Quark 123 Quasar 30
R Radioteleskope, verbinden 62
Rasterkraftmikroskop 143 Raum-Zeit-Gefüge 61, 123 Relativitätstheorie 50, 60, 124 reproduktives Klonen 156 Reprogrammierung 155 Resistenz 10 Rhesusaffe, Genom des 21 Riechzentrum 25 Rituximab 107 RNA 34, 38, 56 RNA-Interferenz 52, 106 RoboCup 4 Roboter 26 Rohstoffe 17
S San Andreas-Graben 223 Saturn 11, 13, 43, 66 Saturnringe 66 Säuger, neu entdeckter 25 Säugerfossil 23 Säugetiere, Evolution der 28 Schierlingsbecher 170 Schimpanse 18 Schleifen-Quantengravitation 124, 127 Schwarzes Loch 14, 60, 64, 221 SDSS 62, 63 Seebeben 93 Senioren 27 Serotonin 29 Seta 143 Seuchen 19 Silberatom 19, 45 Silizium 30, 219 Siliziumchips 150 Singularität 62 Sloan Digital Sky Survey 63 Smoot, George F. 54 Sonne 9, 42 Sonnenaktivität 50 Sonneneinstrahlung 9 Sonnensystem 20, 46 Spatulae 141 Spektroskopie 131 Sprache 21 Stammzellen 154 Stammzellen, Adulte 158 Stammzellen, Embryonale 154 Stammzellforschung 155, 162 Stammzelltherapie 160 STED-Mikroskop 165 Steinzeitjäger 10 Sternenbildungsrate 64 Stichtagsregelung 163 Stimulated Emission Depletion Mikroskopie 166 Stresshormone 47 Strings 123 Stringtheorie 123 Stromakarzinom 109
Sturmflut 8 Südsternwarte, Europäische 62 Supercomputer 79 Supernova 16, 20, 47 Süßrezeptor 31 Süßstoff 31 Sutent 109 Swing-by-Manöver 67 Symmetrie 126
T T-Lymphozyten 99 Tabakpflanze 18 Taufliege 20 Teilchen, Ausbreitung 22 Teilchenbeschleuniger 126 Telomere 162 therapeutischen Klonen 156 Tiefe Biosphäre 176 Tiefsee 24 Tierarten 20 Titan 43, 67 Tourismus 83 Transistor 45, 147 Transkription 56 Treibhauseffekt 78 Treibhausgas 16 Tsunami 35, 85 Tsunami-Frühwarnsysten 91 Tuberkel-Bazillus 99 Tuberkulose 35, 99, 100 Tuberkulose, Impfstoff 103 Tumor 13, 41, 106 Tumor, Therapie 110 Tumormarker 214 Tyrannosauriden, Evolution der 21
W Warmzeit 27 Wasserspaltung 40 Wasserstoff 15 Wassertropfen 28 Welle, schwebende 133 Weltraumteleskop 61 Wirbelsturm Katrina 224 Wirbeltiere 47 Wissenschaftsjahr 4 Wollhaarmammut 15 Wüsten, UN-Jahr der 5 Wüstenbildung 7
X X-Chromosom 19
Z Zecke 18 Zeitangabe 134 Zelle 34 Zelle, eukaryotische 56 Zellmembrane 44 Zwergplanet 46
U Uhrwerk 136 UN-Jahr 5 Universum 24, 26, 30, 45, 54, 62, 124 Urknall 54, 124 Urmensch 47 Urmeter 130
V Vakuole 99 van-der-Waals-Kräfte 142 Very Long Baseline Interferometry 62 Vesikel 102 Virenerkennungssoftware 12 Virus 98 VLBI 62 Vogelgrippe 23, 27, 116 Volatile organic compounds 171 Vulkan 18, 21 Vulkan, extraterrestrischer 68
247