Len Fisher
Reise zum Mittelpunkt des Frühstückseis Streifzüge durch die Physik der alltäglichen Dinge
scanned by unkno...
29 downloads
828 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Len Fisher
Reise zum Mittelpunkt des Frühstückseis Streifzüge durch die Physik der alltäglichen Dinge
scanned by unknown corrected by jens Was entdeckte Graf Rumford, als er sich den Mund an einem Stück Apfelstrudel verbrannte? Was verrät Hydrostatik über Sex? Und was zählen Physiker, wenn sie nicht einschlafen können? Anhand unserer Alltagsaktivitäten erklärt uns Len Fisher die Welt der Naturwissenschaften: angefangen von der Chemie des morgendlichen Frühstückseis über die Physik der Heimwerkerei, die Statistik im Supermarkt bis hin zum Geheimnis eines gut gezapften Bieres am Abend. Nach der Lektüre sieht man die Welt mit anderen Augen ISBN 3-593-37193-6 Originalausgabe How to dunk a Doughnut Aus dem Englischen von Carl Freytag 2003 Campus Verlag GmbH, Frankfurt/Main Umschlaggestaltung: RGB, Hamburg Umschlagmotiv: Photonica, Hamburg
Dieses E-Book ist nicht zum Verkauf bestimmt!!!
Len Fisher ist Physiker an der Universität Bristol und Kolumnist des Guardian. Der gebürtige Australier wendet Grundsätze der Physik, Chemie und Biologie auf Lebensmittel an - mit verblüffenden Ergebnissen. Sein Experiment über die Eintunkzeit von Keksen machte ihn berühmt und brachte ihm den IgNobelpreis, eine Parodie auf den Nobelpreis, für Physik ein. Fisher ist Mitglied der Royal Society of Chemistry und aufgrund seiner exotischen Projekte ein gefragter Interviewpartner in den Medien.
Einleitung: Die Physik der kleinen Dinge......................................................5 1 Die Kunst und Wissenschaft des Kekseintunkens .................................10 2 Wie der Naturwissenschaftler sein Frühstücksei kocht .......................37 3 Zen oder die Kunst, einen Hammer zu schwingen ................................59 Werkzeuge mit Hebelwirkung....................................................................... 75 Werkzeuge mit Keilwirkung ......................................................................... 89 Schlagwerkzeuge ............................................................................................. 97 4 Wie Sie am klügsten Ihren Kassenzettel überprüfen......................... 102 Achten Sie auf Euro, Pfund und Franken! ................................................104 Rechenkünste im Supermarkt ......................................................................108 Statistische Tricks ..........................................................................................110 Preisvergleich .................................................................................................116 Einkaufsstrategien .........................................................................................118 5 Die Kunst, einen Bumerang zu werfen .................................................. 120 6 Catch-as-Catch-can: Von der Kunst, einen Ball zu fangen1 ............ 140 7 Seifenblasen, Bierschaum und der Sinn des Lebens .......................... 156 Wenn sich Seifenmoleküle zusammentun.................................................163 Die Gestalt der Moleküle .............................................................................172 Die große Synthese........................................................................................184 8 Geschmackssache......................................................................................... 188 Essen und die Erregung aller Sinne............................................................190 Das Auge isst mit ...........................................................................................192 Kauprozesse....................................................................................................202 Riechen und schmecken, Genuss und Schmerz .......................................206 Geschmackslawinen ......................................................................................215 9 Sex und Physik.............................................................................................. 221 Erste Stufe: Fertigmachen zum Start ..........................................................224 Zweite Stufe: Das Rennen beginnt.............................................................229 Dritte Stufe: Dem Ziel entgegen.................................................................236
Forscherdrang und gesellschaftliche Verantwortung: eine Schlussbetrachtung ................................................................................ 244 Anhang ............................................................................................................... 251 Anhang l Mayer, Joule und der Energiebegriff ........................................251 Anhang 2: Was treiben die Moleküle beim Kochen, Braten und Backen? ..........................................................................................................................256 Anmerkungen.................................................................................................261
Wissenschaftlern geht es wie Henkern: Durch ihre Arbeit geraten sie ins soziale Abseits. Die Leute zeigen zwar Neugier und wollen wissen, wie sie auf gerade diesen Job gekommen sind, aber sie haben eine gewisse Scheu, nach den Einzelheiten zu fragen. Bei einem Wissenschaftler haben sie Angst, die Antworten auf ihre Fragen nicht zu begreifen und als dumm dazustehen. Wenn Gäste auf einer Party mitbekommen, dass ich Wissenschaftler bin, wenden sie sich oft an meine Frau und wollen von ihr wissen, was ich eigentlich so treibe - statt mich selbst zu fragen. Mein Buch versucht, die »Wissenschaft von den alltäglichen Dingen« aus der Perspektive eines Insiders zu betrachten, und ist genau diesen Leuten gewidmet - und allen, die erfahren wollen, warum sich Wissenschaftler ihren Beruf ausgesucht haben und wie sie Forschung betreiben. Ich habe mit diesem Ansatz in den Medien mit Erfolg demonstriert, dass die Naturwissenschaften in vielen Alltagssituationen von Nutzen sind: Das geht vom Eintunken eines Kekses in den Frühstückstee über den Gebrauch von Bratensoße bis zum Bauen und Werfen von Bumerangs in geschlossenen Räumen. Das breite öffentliche Interesse an solchen Themen hat mich ermutigt, dieses Buch zu schreiben, um den Hintergrund etwas mehr auszuleuchten und über weitere Bereiche des Alltagslebens zu berichten das Einkaufen, die Arbeiten im Haushalt, den Sport, das Essen, die Badewanne - und sogar darüber, wie die Physik helfen kann, die Geheimnisse des Sexuallebens besser zu verstehen. -5
Wir werden sehen, was die Wissenschaft zur Bewältigung des Alltags beitragen kann, aber auch, was sie umgekehrt aus den Untersuchungen des Alltäglichen gelernt hat: Das Prinzip der Wärmeleitung entdeckte Graf Rumford, nachdem er sich den Mund an einem heißen Apfelkuchen verbrannt hatte, und die erste Messung der Größe eines Moleküls gelang Benjamin Franklin, nachdem er beobachtet hatte, wie schmutziges Abwaschwasser die Wellen hinter einem Schiff besänftigte. Auch die erste Schätzung, wie weit die Kräfte zwischen den Molekülen reichen, wäre hier zu nennen: Sie gelang, als man untersuchte, wie poröse Stoffe Flüssigkeiten aufsaugen. Jedes der folgenden Kapitel handelt von einer vertrauten Aktivität im Tagesablauf und stellt ein wichtiges wissenschaftliches Konzept vor, das dabei zum Tragen kommt. Mit der Wissenschaftsgeschichte sind Geschichten über die Wissenschaftler verknüpft, zu denen viele Zeitgenossen zählen, aber auch berühmte Gestalten aus der Vergangenheit. Die Letzteren können mich nicht mehr davon abhalten, etwas über sie auszuplaudern, die noch Lebenden haben das meiste gelesen, was ich veröffentlichen wollte, und freundlicherweise keine Zensur ausgeübt. Die Wissenschaft der Alltagsdinge ist einer der erfolgversprechendsten Wege, Nichtwissenschaftlern die Wissenschaften nahe zu bringen. Michael Faraday, der Pionier der Elektrizitätslehre, gehörte zu den Ersten, die das versuchten, als er vor über 150 Jahren populäre Vorträge über die »Chemie einer Kerze« hielt, die von der besseren Londoner Gesellschaft in Scharen besucht wurden. Viele andere sind Faradays Beispiel gefolgt - so auch ich. Nicht jeder ist von solchen Bemühungen begeistert. Einige meiner Kollegen sind der Meinung, dass man die Wissenschaft trivialisiert, wenn man über Experimente berichtet, in denen es um so etwas Banales wie das Eintunken von Keksen geht. Andere haben mich ins Gebet genommen, weil ich die Wissenschaft in Bereiche getragen habe, wo sie -6
ihrer Meinung nach nichts zu suchen hat. In einem Zeitungskommentar bin ich gar als eine »Art Experte« beschrieben worden, der »auf keinen Teller Fish 'n Chips schauen kann, ohne eine Probe in ein Reagenzglas abzufüllen und ein paar Berechnungen aufzukritzeln«. Der Autor dieses Beitrags war über mich verärgert, weil ich das Aufsaugen der Soße durch den Braten zum Gegenstand der Forschung gemacht hatte. Dabei hat er aber ungewollt den Punkt getroffen, um den es der Wissenschaft eigentlich geht: die Welt zu verstehen. Dieses Verständnis kann im gleichen Maß von den kleinen und auf den ersten Blick unbedeutenden Dingen kommen wie aus der Versenkung in die »großen« Themen. Viele Künstler, Dichter und Philosophen haben ganz ähnlich in den scheinbar banalsten Bereichen des Lebens die tiefsten Wahrheiten gefunden. Wissenschaftler wollen die Welt um sie herum - unabhängig von Zeit, Ort oder sozialer Zugehörigkeit - auf streng wissenschaftliche Weise beschreiben. Das kann bei dem einen oder anderen leicht dazu führen, dass er etwas seltsam wird. So suchte beispielsweise der Physiker James Prescott Joule, nachdem er gerade geheiratet hatte, als Ziel für die Hochzeitsreise einen malerischen Wasserfall aus. Es waren aber weniger romantische Gründe, die zur Wahl dieses Platzes führten, sondern rein wissenschaftliches Interesse: Er nahm ein Thermometer mit, um die Temperatur des herabstürzenden Wassers zu messen und seine Wärmetheorie zu bestätigen. Als einer meiner früheren Kollegen in ein Unwetter geraten war, sah seine strengrationale, wissenschaftliche Reaktion so aus, dass er seine durchweichten Kleider auszog und sich selbst in seinem Labor nackt über die Heizung zum Trocknen legte - und damit eine ahnungslose Putzfrau fast zu Tode erschreckte. Wir werden in diesem Buch vielen - meist bekleideten Wissenschaftlern begegnen: aus vergangenen Zeiten und aus unseren Tagen, mit verschiedenem kulturellem Hintergrund und -7
mit den unterschiedlichsten wissenschaftlichen und sozialen Zielen. Alle haben jedoch die Vorstellung gemeinsam, dass die Schönheit der Natur noch deutlicher hervortritt, wenn man sie wissenschaftlich erklären kann, und dass diese Erkenntnis se ihre eigene Schönheit haben gleichgültig, ob es um die ganz großen Dinge geht oder um Alltagskram. Mir geht es vor allem um die Schönheit, die in den kleinen vertrauten Dingen steckt. Ich hätte dieses Ziel nicht ohne die Hilfe vieler meiner Freunde und Kollegen erreichen können, die sich die Zeit genommen haben, mit mir Fragen zu diskutieren, meine Entwürfe zu lesen, mit ihrem Fachwissen Fehler auszumerzen und selber Erhellendes beizusteuern. Zu denen, die wesentliche Beiträge geleistet haben, gehören (in alphabetischer Reihenfolge) Marc Abrahams, Lindsay Aitkin, Bob Aveyard, Peter Barham, Geoff Barnes, Gary Beauchamp, Tony Blake, Fritz Blank, Stuart Burgess, Arch Corriher, Terry Cosgrove, Neil Fur long, John Gregory, Simon Hanna, Michael Hanson, Robin Heath, Roger Highfield, Philip Jones, Harold McGee, Eileen McLaughlin, Mervyn Miles, Emma Mitchell, David Needham, Jeff Odell, Jeff Palmer, Alan Parker, Ric Pashley, Bob Reid, Harry Rothman, Sean Slade, Burt Slotnick, Elizabeth Thomas, Brian Vincent und Lawrence West. Ich fürchte, dass mir die Namen von anderen, die für mich in gleicher Weise wichtig waren, erst einfallen werden, wenn das Buch schon gedruckt ist. Ganz besonders möchte ich meiner Agentin Barbara Levy und meinen Herausgebern Peter Tallack und Richard Milner dafür danken, dass sie mich zu meinem Unternehmen ermutigt und meiner Fähigkeit vertraut haben, es auch zu einem Ende zu bringen. Ganz besonderer Dank gilt meiner Frau Wendy, die immer wieder die Versionen der einzelnen Kapitel mit den Augen einer künftigen Leserin durchging und mit ihren scharfsinnigen Kommentaren viel dazu beigetragen hat, Unklarheiten zu beseitigen und das Buch lesbarer zu machen. -8
Das Buch ist bewusst so gestaltet, dass man jedes Kapitel für sich lesen kann - aber auch das gesamte Buch als durchgehende Geschichte. Darüber hinaus gab es eine Reihe faszinierender Seitenwege, unterhaltsame Anekdoten und kleinere interessante Punkte, die ich nicht im Haupttext untergebracht habe, weil sie den Fortgang der Geschichte unterbrochen hätten. Sie sind stattdessen in die Anmerkungen gewandert. Der Leser kann dort Rat finden, wie man als Betrunkener gehen sollte (oder versuchen sollte, zu gehen), wie man am besten scharfe Chilischoten isst, welch strenge Regeln bei der Mudgeeraba Creek Emu Racing and Boomerang Throwing Association gelten und weshalb ein amerikanischer Bundesstaat einen anderen des Diebstahls von Regen bezichtigen konnte. Diese und andere kleine Leckerbissen gehören in gleichem Maße zu dem Buch wie der Haupttext, und ich ho ffe, dass der Leser bei der Lektüre ebenso viel Spaß haben wird, wie ich bei der Suche nach ihnen und beim Niederschreiben. Nunney, Somerset, im März 2002
-9
Eines der Hauptprobleme von Wissenschaftlern, die einem breiteren Publikum ihr Weltbild erklären wollen, ist der unterschiedliche Wissensstand. Man muss kein Schriftsteller sein, um einen Roman lesen und verstehen zu können, man muss auch kein Maler sein, um an einem Bild Gefallen zu finden. Sowohl der Ro man als auch das Bild knüpfen an unsere alltäglichen Erfahrungen an. Bevor man aber Forschungsresultate verstehen und würdigen kann, muss man sich ein Mindestmaß an wissenschaftlichen Kenntnissen aneignen, weil die Sprache der Wissenschaft für die meisten Menschen ein Buch mit sieben Siegeln ist. Das fängt mit der Frage an, wie sich Atome und Moleküle zueinander verhalten. Dass solche Teilchen existieren, gehört heutzutage zur Allgemeinbildung, was aber einen der Gäste auf einer Dinner-Party nicht davon abhielt, mit einem »Oh! Sie sind Naturwissenschaftler! Ich hab davon zwar keine Ahnung, aber immerhin weiß ich, dass Atome aus Molekülen gebaut sind!« herauszuplatzen. Bei dieser Bemerkung ist mir klar geworden, wie schwierig es sein kann, sich das Aussehen einzelner Elementarteilchen vorzustellen und sich auszumalen, wie sie sich in ihrer Miniaturwelt verhalten, wenn man nicht jeden Tag beruflich mit ihnen zu tun hat. Zu den Ersten, die sich damit befasst haben, gehörten Naturwissenschaftler, die verstehen wo llten, durch welche Kräfte Flüssigkeiten von porösen Stoffen aufgesaugt werden. Eine der klassischen Situationen ist, wenn beim Frühstück der -10
eingetunkte Keks Tee aufsaugt. Deshalb war ich höchst erfreut, als mich eine englische Werbeagentur bat, die Physik des Kekseintunkens allgemein verständlich darzustellen. Ich erhoffte mir eine gute Gelegenheit, einige Eigenschaften von Atomen und Molekülen im Rahmen von Alltagssituationen zu erklären. Darüber hinaus konnte ich vielleicht zeigen, welche Strategien Wissenschaftler anwenden, wenn sie mit einem neuen Problem konfrontiert werden. Etwas weniger erfreut war ich, als ich für meine Anstrengungen mit der Verleihung des IgNobelpreises, einer Parodie auf den Nobelpreis, belohnt wurde. Die Hälfte dieser Preise wird jedes Jahr für »Forschung, die nie wiederholt werden kann - und besser auch nicht wiederholt werden sollte« verliehen. Die andere Hälfte ist für Projekte, die »das öffentliche Interesse an Forschung anregen«. Unglücklicherweise und zur Verwirrung vieler Journalisten lassen sich die Organisatoren von der Harvard University nicht dazu herab zu sagen, zu welcher der beiden Kategorien der jeweilige Preis gehört. Andererseits habe ich zu meiner großen Freude Briefe von Schülern bekommen, die von dem Drumherum bei der Preisverleihung und den Projekten begeistert waren. Ein amerikanischer Schüler bat mich um Hilfe für sein Schulprojekt, bei dem er den Unterschied zwischen Keksen und Donuts herausarbeiten wollte. Er schrieb mir später voll Stolz, er habe dafür eine »Eins« bekommen. In diesem Kapitel geht es um das Kekseintunkprojekt und um die Erforschung der Gesetzmäßigkeiten, die dem Eintunken zugrunde liegen, aber auch für andere Prozesse gelten, die von der Förderung von Erdöl über die Aufnahmefähigkeit des Bodens bei Wolkenbrüchen bis zum Wassertransport aus den Wurzeln in die Blätter und Nadeln hoher Bäume reichen. Möglicherweise sind Donuts von Haus aus zum Eintunken geschaffen worden. Sie werden wie Brot durch ein elastisches Netzwerk1 eines Proteins zusammengehalten, dem Gluten. -11
Diesen Stoff kann man dehnen und irgendwann reißt er auch, wenn man den Teigring in heißen Kaffee tunkt, aber er löst sich nicht allzu schnell auf, wenn die Flüssigkeit in das Netzwerk aus Löchern und Kanälen eingesaugt wird.2 Der Do nuteintunker hat daher viel Zeit und muss nur Pausen einlegen, um die Brühe in die Tasse abtropfen zu lassen, bevor er den Teigring seinem geöffneten Mund nähert. Das einzige Problem besteht in der Auswahl der Sorte, wozu die Wissenschaft Entscheidendes beitragen kann, wie wir weiter unten sehen werden. Kekseintunker haben es dagegen weit schwerer. Wenn man einer aktuellen Umfrage glaubt, die im Zusammenhang mit dem Kekseintunkprojekt durchgeführt wurde, so überleben nur vier von fünf Keksen das Eintunken. 3 Beim fünften bleibt dem Eintunker nichts anderes übrig, als auf dem Boden der Tasse nach den aufgeweichten Resten zu fischen. Das Problem für den passionierten Kekseintunker besteht darin, dass heißer Tee oder Kaffee den Zucker im Keks auflöst, das Fett zum Schmelzen bringt und die Stärketeilchen anschwellen und weich werden lässt. Schließlich kollabiert dann der vollgesogene Keks unter seinem Eigengewicht. Kann die Wissenschaft Hilfestellung leisten, damit die eingeschworenen Kekseintunker mit den Donuteintunkern gleichziehen können? Kann die Wissenschaft, auf deren Konto so außerordentliche Errungenschaften in Sport und Raumfahrt gehen, auch dazu beitragen, eine ultimative Eintunkweise für Kekse aller Art zu entwickeln und damit jenen fünften, lebenswicht igen zu retten? Diese und ähnliche Fragen wurden mir von der Werbeagentur gestellt, die eine »Nationale Kekseintunkwoche« proklamieren wollte. Als jemand, der immer schon gern mit Erkenntnissen über Alltagsdinge und Alltagsprozesse die Wissenschaft, die ihnen zugrunde liegt, unter das Volk bringen wollte, war ich ganz angetan davon, einen Versuch mit der »Physik des Kekseintunkens« machen zu können. Es schien mir eine gute Gelegenheit, um mit einer nicht -12
allzu »schwergewichtigen« Forschungsarbeit zu zeigen, wie Wissenschaft »funktioniert« und darüber hinaus damit in die Medien zu kommen: im Dienst der Wissenschaft (und zum Nutzen der Werbeagentur). Die Werbeleute gingen von vornherein davon aus, dass das öffentliche Interesse an dem Unternehmen äußerst stark sein würde, es war ihnen nur nicht ganz klar, wie stark es sein würde! Die Story vom Kekseintunken, die schließlich in allen britischen Medien auftauchte, hatte weltweiten Erfolg und gelangte bis ins amerikanische Frühstücksfernsehen, wo ich an einer hochwissenschaftlichen Diskussion über die Vor- und Nachteile des Donuteintunkens gegenüber dem von Keksen teilnahm. Wie groß das Interesse für »verständliche« Wissenschaft ist, zeigte sich einmal in Sydney bei einer Wissenschaftssendung im Radio, bei der mich Zuhörer anrufen konnten. Die Station »Triple-J«, die sonst eher auf Rockmusik spezialisiert ist, erhielt in einer Viertelstunde 7000 Anrufe.4 Die Werbeleute hatten ihre eigene vorgefasste Meinung von der Wissenschaft. Sie wollten »Entdeckungen« sehen, die Schlagzeilen machen würden. Werbeleute und Journalisten sind nicht die Einzigen, für die Wissenschaft nur aus »Entdeckungen« besteht. Auch manche Wissenschaftler denken so. Kurz nachdem im Jahre 1660 in London die Royal Society gegründet worden war, stellte man Robert Hooke als »Kurator für Experimente« ein und betraute ihn mit der Aufgabe, jede Woche »drei oder vier beachtliche Experimente« (also Entdeckungen) zu machen und sie den Mitgliedern der Society vorzuführen. 5 Bei diesem Leistungsdruck nimmt es kaum wunder, dass Hooke zeitgenössischen Berichten zufolge äußerst reizbar wurde und sein ausgezehrtes Antlitz von immer zerzausteren Locken umrahmt war. Er hat dann wirklich viele Entdeckungen gemacht und damit Neuland eröffnet, aber wenige Untersuchungen weiterführen und abschließen können. Ich musste den Werbeleuten sagen, dass vielleicht ein Hooke in -13
der Lage war, etwas Neues zu entdecken, ich aber nicht, weil normalerweise wissenschaftliche Arbeit anders aussieht. Wissenschaftler haben in der Regel nicht vor, Entdeckungen zu machen: Sie wollen Geschichten davon erzählen, wie etwas funktioniert. Manchmal kommt es dann doch vor, dass aufgrund einer solchen Geschichte ein völlig neuer Stein für das Gebäude des Wissens oder eine völlig neue Sichtweise der Natur der Dinge gefunden wird - aber das ist ein eher seltenes Ereignis. Ich dachte mir, dass ich mit der Hilfe von Freunden und Kollegen, die im Bereich der Physik oder der Nahrungswissenschaft arbeiteten, eine gewisse Chance hatte, erzählen zu können, was sich beim Eintunken eines Kekses ereignet, aber es war ziemlich unwahrscheinlich, dabei eine »Entdeckung« zu machen. Es ehrt die Werbeleute, dass sie meine Bedenken schließlich akzeptierten: Wir konnten mit der Arbeit beginnen. Die erste Frage, der wir uns stellten, war: »Wie sieht ein Keks für einen Physiker aus?« Das ist eine für die Forschung typische Frage, die man auch so formulieren könnte: »Wie können wir das Problem vereinfachen, damit es lösbar wird?« Ein solcher Forschungsansatz kann manchmal extreme Formen annehmen, wie etwa bei einem berühmten Physiker, den man bat, er solle die maximal mögliche Geschwindigkeit eines Rennpferds berechnen. Der Legende nach antwortete er, dass er durchaus mit einem Ergebnis dienen könne allerdings nur unter der Voraussetzung, dass das Pferd kugelförmig sei. Die meisten Wissenschaftler gehen nicht so weit, wenn sie ein kompliziertes Problem vereinfachen, um es lösbar zu machen, aber in irgendeiner Weise versucht das jeder: Die Welt ist zu kompliziert, als dass man alles auf Anhieb verstehen kann. Das Verfahren wird als »Reduktionismus« kritisiert - aber es führt oft zum Erfolg.6 Francis Crick und James Watson haben die DNA-Struktur nicht bei der Untersuchung komplizierter lebender Zellen entschlüsselt, deren Schicksal von der DNA -14
bestimmt wird, sondern alle Proteine und sonstigen Moleküle, die das Leben ausmachen, entfernt und die DNA isoliert betrachtet.7 In den 50 Jahren, die auf ihre Untersuchung folgten, haben dann die Biologen nach und nach die Proteine wieder hinzugefügt, um herauszufinden, welche Rolle die DNAStruktur in wirklichen Zellen spielt. Sie hätten aber von dieser Struktur nichts gewusst, wäre sie nicht zuvor mit dem reduktionistischen Ansatz aufgedeckt worden. Wir entschlossen uns, den Keksen als Reduktionisten gegenüberzutreten, die Reaktion des Gebäcks auf das Eintunken mit ganz einfachen physikalischen Begriffen zu beschreiben und die Betrachtung der komplizierteren Aspekte auf später zu verschieben. Unter dem Mikroskop ähnelt ein Keks (und auch ein Donut) einem verworrenen Netz miteinander verbundener Löcher, Höhlen und Kanäle. Beim Keks bilden sich die Hohlräume zwischen getrockneten Stärkekörnchen, die in unregelmäßiger Weise durch Zucker und Fett zusammengeklebt sind. Für einen Wissenschaftler besteht das Kekseintunkproblem darin, herauszufinden, wie heißer Kaffee oder Tee in diese Hohlräume gelangt und was er dort anrichtet. Mit dieser Vorstellung des Eintunkens im Kopf setzte ich mich mit ein paar Kollegen vom Bristol University Physics Department zusammen, um das Problem experimentell in Angriff zu nehmen. Feierlich tunkten wir Keks auf Keks in das Heißgetränk und bestimmten die Zeit, bis sie jeweils zerfielen. Das war ganz im Sinne von Sir Francis Bacon, dem elisabethanischen Höfling, für den Wissenschaft darin bestand, genügend Fakten zu sammeln und dann in ihnen einen Zusammenhang zu finden. 8 Das Baconsche Verfahren hat uns einen Berg Kekse gekostet, eröffnete aber keinen wissenschaftlichen Zugang zum Problem des Kekseintunkens. Ein glücklicher Zufall kam uns zu Hilfe, als ich versuchte, einen Keks waagrecht zu halten, sodass nur eine Seite mit der Teeoberfläche in Berührung kam. Zu meinem Erstaunen schlug -15
dieser Keks alle anderen um den Faktor 4, was seine Lebensdauer anbelangte! Wissenschaftler und Sportfanatiker haben gemeinsam, dass sie sich mehr für die Spitzenleistung interessieren als für den Durchschnitt. Die aufregendsten Zeiten in der Wissenschaftsgeschichte brechen immer dann an, wenn jemand eine Beobachtung gemacht hat, die mit den altbewährten Gesetzen nicht erklärt werden kann. Solche Ereignisse können nach den Vorstellungen von Thomas Kuhn einen »Paradigmenwechsel« auslösen, der die bis dahin als »normal« geltende Physik umwälzt und alles im Licht der neuen Erkenntnisse erscheinen äl sst.9 Einsteins Entdeckung, dass die Masse in in Wirklichkeit eine Form der Energie E darstellt und mit ihr über die Lichtgeschwindigkeit c nach dem Gesetz E = in c2 verknüpft ist, stellt ein klassisches Beispiel für einen solchen Paradigmenwechsel dar. Paradigmenwechsel sind oft die Folge überraschender Beobachtungen - aber diese Beobachtungen müssen verifiziert werden. Je unerwarteter die Beobachtung ist, umso strenger muss sie überprüft werden. Mit den Worten des berühmten britischen Immunologen und Essayisten Peter Medawar: »Außergewöhnliche Behauptungen erfordern außergewöhnliche Beweise.«10 Niemand wird die gesamte moderne Physik über Bord werfen, weil irgendjemand behauptet, Yogis können fliegen oder weil ein Uri Geller im Fernsehen Löffel verbiegt. Wenn allerdings bewiesen würde, dass Dinge frei schweben können und Löffel sich verbiegen, ohne dass eine der bisher bekannten Kräfte im Spiel ist, müsste die Physik in den sauren Apfel beißen und ihre Theorien überdenken. Die Langlebigkeit eines einzelnen horizontal eingetunkten Kekses erforderte also kaum einen Paradigmenwechsel, es hätte sich schon herausstellen müssen, dass die neue Beobachtung mit den alten Gesetzen partout nicht erklärt werden konnte. Und was noch wichtiger ist: Das beobachtete Phänomen müsste universell -16
auftreten und sich nicht nur ganz besonderen Umständen (oder gar Wahnvorstellungen) verdanken. Wissenschaftler sind von der Existenz eines Phänomens erst dann überzeugt, wenn man es reproduzieren kann, wenn man also bei der Wiederholung des Versuchs das gleiche Ergebnis erhält. Es könnte ja schließlich sein, dass unser langlebiger Keks durch Zufall länger gebacken worden war als die anderen. Es könnte - außer der revolutionären neuen Eintunkmethode - noch eine Unzahl anderer Gründe gegeben haben. Wir haben also unsere Experimente mit anderen Keksen, ja sogar mit anderen Gebäcksorten wiederholt. Das Ergebnis war immer gleich: Kekse, die mit der »Horizontaltechnik« eingetunkt wurden, lebten weit länger als die konventionell behandelten. Es schien, dass die neue Methode wirklich den Schlüssel zum Geheimnis darstellte. Wie konnte man das erklären? Eine Möglichkeit bot die Diffusion, ein Prozess, bei dem sich die Moleküle der eindringenden Flüssigkeit von Hohlraum zu Hohlraum mäanderförmig vorwärtsbewegen und dabei ohne sichtbares Konzept die Kanäle und Löcher im Keks erobern. Die Mathematik hinter diesem Prozess gleicht der, die den Gang eines Betrunkenen beschreibt, wenn er von der Kneipe nach Hause wankt, aber nicht mehr weiß, in welcher Ric htung dieses Zuhause liegt. Jedes Weiterstolpern ist vom Zufall bestimmt: Es kann vorwärts, rückwärts oder seitwärts erfolgen. Die komplizierte Statistik eines solchen Prozesses, der stochastisch oder zufallsabhängig genannt wird, wurde von der Mathematik entschlüsselt. Es stellte sich heraus, dass der Abstand des Trinkers vom Pub proportional zum Quadrat der Zeit wächst: Braucht er eine Stunde, um einen Kilometer Abstand zwischen sich und den Unglücksort zu legen, so sind es vier Stunden für zwei Kilometer.11
-17
A BBILDUNG 1.1: Eintunken von Keksen. LINKS: Der Keks wird konventionell eingetaucht, sodass die Flüssigkeit von beiden Seiten angreifen kann: ein Desaster. RECHTS: Der Keks wird wissenschaftlich eingetaucht. Die Flüssigkeit benötigt die vierfache Zeit, um den gesamten Keks zu durchweichen, und der Keks behält seine Form, solange die obere Fläche trocken bleibt.
Wenn man dieselbe Mathematik auf den Weg einer Flüssigkeit in den zufälligen Kanälen eines porösen Stoffes (wie einem Keks) anwendet, zeigt sich, dass unser »wissenschaftlich« eingetunkter Keks viermal länger als ein »normal« eingetunkter braucht, um vollständig durchweicht zu werden. Der Grund ist, dass beim »normalen« Eintunken die Flüssigkeit nur zur Mitte des Kekses vordringen muss, da sie ja von beiden Seiten her angreift. Legt man den Keks dagegen flach auf die Teeoberfläche, so ist der Weg doppelt so lang: Er reicht von der Unterseite des Kekses bis zu seiner Oberseite. Nach den Gesetzen der Diffusion dauert das aber die vierfache Zeit (Abbildung 1.1). Der amerikanische Naturwissenschaftler Edward W. Washburn stieß auf den gleichen Faktor 4, als er das Eintauchen von Löschpapier untersuchte, einem Geflecht von Zellulosefasern, in dem es wie in einem Keks unzählige zufällig verlaufende Kanäle gibt. Washburns Experimente, die vor über 80 Jahren durchgeführt wurden, waren verblüffend einfach angelegt. Er markierte auf einem Blatt Löschpapier Linien im gleichen Abstand und tauchte es dann senkrecht in Tinte (die besser als Wasser zu sehen ist), wobei die Linien waagrecht zur -18
Tintenoberfläche lagen - eine von ihnen exakt an dieser Oberfläche. Dann bestimmte er die Zeit, die von der Tinte benötigt wurde, um zu den höher liegenden Linien aufzusteigen. Er stellte fest, dass es zur zweiten Linie viermal so lang und zur dritten neunmal so lang dauerte wie zur ersten. 12
Abbildung 1.2.: Quadrat der Eindringtiefe von heißem Tee in verschiedene »McVitie's«-Kekse in Abhängigkeit von der Eintunkzeit (in Sekunden). Die Rechtecke repräsentieren die einzeln en Messungen. Ihre Höhe und Breite ist jeweils ein Maß für die Fehlerspanne bei der Messung der Eindringtiefe bzw. der Eintunkzeit.
Ich versuchte, Washburns Experimente mit einer Vielzahl von Keks- und Gebäckteilchen zu wiederholen, die mir von meinem Sponsor zur Verfügung gestellt wurden. Ich tunkte also Kekse, auf denen mit einem Stift alle 5 mm horizontale Linien gezogen waren, vertikal in den heißen Tee und stoppte die Zeiten für den Aufstieg der Flüssigkeit. Die Kekse schienen sich ganz ähnlich wie das Löschpapier zu verhalten. Wie groß diese Ähnlichkeit war, zeigte sich, nachdem ich die Ergebnisse grafisch dargestellt hatte. Wenn die Eindringtiefe dem Diffusionsgesetz folgt, sollte -19
der Graph des Quadrats dieser Größe gegen die Zeit aufgetragen eine Gerade bilden. 13 Wenn es 5 Sekunden dauert, um 5 mm Keks zu bewältigen, sollte der Tee 20 Sekunden brauchen, um 10mm zu schaffen. Und so war es auch - bis nach ungefähr 30 Sekunden der vollgesogene untere Teil des Kekses in den Tee fiel (Abbildung 1.2). Die Ergebnisse waren sehr überzeugend. Die numerische Übereinstimmung eines Experiments mit der Voraussage der Theorie gehört zu den Dingen, die Wissenschaftler am meisten beeindrucken. So wird beispielsweise nach Einsteins Allgemeiner Relativitätstheorie das Licht eines weit entfernten Fixsterns durch die Schwerkraft der Sonne um ganze 1,75 Bogensekunden (also fünf Zehntausendstel eines Grads) abgelenkt, wenn es dicht an ihr vorbeigeht. Die Astronomen haben inzwischen festgestellt, dass Einsteins Voraussage bis auf l Prozent genau war. Wenn es der Astrologie gelänge, ähnlich genaue Prognosen abzugeben, könnten vielleicht sogar Physiker an sie glauben. Mit unserem Eintunkversuch war aber nicht etwa das Ende der Keksgeschichte erreicht, es war gerade mal der Anfang. Obwohl die Ergebnisse des Experiments ganz dem Diffusionsmodell entsprachen, zeigte sich bei genauerem Hinsehen, dass eine Erklärung durch die Diffusion eher in Zweifel zu ziehen war. Diffusion findet statt, wenn es gleich wahrscheinlich ist, welche Richtung ein »Objekt« (sei es ein Betrunkener oder ein Wassermolekül) bei seinem nächsten Schritt einschlagen wird. Für den Tee in unserem Keks gilt das aber nicht, da ihm der Weg zurück von der nachdrängenden Flüssigkeit abgeschnitten wird. Nun ist die Diffusion aber nicht der einzige Prozess, mit dem man unseren experimentellen Befund beschreiben könnte. Washburn stützte sich auf eine andere Erklärung, die bei den Saugkräften ansetzt, wie sie poröse Stoffe auf Flüssigkeiten ausüben. Dieses Ansaugen wird kapillare Hebung genannt und war -20
schon den alten Ägyptern bekannt, die das Phänomen nutzten, um ihre Schilffedern mit der Tinte zu füllen, die sie aus Holzkohle, Wasser und Gummiarabikum anrührten. Die Frage, wodurch die kapillare Hebung bewirkt wird, wurde aber erst viel später im 18. Jahrhundert von zwei Wissenschaftlern - einem Engländer und einem Franzosen - unabhängig voneinander beantwortet. Der Engländer war Thomas Young. Als jüngstes von zehn Kindern einer Quäkerfamilie aus Somerset hatte er sich schon mit 14 Jahren sieben Sprachen selbst beigebracht - Hebräisch, Persisch und Arabisch eingeschlossen. Er wurde praktischer Arzt und leistete wichtige Beiträge für das Verständnis der Funktion von Auge und Herz. So fand er heraus, dass es drei verschiedene Arten von - heute Zapfen genannten - Rezeptoren im Augenhintergrund geben müsse, damit wir Farben sehen können. Er ging noch einen Schritt weiter und stellte die Theorie auf, dass das Licht Wellencharakter hat. In seiner Freizeit entwickelte er darüber hina us die Grundlagen für die moderne Lebensversicherung und entzifferte beinahe die Hieroglyphen auf dem Stein von Rosette. Der Franzose war Pierre Simon de Laplace, der wie Young aus einer ländlichen Umgebung stammte - sein Vater war Bauer in der Normandie - und dessen Fähigkeiten sich auch schon sehr früh bemerkbar machten. Er wurde später wegen seines erstaunlichen zehnbändigen Werks mit dem Titel Mécanique céleste14 als »Newton Frankreichs« bezeichnet. Er konnte zeigen, dass die Planetenbewegungen gegenüber Störungen relativ stabil sind, dass also Änderungen in der Umlaufbahn eines Planeten, wie sie beispielsweise durch den Zusammenstoß mit einem Meteoriten verursacht werden können, nur kleine Anpassungen der Umlaufbahnen der anderen Planeten zur Folge haben: Es kommt zu keiner Katastrophe, die alle aus der Bahn wirft. Young und Laplace haben unabhängig voneinander die -21
Theorie der kapillaren Hebung entwickelt - bei Laplace ist sie an ungewöhnlicher Stelle versteckt: in einem Anhang seines großen Werks,15 Young veröffentlichte seine Gleichung 1805.16 Beide hatten beobachtet, dass die Oberfläche von Wasser, das in einer engen Glasröhre durch kapillare Kräfte nach oben gezogen wird, gekrümmt ist. Diese gekrümmte Oberfläche nennt man Meniskus, und wenn das Glas äußerst rein ist, scheint sich der Meniskus an das Glas anzuschmiegen (Abbildung 1.3).
A BBILDUNG 1.3: Ansteigen von Wasser in einem engen Glasrohr.
Die brillant-einfache Idee, die Young und Laplace hatten, besagt, dass die Wassersäule an den Rändern nach oben gezogen wird. Aber was bewirkt diesen Zug? Es kann eigentlich nur die Glaswand sein: Die Glasmoleküle ziehen die benachbarten Wassermoleküle nach oben. Wie kann aber eine solche horizontale Anziehung zu einer vertikalen Hebung führen? Laplace kam zu dem Schluss, dass ein Wassermolekül an der Oberfläche in erster Linie von seinen unmittelbaren Nachbarn angezogen wird. Das hat zur Folge, dass die Oberfläche wie ein Seil mit Knoten durchhängt, wobei jeder Knoten ein Wassermolekül darstellt und die Seilstücke zwischen den Knoten die molekulare Anziehung repräsentieren (Abbildung -22
1.4).
A BBILDUNG 1.4: Kräfte zwischen den Molekülen in einem Meniskus. Die Moleküle (Kreise) werden durch anziehende Kräfte (Pfeile) aneinander gebunden. Die Moleküle nahe der Wände der Glasröhre erfahren zusätzlich Kräfte zu den Molekülen der Wand.
Man kann sich vorstellen, dass die Wassersäule in ähnlicher Weise hochgezogen wird. Genauer: Die Oberfläche der Flüssigkeit wird durch die lokalen molekularen Kräfte angespannt. Diese Oberflächenspannung will die gekrümmte Oberfläche noch weiter zusammenziehen und führt dazu, dass sich an ihr eine Druckdifferenz zwischen dem Inneren der Flüssigkeit und der Außenwelt aufbaut. Das ist wie bei einem Luftballon, wo innerhalb der gedehnten Gummioberfläche ein höherer Druck besteht als außen. Die Druckdifferenz an der Meniskusfläche führt zur kapillaren Hebung. Es ist Laplace gelungen, aus seiner Vorstellung der molekularen Anziehung eine Gleichung abzuleiten, mit der man den Meniskus so präzise beschreiben kann, dass sie auch heute noch in der ursprünglichen Form angewandt wird. Während er über das alltägliche Phänomen der kapillaren Hebung nachdachte, fand er nebenbei auch die Antwort auf eine der -23
großen unbeantworteten Fragen seiner Zeit : Wie weit reichen die Kräfte zwischen Atomen und Molekülen? Reichen sie so weit wie die Kräfte des Magnetpols der Erde auf die Kompassnadel oder so weit wie die Schwerkraft der Sonne? Oder ist ihre Reichweite so gering, dass nur die Nachbaratome betroffen sind? Laplace konnte zeigen, dass die Form des Meniskus und die Existenz der Oberflächenspannung nur durch Kräfte mit äußerst kleiner Reichweite erklärt werden können. Mit der Kenntnis, wie viele Moleküle in einem bestimmten Volumen einer Flüssigkeit enthalten sind, konnte er sogar die Reichweite dieser Kräfte zwischen den Molekülen erstaunlich genau abschätzen. Laplaces Erfolge zeigen, dass die Erforschung vertrauter Alltagsdinge mehr vermag, als nur wissenschaftliche Prinzipien zu verdeutlichen und anschaulich zu erklären. Vielmehr sind viele dieser Prinzipien selbst das Ergebnis von Versuchen, alltägliche Ereignisse - wie den Fall eines Apfels von einem Baum, die Farbenbildung auf einer Seifenblase oder das Aufsaugen von Flüssigkeiten durch poröse Stoffe - zu verstehen. Wissenschaftler, die sich der Erforschung dieser scheinbar banalen Fragen gewidmet haben, konnten einige der tiefsten Geheimnisse der Natur enthüllen. 17 Young und Laplace zeigten, dass die Beziehung zwischen Oberflächenkrümmung, Oberflächenspannung und Druckdifferenz am Meniskus außerordentlich einfach ist: Die Druckdifferenz an einem Punkt des Meniskus entspricht der doppelten Oberflächenspannung, dividiert durch den mittleren Radius der Krümmung.18 Mit ein wenig Rechnerei kann man mit dieser Beziehung, die inzwischen den Namen beider Entdecker trägt, zeigen, dass die kapillaren Kräfte in einer Glasröhre von l mm Durchmesser eine Wassersäule 28 mm in die Höhe zu heben vermögen. Wird der Durchmesser der Röhre kleiner, wird das Wasser höher angehoben. In einer tausendmal engeren Röhre steigt es tausendmal höher. Röhren mit derart kleinen Durchmessern finden wir in den -24
Blättern und Nadeln der Bäume. Die Natur liefert uns ein faszinierendes Beispiel in den gigantischen Sequoien oder Mammutbäumen, die in Kalifornien in der Sierra Nevada wachsen. Die Krone des mächtigsten dieser Bäume, der den Namen »General Sherman« trägt, endet 83 in über den Touristen, die unten vorbeipilgern. Das Wasser wird durch Kapillarkräfte aus dem Boden nach oben in die Nadeln gehoben. Eine Rechnung zeigt, dass die kapillaren Röhren, in denen die Wassermenisken stehen, einen Durchmesser von kaum mehr als 0,3 ì m19 haben können: Ein menschliches Haar, das auf rund 50um Durchmesser kommt, ist über 150mal dicker. Es ist die Druckdifferenz an diesem so winzigen Meniskus, die eine derart hohe Wassersäule aufrechterhält. Die Röhren sind gebündelt und liegen im Xylem, einer Schicht des Baums unter der Rinde. Bricht die Wassersäule zusammen, so bildet sich an einer Stelle, wo die Rö hre weiter ist, eine Luftblase, und der Meniskus kann keine derart hohe Säule mehr tragen. Solche Unterbrechungen kommen häufig vor und sind als »Klick« hörbar, wenn man ein Stethoskop anlegt. Wenn einmal eine Wassersäule zusammengebrochen ist, kann sie sich allem Anschein nach nicht regenerieren. Nach der derzeit gültigen Theorie brechen im Laufe der Zeit alle Säulen zusammen, und der Baum stirbt. Nun wachsen aber diese gewaltigen Bäume ständig weiter - manche von ihnen schon seit Tausenden von Jahren - und stellen damit Botaniker und Biophysiker vor ein Rätsel, das von seiner Lösung noch weit entfernt ist. Trotz dieser offenen Fragen liefert die Young-Laplace-Gleichung die einzig vernünftige Erklärung für den Transport des Wassers von der Wurzel in die Krone eines Baumes. Sie gilt auch für die Aufnahme des Kaffees durch den Donut, da die Flüssigkeit in dem porösen Gitter durch die Druckdifferenz an den Menisken der kleinsten Poren gehalten wird. Das funktioniert in ähnlicher Weise wie beim Xylem eines Baumes, wo es auch die feinsten Poren in den Nadeln oder Blättern sind, von denen die maximale Höhe -25
vorgegeben wird. Die paradoxe Folge davon ist, dass feiner strukturierte Donuts bei gleichem Gesamtporenvolumen mehr Kaffee aufnehmen können als grob gebaute. Die Young-Laplace-Gleichung kann nicht nur für Banalitäten wie das Eintunken von Keksen angewandt werden, sondern auch bei schwerwiegenden praktischen Problemen, beispielsweise wenn es um das Aufsteigen von Feuchtigkeit in der Mauer eines Gebäudes oder das Gewinnen von Erdöl aus porösem Gestein geht.20 Die Gleichung sagt uns, wie hoch die Flüssigkeit in einer Röhre steigt oder wie weit sie in poröses Material eindringt aber sie sagt uns nicht, wie schnell das geht. Das ist aber der springende Punkt beim Eintunken von Keksen! Die Lösung dieses Problems hat der französische Arzt Jean-Louis-Marie Poiseuille gefunden, der im Paris der 1830er Jahre praktizierte. Poiseuille war am Zusammenhang des Drucks in Venen und Arterien mit der Rate des Blutflusses interessiert. Er maß als Erster den Blutdruck mit einem Quecksilbermanometer - einer Technik, wie sie noch heute verwendet wird. Er stellte Untersuchungen darüber an, wie schnell Blut und andere Flüssigkeiten bei einem bestimmten Druck, wie er ihn bei seinen Patienten gemessen hatte, durch Röhren mit verschiedenen Durchmessern fließen konnte, und fand heraus, dass die Durchflussrate nicht nur vom Druck, sondern auch vom Durchmesser der Röhre und der Viskosität21 der Flüssigkeit abhängt. Poiseuilles Beitrag zur Wissenschaft besteht in einem einfachen Gesetz für den Zusammenhang dieser Größen. 22 Man kann nun Poiseuilles Gesetz mit dem von Young und Laplace kombinieren und damit den Durchfluss bei der kapillaren Hebung berechnen. Einen ersten Versuch in diese Richtung hat der schon erwähnte Washburn gemacht. Er stellte eine Gleichung auf, die angibt, wie schnell eine Flüssigkeit in einem zylindrischen Rohr durch kapillare Hebung ansteigt.23 Danach erfordert ein doppelt so langer Weg viermal so viel Zeit. Das entspricht genau dem Resultat, das Washburn bei seinen -26
Versuchen mit Löschpapier erhalten hatte - und ich mit meinen Keksen. Wenn man von der Schwerkraft einmal absieht, die sowohl für Washburns als auch meine Versuche vernachlässigbar war, gibt die Gleichung die wirklichen Verhältnisse äußerst genau wieder. Ich fand dies vor über 20 Jahren bei Untersuchungen im Rahmen meiner Doktorarbeit bestätigt. Bei der Messung des Durchflusses in Glasröhren, deren Durchmesser bis zu 20mal kleiner war als der eines menschlichen Haars, stellte sich heraus, dass Washburns Gleichung für Röhrendurchmesser von über 3 ì m gilt. Derartige Röhren sind aber weit enger als die Tunnelgänge in Löschpapier oder in einem Keks, und es schien keinen vernünftigen Grund zu geben, warum diese Gleichung auch für das komplizierte Durcheinander in einem Keks gelten sollte. Ich habe einen solchen Grund auch in der Zwischenzeit nicht finden können. So weit ich weiß, hat niemand eine Ahnung, warum eine Flüssigkeit, die von der Oberflächenspannung in ein verschlungenes Netz untereinander verbundener Kanäle gezogen wird, demselben einfachen Gesetz gehorcht, das für Flüssigkeiten in zylindrischen Röhren gilt. Man kann nur feststellen, dass der Prozess in vielen porösen Stoffen so abläuft. Möglicherweise spielt dabei die oben erwähnte Diffusionsgleichung für den Weg eines Betrunkenen eine Rolle, nach der ebenfalls ein quadratischer Zusammenhang zwischen der Distanz und der Zeit besteht. Trotz umfangreicher Untersuchungen anhand von Computermodellen gibt es noch keine umfassende, befriedigende Lösung des Problems. Wir wissen aber immerhin, dass man mit Washburns Gleichung arbeiten kann. Sie ist nicht die einzige Gleichung, die gegen alle Vermutung »funktioniert«. Ein weiteres Beispiel ist die Gleichung, die angibt, wie sich ein dünner Wasserstrahl, der aus einem Hahn rinnt, in Tropfen auflöst. Sie wurde mit großem Erfolg angewandt, um den radioaktiven Zerfall eines Atomkerns zu beschreiben. Das bedeutet natürlich nicht, dass ein Atomkern -27
und ein Wassertropfen gleich sind - so wenig wie ein Keks oder ein Löschpapier einem engen Glasröhrchen gleicht. Es kommt aber einfach vor, dass eine Gleichung, die für eine idealisierte Situation abgeleitet wurde, auch bei komplizierteren Verhältnissen ihre Gültigkeit behält und Vorhersagen erlaubt und möglicherweise auf die richtige Spur führt. Man nennt solche Gleichungen semiempirisch, also zur Hälfte auf Erfahrung beruhend. Auf sie stoßen Wissenschaftler, wenn sie gerade ein komplexes Phänomen entschlüsseln, aber noch weit vom Ziel entfernt sind. Semiempirische Gleichungen sind in diesem Zwischenstadium äußerst nützlich, werden aber gewöhnlich fallen gelassen, wenn irgendwann eine vollständige (oder vollständigere) Erklärung des Phänomens gefunden wird. Sie behalten dann nur noch einen gewissen Wert, weil man mit ihnen bestimmte Zusammenhänge anschaulich erklären kann. Die Washburn-Gleichung hat eine solide theoretische Grundlage, wenn man sie auf zylindrische Röhren anwendet, geht es aber um Kekse oder Löschpapier, ist sie als semiempirisch einzuordnen. Um sie auch auf diese Objekte anwenden zu können, muss man zunächst den Röhrenradius richtig interpretieren, der in ihr vorkommt. Um wessen Radius handelt es sich? Es bietet sich an, nach einem effektiven Radius zu suchen, also einer Art mittlerem Radius all der Poren und Kanäle, den man beispielsweise bestimmen könnte, indem man unter dem Mikroskop so viele Kanäle wie möglich ausmisst. Es gibt aber noch einen einfacheren Weg: Wir können den Graph auswerten, den wir nach unserem Eintunkexperiment gezeichnet haben (Abbildung 1.2), und aus der Neigung der Geraden mithilfe der Washburn-Gleichung den effektiven Radius der drei Keksarten bestimmen. Die Ergebnisse schienen jedoch keinerlei Sinn zu machen: Die Radien waren äußerst klein und betrugen für die Hobnobs, die Digestives und die Gingernuts nur 68, 88 bzw. 110 Nanometer, waren also Hunderte, ja Tausende Male kleiner als -28
die Porengröße von einigen Mikrometern, die man bei einem trocknen Keks unter dem Mikroskop feststellt. Welche Dramen spielen sich im Inneren eines Kekses ab, wenn die Teeflut hereinbricht? Es scheint, als habe der feuchte Keks eine völlig andere Struktur als der trockene, der Stärke als Granulat, also in Form geschrumpfter, winziger, getrockneter Körnchen, enthält. Ein Reiskorn besteht beispielsweise aus Tausenden solcher winziger Stärkekörnchen. Wenn sie mit heißem Wasser in Berührung kommen, schwellen sie wie der Brei im Märchen auf dramatische Weise an, indem sie sich aufs Gierigste mit Flüssigkeit füllen. Ich hatte Gelegenheit, zusammen mit meinen Kollegen diesen Anschwellprozess zu untersuchen, der für die Konservierung, Verarbeitung und Zubereitung stärkehaltiger Nahrungsmittel von großer Bedeutung ist. Wir gaben zu diesem Zweck einzelne Stärkekörner aus Kartoffeln in Wasser und beobachteten unter dem Mikroskop, was passiert, wenn man das Ganze erwärmt. Bei etwa 60 °C vergrößert sich das Volumen der Körnchen plötzlich auf das Siebzigfache, und es entstehen Gebilde, die ich später in einem Radiointerview einmal als der Welt kleinste Kartoffelpuffer bezeichnet habe.24 Wenn man einen Keks in heißen Tee tunkt, schwellen seine Stärkekörnchen in ähnlicher Weise und werden sehr weich. Das ist einer der Gründe, warum sich ein eingetunkter Keks aufbläht und schließlich zerfällt25 - der andere Grund ist, dass das Fett und der Zucker zwischen den Stärkekörnc hen, die den »Klebstoff« des Gebäcks darstellen, schmelzen und sich auflösen. Die von uns untersuchten Stärkekörnchen wurden so weich, dass wir sie in Glasröhrchen saugen konnten, deren Durchmesser dreimal kleiner waren als die der Teilchen. Diese Verformbarkeit könnte erklären, warum man aus der WashburnGleichung so außerordentlich kleine effektive Radien für die Kanäle in einem eingetunkten Keks erhält: Die weichgewordenen Körnchen stehen dicht gedrängt wie die Fans bei einem Rockkonzert und lassen zwischen sich nur den -29
allerengsten Raum frei. Die Praxis bestätigt unser Ergebnis. Würden die Poren die Größe behalten, die sie im trockenen Keks haben, müsste sich nach der Washburn-Gleichung der Keks in Bruchteilen einer Sekunde mit Tee oder Kaffee füllen, und das Kekseintunken wäre - wie das Donuteintunken - eine Angelegenheit sekundenschnellen Timings. Die Washburn-Gleichung erklärt also nicht nur, warum das Vollsaugen der Kekse mit der wissenschaftlichen »Flachmethode« viermal länger dauert als mit der traditionellen Methode, man kann mit ihr auch vorhersagen, wie lange ein Keks von Kennern und Liebhabern, die von ihren alten Bräuchen nicht lassen wollen, ohne die Gefahr des Zerfallens eingetunkt werden kann. Man muss nur voraussetzen, dass der Keks nicht zerfällt, solange eine dünne Schicht trocken bleibt, die stark genug ist, das Gewicht des schon feuchten Keksteils zu tragen. Aber wie dünn darf diese Schicht höchstens werden? Es gab nur einen Weg, das herauszufinden: Wir mussten die Kraft messen, die trockene Kekse verschiedener Dicke zu Bruch bringt. Ich hobelte also mit der Bandschleifmaschine des Instituts eine Anzahl Kekse auf verschiedene Dicken zurecht eine Arbeit, nach der ich völlig mit Keksstaub bedeckt war und die bei den Werkstattangestellten viel Heiterkeit auslöste, waren sie doch sonst gewohnt, Präzisionsteile für astronomische Instrumente zu fertigen. Ich stellte fest, dass unbearbeitete trockene Kekse ein Gewicht von bis zu 2kg tragen können, wenn man sie horizontal an einem Ende einspannt und das Gewicht auf das andere Ende stellt. Die Belastbarkeit der dünner geschliffenen Kekse ist proportional zu ihrem Eigengewicht, also ihrer Dicke. Geht man bis auf 2 Prozent der ursprünglichen Dicke herunter, ist der Keks immer noch stabil genug, das Gewicht eines eingetunkten Kekses zu tragen, also - abhängig vom Kekstyp - zwischen 10 und 20 g. Nun war nur noch zu berechnen, wie lange man einen Keks -30
eintunken darf, damit noch eine dünne trockene Schicht übrig bleibt - sei es in der Keksmitte bei der traditionellen Eintunkmethode, sei es an der oberen Fläche des Kekses bei der wissenschaftlichen Flachmethode. Die Rechnung war recht einfach: Wir mussten in die Washburn-Gleichung nur die effektiven Kanalradien der unterschiedlichen Kekse einsetzen. Für die meisten Kekse erhielten wir Werte zwischen 3,5 und 5 Sekunden für die konventionelle Methode und zwischen 14 und 20 Sekunden für die wissenschaftliche. Nun war die Frage, ob noch andere Effekte bedacht werden mussten - beispielsweise beim Abbrechprozess selbst. Das Reißen oder Zerbrechen von Stoffen (und auch Keksen) ist ein äußerst komplizierter Vorgang, dem aber eine recht einfache Vorstellung zugrunde liegt - ein Tatbestand, wie er uns in der Forschung oft begegnet und bei dem die Kunst darin besteht, aus den einfachen Grundannahmen die Besonderheiten herauszuarbeiten. Bei Keksen kann man sich die Katastrophe wie folgt vorstellen: Wenn das Zerbrechen beginnt, liegt die gesamte Schubspannung26 an der scharfen Bruchkante. Das ist wie beim Tango, wenn Ihnen eine Dame mit hochhackigen Schuhen auf den Fuß tritt: Der gesamte schmerzerzeugende Druck ist auf die winzige Absatzfläche konzentriert. Ist die Schubspannung groß genug, um den Bruch auszulösen, wird sie ihr Werk auch zu Ende zu führen, weil sich brüchiges Material (trockene Kekse eingeschlossen) nicht biegen lässt, sondern völlig zerbricht, wenn die Katastrophe einmal angefangen hat. Die Schubspannung, die nötig ist, um das Zerbrechen einzuleiten, hängt von der Schärfe der Bruchkante ab. Je dünner der Keks ist, umso schärfer ist sie und umso weniger Kraft benötigt man. Eine federleichte Tänzerin mit sehr spitzen Absätzen kann ebenso viel Schmerz erzeugen, wie eine füllige mit breiten Absätzen. Aus unseren Überlegungen folgt, dass sich schon der kleinste Knacks im Keks - unabhängig von der Festigkeit des Backwerks - zu einer Katastrophe ausweiten -31
kann, solange nur die Bruchkante scharf genug ist. Die praktische Erfahrung zeigte allerdings den Ingenieuren vor dem Zweiten Weltkrieg, dass mit dieser Theorie etwas nicht stimmen konnte, sonst hätte jeder Saboteur die Tower Bridge durch bloßes Anpiken mit einer Nadel in die Themse stürzen lassen können. Obwohl die Geschichte gezeigt hatte, dass dem nicht so war, wurden immer noch die Bauteile von Brücken und Schiffen »für alle Fälle« erheblich überdimensioniert. Trotzdem kam die Theorie einige Male zum Tragen: Da war die »Bismarck«, die von der White Star Line erworben und in »Majestic« umbenannt wurde. 1928 sollte in das Schiff ein zusätzlicher Personenaufzug eingebaut werden. Die Schubspannungen an der scharfen Kante des neuen, quadratischen Lochs führten zu einem Riss quer über das Deck und die Schiffswand hinunter, wo er dann von einem Bullauge gestoppt wurde, dessen Kante abgerundeter war. Dieser glückliche Zufall verhinderte, dass das Schiff mit seinen 2500 Passagieren irgendwo zwischen New York und Southampton auseinander brach und sank. In anderen Fällen - wie bei der »USS Schenectady« - wurden tatsächlich Schiffe in zwei Teile zerrissen (Abbildung 1.5).27 Wo immer es möglich ist, rundet man daher scharfe Kanten ab, um die Schubspannungen zu reduzieren. Inzwischen weiß man auch mehr über Möglichkeiten, das Weiterwachsen von Brüchen oder Rissen zu verhindern. Dazu gehört zum Beispiel, dass man im Bereich möglicher Bruchstellen plastisch fließendes Material einsetzt, sodass die Kanten abgerundeter werden und das Material biegsamer. Eine weitere Vorsichtsmaßnahme besteht im Einbau von »Crack-Stoppern«, also Barrieren gegen das weitere Anwachsen von Rissen. Diese Funktion erfüllen weichere Bestandteile in der Materialmischung, die gegenüber der Front eines »ankommenden« Risses nachgeben, eine scharfe Bruchkante stumpf machen und damit die Schubspannung unter die -32
Sicherheitsgrenze drücken. Einer der wirkungsvollsten CrackStopper ist ein schon vorhandenes Loch - wie das Bullauge bei der »Majestic«.
A BBILDUNG 1.5: Bildung eines gewaltigen Risses an der Außenhaut der »USS Schenectady«. Der Tanker der T2-Klasse »USS Schenectady« war gerade einen Tag alt, als er im Januar 1943 zu einer Probefahrt ausgelaufen war und nach der Rückkehr in den Hafen mit lautem Getöse von oben bis unten auseinander brach. Bug und Heck sanken auf den Grund, während der übrige Rumpf aus dem Wasser ragte. (Wiedergabe mit freundlicher Erlaubnis von B. B. Rath, Naval Research Institute).
Moderne Kompositstoffe, wie man sie beispielsweise bei JetTurbinen einsetzt, enthalten üblicherweise Crack-Stopper. Auch Kekse bestehen aus einem Kompositstoff - und auch sie enthalten Crack-Stopper (Cracker-Crack-Stopper, wenn man so will), die aus natürlichen Stoffen wie Zucker, Stärke und insbesondere Fett bestehen, das, obwohl es relativ hart ist, elastisch »nachgibt«. Die meisten Kekse sind aus diesem Grund -33
bemerkenswert robust. Sind sie allerdings zu dünn, überwiegt die »Bröseligkeit«. Ist ein Keks so dünn wie ein einzelner Brösel, genügt schon der Bruch zwischen zwei Bröseln, und ein Abgrund tut sich auf, in den die Bruchstücke stürzen. Aber selbst für dieses Problem gibt es eine Lösung: den zweidimensiona len Cracker-Crack-Stopper. Er besteht aus Schokolade, einem Material, das ganz sanft nachgibt, wenn man es zu zerbrechen versucht. Man verwendet es daher gern, um Kekse damit ganz oder zum Teil zu überziehen. Wir konnten schließlich unserem Auftraggeber die Lösung mitteilen, die wir mithilfe der grundlegenden physikalischen Theorien für das Problem des perfekten Kekseintunkens gefunden hatten: Man überziehe den Keks auf einer Seite mit Schokolade, sorge dafür, dass die Schokolade bei der physikalisch korrekten Eintunkweise mit horizontalem Keks oben liegt und begrenze das Eintunken zeitlich so, dass eine dünne Keksschicht unter der Schokolade gerade noch unbenetzt bleibt. Zu meiner Überraschung kam die Geschichte in den Medien groß heraus,28 wobei die Washburn-Gleichung immer im Mittelpunkt stand. Der Gedanke, eine mathematische Gleichung auf Banalitäten wie das Eintunken von Keksen anzuwenden, war für die Journalisten der große Hit. Alle gaben sich reichlich Mühe, bevor sie die Gleichung abdruckten, und riefen mehrmals an, um nur ja keinen Fehler zu machen. Nur einer nahm es bei der Überprüfung nicht so genau, und ich erhielt prompt die folgende Zuschrift eines Lesers: »Werter Herr! Irgendetwas stimmt nicht mit Ihrer Kekseintunkgleichung. Bitte senden Sie mir einige Kekse als Belohnung dafür, dass ich es bemerkt habe! - Chao Quan, 12 Jahre alt«. Als der Brief eintraf, hatten wir leider schon alles aufgegessen. Wie konnte eine Gleichung, die schon 80 Jahre auf dem Buckel hatte, einen so sensationellen Auftritt hinlegen? Auf Einladung von Nature habe ich versucht, es zu erklären, und -34
kam dabei zu folgendem Schluss: Soviel journalistische Aufregung über eine physikalische Gleichung steht im krassen Widerspruch zu dem Hinweis, den normalerweise Verleger ihren Autoren geben: Jede zusätzliche Gleichung in einem populärwissenschaftlichen Buch reduziert die Verkaufszahlen auf die Hälfte. Warum war diesmal alles anders? Lassen Sie mich eine Antwort versuchen, die auch für die ernsthaftere Wissenschaft gilt. Viele sehe n in Wissenschaftlern die Hüter alter Weisheiten, die im Besitz verbotener Kenntnisse sind und die Kontrolle über sie ausüben. Eine Gleichung stellt eine Art Schlüssel zu diesem Wissen dar. Die Aufregung der Journalisten, einen solchen Schlüssel in die Hand zu bekommen, hat sicher wesentlich mit dazu beigetragen, dass sie die Story so groß herausgebracht haben. Mit der Erklärung der Washburn-Gleichung habe ich auch den Journalisten, die mit Wissenschaft und Forschung nicht so vertraut sind, einen Schlüssel zum Öffnen der Büchse der Pandora geliefert.29 Das Eintunken von Keksen mag ein banaler Vorgang sein, und irgendwie ist es ja auch so. Die Fragen, die Wissenschaftler stellen, ähneln oft den neugierigen Fragen von Kindern, über die man als Erwachsener eigentlich hinausgekommen sein sollte, um sich stattdessen auf ernsthaftere Dinge zu konzentrieren: Geld zu verdienen oder Kriege zu führen. Für mich und viele Kollegen ist die Frage nach dem »Warum« aber immer noch das Ernsthafteste, mit dem man sich beschäftigen kann. Manchmal rechtfertigen die Forscher ihr Handeln damit, dass ihre Ergebnisse nützlich sind. Ich halte das für einen großen Fehler, ganz gleich, ob es darum geht, dass ein Mensch auf dem Mond landet oder man endlich bessere Methoden zum Eintunken von Keksen zur Verfügung hat. Der tiefere Grund für die WarumFrage ist, dass sich in der Wissenschaft ein grundlegendes -35
Streben des Menschen ausdrückt, die Welt und ihre Funktionsweise verstehen zu wollen. Als denkende Wesen haben wir alle einen derartigen Forscherdrang. Er kommt immer zum Tragen, wenn wir über religiöse Dinge, über unsere Beziehungen zu den Mitmenschen oder über Gefühle nachdenken. Für Naturwissenschaftler ist es ähnlich aufregend, sich mit dem kleinen Ausschnitt aus dem großen Kunstwerk des Lebens zu befassen, den das Verhalten der materiellen Welt darstellt. Bei dem Versuch, die Schranken unserer Möglichkeiten zu überwinden, sind die Naturwissenschaftler mit der Untersuchung der materiellen Welt weiter gekommen als die Psychologen, Philosophen und Theologen mit der Erforschung der Menschen und ihrer Beziehungen untereinander und zur Welt. Schon oft haben - wie im Fall von Young und Laplace Untersuchungen von Alltagsphänomenen Antworten auf Fragen gegeben, die ganz anderen Bereichen entstammten und sich als höchst bedeutungsvoll erwiesen. Die folgenden Kapitel sind dieser Alltagswissenschaft gewidmet. Sie soll die Tür für NichtWissenschaftler öffnen - wie sie es im Übrigen schon oft für Wissenschaftler getan hat.
-36
Das Ei in dem dunkelblauen Eierbecher mit dem goldenen Rand war drei und eine Drittel Minuten gekocht. Es war ein ganz frisches, fleckiges braunes Ei von französischen MaransHennen, die sich eine Freundin Mays auf dem Land hielt. Bond verabscheute Eier mit weißer Schale und, spleenig wie er bezüglich kleiner Dinge war, machte er sich seinen Spaß aus der Behauptung, es gäbe so etwas wie das perfekt gekochte Ei. (IAN FLEMING). Energie ist nach dem heutigen Stand des Wissens der Grundstoff des Universums. Sie tritt in verschiedenen Formen auf - als Wärme, Licht, Mikrowelle, Elektrizität oder Magnetismus -, aber alle diese Formen haben etwas gemeinsam: Man kann sie verwenden, um Dinge zu bewegen. Das gilt sogar für die häusliche Küche, wo die Energie, die wir - meist in der Form von Wärme - in unsere Nahrungsmittel stecken, die Moleküle in Bewegung versetzt, die sich dann von selbst neu arrangieren und den Braten verdaulicher und schmackhafter machen. Wie sich das abspielt, war das Thema eines spannenden Kongresses auf Sizilien, wo Naturwissenschaftler (wie ich) und Meisterköche aus aller Welt gemeinsam an dem Projekt arbeiteten, Wärmeenergie auf die bestmögliche Weise an die Stellen eines Gerichts zu lotsen, wo es auf sie ankommt. In diesem Kapitel berichte ich über dieses Treffen und erzähle einiges aus der Geschichte des Energiebegriffs. Leser, die einen Sinn fürs Praktische haben, finden auch die wissenschaftlichen -37
Gesetze für den optimalen Weg, ein weiches Ei zu kochen. James Bond ist nicht der einzige Gourmet auf der Suche nach dem perfekt gekochten weichen Ei.2 Wenn er sein hoch gezüchtetes, graues 1930er 41 /2-Liter-Bentley-Coupé die engkurvige Bergstraße hinaufgesteuert hätte, die in die Ostflanke des Monte San Giuliano auf Sizilien eingeschnitten ist, wäre irgendwann das Echo des nervösen Brummens seines Doppelauspuffs von den alten Stadtmauern von Erice zurückgeworfen worden, das Gerüchten nach eines der früheren Hauptquartiere der Mafia gewesen war. 1997 wäre Bond auf eine andere Art von Mafia getroffen: die gastronomische - eine internationale Vereinigung von Chefköchen und Naturwissenschaftlern, die sich alle zwei Jahre in der Ettore Majorana Foundation and Centre for Scientific Culture treffen, um neue Wege zu erkunden, wie man mithilfe der Naturwissenschaft die Grenzen der Gastronomie erweitern kann. Dort, in Erice, hätte Bond in jenem Jahr eine Lösung für sein Problem finden können. Bond wäre damals um die 79 Jahre alt gewesen - immer noch zehn Jahre jünger als Nicholas Kurti, der ehemalige Physikprofessor aus Oxford, der die Treffen in Erice angeregt hatte. Kurti war mit seinen 89 immer noch auf der Suche nach Herausforderungen und setzte sich voll Energie für ein Projekt ein, das seiner lebenslangen Liebe zu den Vergnügungen der Tafel Tribut zollte. Ich war mit ihm von England angereist und steuerte im Kielwasser seiner kleinen, schon etwas glatzköpfigen Gestalt durch den Mailänder Flughafen, um den Anschlussflug nach Palermo zu erwischen. Sein Rucksack voller Thermometer und Registriergeräte, mit denen die Temperaturänderungen im Inneren erlesener Gerichte während ihrer Zubereitung untersucht werden sollten, schien ihn nicht bremsen zu können. Kurti sagte gern, wir »wissen mehr über die Temperaturverteilung in der Venusatmosphäre als im Inneren eines Souffles« - und das Treffen in Erice war eine Gelegenheit, -38
diese Bilanz aufzubessern. 3 Das Treffen in Erice war keineswegs Kurtis einziger Versuch, Naturwissenschaft und Kochen zu verbinden. Er war einer der ersten Fernsehköche und präsentierte schon 1969 in Schwarzweiß eine Live-Sendung mit dem Titel »Der Physiker in der Küche«4 , in der er einige erstaunliche Varianten traditioneller Kochmethoden vorführte. Zum Beispiel setzte er eine Injektionsspritze ein, um Brandy direkt in das Innere heißer Mince-Pies zu befördern, ohne die Kruste zu zerstören. Er führte auch eine von ihm erfundene Technik zur Herstellung von Meringen vor, wobei er einen Klecks der kremigen Masse auf eine Platte in einem Vakuumgefäß gab und dann die Pumpe anwarf. Das Ganze ging zu einer Meringe auf, die fester und doch zarter als alles war, was man jemals in einem Ofen hergestellt hatte - und das bei nur einem Viertel der üblichen Backzeit! Das Produkt zerging förmlich auf der Zunge. Kurti war eigentlich Experte für Tieftemperaturphysik und ist dafür berühmt, eine Zeit lang den Rekord für die tiefste im Labor erzeugte Temperatur gehalten zu haben. Sein Ruhm unter den Naturwissenschaftlern machte sich bezahlt, als es darum ging, unsere gastrophysikalischen Treffen zu organisieren. Sie hatten ihre Wurzeln in einem Gespräch zwischen der angloamerikanischen Kochexpertin Elizabeth Thomas von der Cooking School Berkeley und einem italienischen Naturwissenschaftler, der zusammen mit Elizabeths Mann eine Tagung über ein ganz anderes Thema besuchte, die im Ettore Majorana Centre stattfand. Der Direktor des Zentrums war von der Idee begeistert und Elizabeth Thomas schlug Kurti, der bei vielen Tagungen und Treffen in Erice eine führende Rolle gespielt hatte, als den idealen Verbindungsmann zur Naturwissenschaft vor. Ein Problem blieb der Titel der Veranstaltung. »Die Wissenschaft vom Kochen« erschien für einen Veranstaltungsort wie das Majorana Centre völlig undenkbar, nachdem dort sonst so gewichtige Probleme wie -39
»Atomkrieg und planetarischer Ausnahmezustand« und »Mathematik und demokratische Entscheidungsprozesse« diskutiert wurden. Kurti schlug als gewiefter Pragmatiker den eindrucksvollen Titel »Molekulare und physikalische Gastronomie« vor - und damit war die Veranstaltungsreihe in Erice aus der Taufe gehoben. Das Ettore Majorana Centre, ein zum Tagungszentrum umgebautes Kloster, erwies sich als der ideale Ort für die Treffen. Der Versammlungsraum, der maximal 40 Teilnehmer aufnehmen kann, liegt auf der einen Seite eines von Steinmauern umgebenen Innenhofs, auf dessen anderer Seite sich die modernisierte Klosterküche befindet, in der wir die Ideen, die während des Treffens herausgearbeitet wurden oder die schon zuvor eingereicht worden waren, in die Praxis umsetzen konnten. Auch der Name des Treffens war gut gewählt und ist inzwischen weit über Erice hinaus bekannt. Das Gute an ihm ist, dass er unsere Annäherung an die Kochkunst recht genau wiedergibt: Wir konzentrieren uns auf das, was in den Nahrungsmitteln auf molekularer Ebene passiert - während alle anderen Kochprobleme weiterhin den Meisterköchen überlassen bleiben. Das Problem bei der Herstellung eines perfekt gekochten weichen Eis besteht beispielsweise darin, die fadenförmigen Albuminmoleküle im Eiweiß davon zu überzeugen, sich miteinander zu verknäulen, während ähnliche Moleküle im Eigelb unverknotet bleiben sollen. Es geht darum, die richtige Menge Hitze im richtigen Moment an die richtige Stelle zu bringen. Wie man das macht, ist nicht nur für die Herstellung des Frühstückseis das Hauptproblem, sondern für das Kochen, Braten und Backen überhaupt - deshalb stand das Ei noch gar nicht auf dem Programm, als wir 1997 unser erstes Treffen durchführten. Der Wärmetransport in Stoffen ist ein physikalisches Problem, seine Gesetze sind aber so einfach, dass man sie auch ohne physikalische Vorbildung verstehen kann. Um -40
herauszufinden, wie man die Gesetze auf praktische Kochprobleme anwenden kann, muss man aber auch etwas darüber wissen, wie Wärme den Geschmack und die Struktur von Essen beeinflusst - und natürlich muss man wissen, was Wärme eigentlich ist. Leider gibt es zur Beschreibung des Wesens der Wärme keine Begriffe aus der Alltagssprache, mit denen man die Kommunikation zwischen Forschern und Köchen erleichtern könnte. Deshalb zunächst eine Lektion in Geschichte - in der zum Glück ganz überraschend (und sogar recht unterhaltsam) auch das Essen vorkommt. Bis in die Mitte des 19. Jahrhunderts glaubte man, Wärme sei eine Flüssigkeit. Für den »gesunden Menschenverstand« erschien das ganz logisch, denn schließlich »fließt« ja Wärme von heißeren zu kälteren Stellen, was man sich schwer vorstellen kann, ohne an einen flüssigen Stoff zu glauben. Der Wärmestoff bekam sogar einen Namen: Er wurde Phlogiston (oder auch Caloricum) genannt, im Englischen hieß er caloric. Man glaubte, dass die »Empfindung von Wärme durch Phlogiston- Teilchen ausgelöst wird, die in unseren Körper eindringen«.5 Mit der Vorstellung eines Wärmestoffes konnte man eine ganze Reihe von Vorgängen plausibel erklären, zum Beispiel, dass die Zugabe einer Prise Phlogiston aus einem rohen Stück Fleisch gekochtes erzeugt. Wenn auch das Phlogiston noch bis in die Mitte des 19. Jahrhunderts herumspukte,6 wurde ihm sein Todesglöcklein eigentlich schon um die 50 Jahre früher durch den amerikanischen Abenteurer Benjamin Thompson7 geläutet, einem Mann, dessen privates wie wissenschaftliches Leben durch einige ungewöhnliche kulinarische Erfahrungen geprägt worden war. Als er Mitte 20 war und im Nordamerikanischen Unabhängigkeitskrieg eine britische Einheit kommandierte, bauten seine Soldaten aus den Grabsteinen eines Friedhofs einen Ofen zum Backen von Brot. Einige der Laibe wurden an die Bevölkerung der Gemeinde ausgegeben - unglücklicherweise -41
mit den Grabaufschriften ihrer Verblichenen, die sich in die Kruste eingeprägt hatten. 8 Nach diesem peinlichen Vorfall »erachtete man es für klüger, wenn er bald nach einer Gelegenheit suchte, das Land zu verlassen«.9 Er ging nach England, wo ihn sein Talent und sein Gespür für eine Karriere schnell nach oben führten: Nach vier Jahren war er Unterstaatssekretär und Mitglied der Royal Society in Anerkennung seiner Forschungen über Schießpulver, Waffen und das Signalwesen auf See. Er wechselte dann auf den Kontinent, und 1791 verlieh ihm der bayerische Kurfürst Karl Theodor den Grafentitel und ernannte ihn zum Kriegsminister.10 In dieser Eigenschaft hatte er auch mit dem Münchener Zeughaus zu tun und machte dort seine berühmten Beobachtungen, die das Phlogiston-Konzept mit zu Fall brachten. Er berichtet darüber: Ich sollte das Aufbohren eines Kanonenrohrs überwachen und war von dem Grad an Hitze verblüfft, den die Messingkanone binnen kürzester Zeit durch den Bohrprozess annahm. Noch heißer - weit heißer als kochendes Wasser, wie ich durch Experimente feststellte - waren die Metallspäne…. Die Quelle der durch Reibung erzeugten Erwärmung schien bei diesen Experimenten unerschöpflich. Es ist kaum nötig anzufügen, dass es keine materielle Substanz sein kann, die ein isolierter Körper ohne Be grenzung zu liefern in der Lage ist. Es erschien mir äußerst schwer, wenn nicht ganz unmöglich, mir eine bestimmte Vorstellung von etwas zu machen, was in einer Weise angeregt und übertragen werden kann, wie die Wärme in diesen Experimenten - es sei denn Bewegung.11 Rumfords Vorstellung von Wärme als Bewegung ist inzwischen in der Naturwissenschaft Allgemeingut. Wenn wir heute vom Erhitzen eines Bratens sprechen, stellen wir uns vor, dass die Bratenmoleküle in schnellere Bewegung geraten, dabei zerfallen und sich neu gruppieren. Oder wir denken an ein -42
Hühnerei, in dem sich die langen Albuminmoleküle des Eiweißes, die bei Zimmertemperatur locker zu Bällen gebündelt sind, entfalten und herumwedeln, wenn das Ei erhitzt wird. Schließlich verknäueln sie sich miteinander und bilden ein dreidimensionales Netz, in dem das Wasser des Eis gefangen ist: Das zuvor flüssige und durchsichtige Eiweiß wird fest und undurchsichtig. Inzwischen gibt es Computersimulationen, mit denen man diese Umordnung der Moleküle im Einzelnen zeigen kann. Aber all die malerischen Bilder geben noch keine Antwort auf eine grundlegende Frage: Wärme ist die eine Sache, Bewegung aber eine völlig andere. Auf welche Weise könnten beide miteinander verknüpft sein? Die Lösung dieses Problems erforderte einen genialen Gedanken - nicht weniger genial als die Überlegungen, die zur Quanten- und Relativitätstheorie führten. Während aber jeder Einstein kennt, hat kaum jemand von Julius Robert von Mayer gehört, einem unglücklichen deutschen Arzt und Physiker, der die Idee hatte, Wärme und Bewegung gleichzusetzen. Die ganze traurige Geschichte der verzweifelten Versuche Mayers, Anerkennung für seine Theorie zu finden, ist in Anhang l zusammengefasst. Hier sei nur so viel gesagt: Mayers Theorie wurde letztlich akzeptiert, wenn auch weiterhin oft andere den Ruhm einstrichen. Der Begriff der Energie liegt heute der gesamten Naturwissenschaft zugrunde. Was ist Energie? Zum Glück ähnelt die Definition der Energie durch die Naturwissenschaftler sehr der Vorstellung, die wir in der Umgangssprache von ihr haben: Energie ist alles, was physikalische Arbeit leisten kann, also etwas zu bewegen vermag. Je mehr Energie wir besitzen, umso schneller können wir etwas bewegen und umso weiter können wir es bewegen. So kann zum Be ispiel ein Lichtstrahl ein kleines Schaufelrad in Bewegung versetzen, das als »Lichtmühle« oder »Crooke's Radiometer« bekannt ist. Licht ist also wie Wärme, Elektrizität, Magnetismus und Gravitation eine Form von Energie und kann -43
dazu verwendet werden, alle möglichen Maschinen anzutreiben. Die Bewegung selbst ist auch eine Form von Energie: Sie wird als kinetische Energie bezeichnet, da man mit einem Gegenstand, der sich bewegt, einen anderen bewegen kann. Wie Kurti gezeigt hat, wird die Vibration der Moleküle in einem Braten stärker, wenn ihre kinetische Energie durch die Erwärmung zunimmt. Sie zappeln, winden sich, sind bestrebt, sich aus ihren Verklammerungen zu lösen und verändern sich schließlich in einer Weise, die in der Regel das Gericht schmackhafter macht (bis es irgendwann anbrennt). Das Konzept, Wärme als Bewegung von Molekülen zu verstehen, macht vieles in der Küche verständlich, was für die Anhänger des Phlogistons ein Rätsel bleiben musste. Wenn die Gleichung »Phlogiston + rohes Ei = gekochtes Ei« stimmte, musste eigentlich die Zugabe von Phlogiston bei jeder Temperatur aus dem rohen Hühnerprodukt ein gekochtes machen. Man kann aber ein Ei stundenlang in Wasser von 50 °C legen, ohne dass das Eiweiß gerinnt, während dies bei 70 °C innerhalb von 15 Minuten geschieht und bei kochendem Wasser, also 100 °C, in den »klassischen« 3 Minuten. Dieser Temperatureffekt, der mit der alten Phlogiston-Theorie nicht erklärt werden kann, ist mit der Vorstellung von Wärme als Energie der Molekularbewegung leicht zu verstehen. Die schon erwähnten Albuminfäden des rohen Eiweißes werden durch schwache Anziehungskräfte zwischen den Molekülketten zusammengehalten, die sich überkreuzen und eine lose Ballstruktur bilden, die als random coil bezeichnet wird. Diese Struktur ist in ständiger Bewegung, da die Moleküle unter dem Bombardement der sie umgebenden Wassermoleküle erzittern und fluktuieren. Steigt nun die Temperatur an, wächst die Energie der Wassermoleküle und zugleich das innere Vibrieren der Albuminketten. Irgendwann ist dann der Punkt erreicht, an dem die Bewegungsenergie ausreicht, um die schwachen Bindungen zu durchbrechen, von denen die Struktur -44
zusammengehalten wird. Das ereignet sich bei etwa 63 °C.12 Unterhalb dieser Schwelle kann das Ei noch so lange in warmem Wasser liegen: Die Albuminstruktur bleibt erhalten, das Eiweiß gerinnt nicht. Oberhalb 63 °C entfalten sich jedoch die Albuminmoleküle und werden frei, um zusammen mit anderen freigewordenen eine neue Struktur zu bilden: ein dreidimensionales Netz. Dieses (etwas vereinfachte) Bild erfordert noch die Klärung des Unterschieds zwischen Temperatur und Wärme. Albert Einstein und Leopold Infeld hatten 1938 in einer Arbeit geäußert, dass diese »Begriffe heute… jedermann geläufig sind«13 - aber die beiden Forscher irrten sich. Den meisten Leuten, die mit Wissenschaft nichts zu tun haben, (aber auch überraschend vielen Wissenschaftlern!) würde es immer noch sehr schwer fallen, den Unterschied zu definieren. Schon beim Kochvorgang muss man deutlich zwischen Wärme und Temperatur unterscheiden - Kurti gelang dies mithilfe des Energiebegriffs in ganzen 30 Sekunden: Die Wärme bezieht sich auf die Gesamtenergie. Die Temperatur eines Stoffs wird hingegen durch die durchschnittliche Energie eines Moleküls bestimmt.14 Die Gesamtenergie, die beim Kochen einem Gericht zugeführt wird, hängt von der Kocheinrichtung ab. Kochplatten oder Grills liefern die Wärmeenergie mit einer Rate, die für einen bestimmten Gerätetyp konstant ist. Daher ist die Menge der insgesamt zugeführten Energie von der Zubereitungszeit und vom Gerätetyp abhängig. Ein Mikrowellenherd führt die Energie hingegen in Pulsen gleicher Stärke zu, wobei die »An«und »Aus‹‹-Zeiten der Pulse je nach Gerät unterschiedlich sind. Das Maß an Energie, das von dem Gericht im Herd absorbiert wird, ist von dessen Wassergehalt und seiner Position im Herd abhängig, da das Mikrowellenfeld im Raum unterschiedlich stark ist. Die Auswirkung der aufgenommen Energie auf den Temperaturverlauf hängt von der Masse des Gerichts (je größer -45
sie ist, umso mehr Moleküle müssen in Aufregung versetzt werden), von seiner Zusammensetzung und von der Art und Weise ab, wie sich die Wärmeenergie im Gericht ausbreitet. Auf der molekularen Ebene ist eher die Temperatur als die Gesamtmenge der aufgeno mmenen Energie dafür entscheidend, was sich im Braten tut. Ein (meist kleinerer) Effekt rührt von der Tatsache her, dass energiegeladenere Moleküle - wie energiegeladenere Menschen - mehr Raum benötigen: Sie stoßen ihre Nachbarn zur Seite, um sich Platz zu schaffen. Aus diesem Grund dehnen sich Stoffe mit steigender Temperatur aus - so auch das Quecksilber im Thermometer. Steigt die Temperatur, ändert sich auch die Form der Moleküle, sie wechseln ihren Ort, sie zerbrechen oder gehen mit anderen Partnern neue (chemische) Wahlverwandtschaften ein. All diese Prozesse, die in Anhang 2 genauer beschrieben werden, ändern den Geschmack und die Struktur der Nahrungsmittel. Die Kunst des Kochens besteht darin, diese Änderungen in kulinarisch perfekter Weise zu steuern. Das Hauptproblem beim Kochen, Braten oder Backen besteht darin, in Suppe, Steak oder Kuchen die »richtige« Temperaturverteilung zu erzielen. Um diese Verteilung vorherzusagen, gibt es einfache physikalische Gesetze. Wir wollten bei unserem Treffen 1997 in Erice herausfinden, ob diese Gesetze auch bei der konkreten Arbeit in der Küche angewandt werden können - oder ob das eine oder andere Gericht mit hässlichen Überraschungen aufwartet. Außer der Strahlung gibt es zwei Möglichkeiten, um Wärme zu transportieren: Wärmeleitung und Konvektion. Alle Stoffe leiten Wärme. Der Unterschied zwischen »Leitern« und »Isolatoren« besteht nur in der Rate. Fleisch ist beispielsweise ein ähnlich guter Isolator wie das Neopren eines Tauchanzugs, aber die geringe Wärmeleitfä higkeit reicht immerhin aus, damit auch der Mittelpunkt des Bratens ausreichend warm wird - es dauert nur seine Zeit. -46
Wenn das Kochgut im Topf beweglich ist, spielt die Konvektion eine große Rolle. Heute ist der Begriff »Konvektion« ziemlich geläufig,15 eingeführt wurde er schon vor über 200 Jahren von Graf Rumford - nachdem er bei Tisch weitere schlimme Erfahrungen machen musste: Beim Essen hatte ich oft bemerkt, dass bestimmte Speisen die Wärme länger halten als andere. Apfelkuchen blieb überraschend lange heiß. Ich habe mir nie an diesen Speisen meinen Mund verbrannt und auch nie andere gesehen, die dieses Missgeschick erlitten, ohne dass ich mich - jedoch vergeblich bemühte herauszufinden, wie dieses überraschende Phänomen zu erklären sei. 16 Zwölf Jahre später hatte Rumford ein ähnliches Erlebnis mit einer dicken Reissuppe, die ihm heiß serviert wurde, die er aber zunächst eine Stunde stehen ließ. Der erste Löffel von der Oberfläche war denn auch kalt und schmeckte nach nichts - der zweite von etwas weiter unten verbrannte ihm dagegen den Mund. Rumford stand wieder vor dem gleichen Rätsel. Er war doppelt erstaunt, weil man seinerzeit Wasser für einen guten Wärmeleiter hielt. Warum wurde dann eine wasserhaltige Suppe nicht schneller kalt? Wie so oft, wenn es um kulinarische Angelegenheiten geht, lieferte schließlich der Alkohol die Antwort. Er befand sich in einer großen Kugel von rund 10cm Durchmesser, die Teil eines für spezielle Zwecke konstruierten Thermometers war. Rumford hatte es bei einem Experiment stark erhitzt, und nun lag es auf einem Fenstersims zum Abkühlen. Zu seiner großen Überraschung stellte er fest, dass »die gesamte Flüssigkeit in äußerst starker Bewegung war und gleichzeitig schnell nach oben und nach unten strömte«. Bei genauerem Hinsehen entdeckte er noch, dass »der aufsteigende -47
Strom die Mittelachse des Tubus einnahm, während die Flüssigkeit an seinen Rändern nach unten floss«.17 Der Prozess, den Rumford Konvektion nannte, ist uns vom Kochen her gut vertraut: Wenn man Wasser in einem Topf erhitzt, dehnt es sich über dem heißen Boden aus, ist damit spezifisch leichter als das kalte Wasser darüber und steigt an die Oberfläche. Dort verdrängt es das kältere Wasser, das nun absinkt und seinerseits am Boden erhitzt wird. Das Ergebnis ist eine kontinuierliche Zirkulation, die letztlich die Wärme in alle Bereiche des Topfs befördert - ein Vorgang, den man im Übrigen durch Umrühren unterstützen kann (Abbildung 2.1).
A BBILDUNG 1.1: Konvektionsprozess. Bewegungen von erhitztem Wasser in eine m Topf.
Verglichen mit der Wärmeleitung ist die Konvektion weitaus wirkungsvoller. Wasser galt nur deshalb als guter Wärmeleiter, weil vor Rumford niemand die Existenz der Konvektion bemerkt hatte. Rumford kam nun zu dem Ergebnis, dass Wasser ein schlechter Wärmeleiter ist, und dass er sein Problem mit dem Apfelkuchen und der Reissuppe hatte, weil in diesen beiden Fällen die freie Bewegung unterdrückt war. Um diese Annahme zu überprüfen, erschwerte er gezielt in zwei Töpfen die -48
Konvektion, indem er einmal Stärke ins Wasser gab und in den zweiten Topf Daunenfedern stopfte. Es stellte sich heraus, dass in beiden Fällen das Wasser viel langsamer abkühlte als ohne Hindernis. Rumford überlegte ganz richtig, dass in Massen wie Apfelbrei und dicker Reissuppe die Konvektion stark behindert oder sogar völlig unterbunden wird, weil während des Kochens Substanzen entstehen, die jede Bewegung hemmen. So wird zwar die Oberfläche schnell kalt, die heiße Füllung des Apfelkuchens und die heißen Reisschichten am Tellerboden können aber nicht durch Konvektion an die Oberfläche transportiert werden, um dort abzukühlen. Auch in einem Ei, das gekocht wird, ist die Konvektion weitgehend unterbunden, denn die von der Erwärmung erzeugten Dichteunterschiede im Eiweiß sind kaum groß genug, um den dickflüssigen Stoff nennenswert umzuschichten. In Gemüse und Fleisch, wo das Wasser in einem Gitternetz von Fasern gefangen ist, gibt es praktisch überhaupt keine Konvektion. Der - wenn auch langsame - Hauptmechanismus zum Transport von Wärme ist in diesen Fällen die Wärmeleitung. Das hat vom Standpunkt des Küchenchefs den Nachteil, dass Fleisch und große Gemüsestücke lange Zubereitungszeiten erfordern. Ein Vorteil ist dagegen, dass die fertig gekochten Gerichte ihre Wärme länger halten. Ein weiterer Vorteil ist, dass für ihre Zubereitung recht einfache Gesetze gelten, die allerdings nicht immer mit denen übereinstimmen, die wir in Kochbüchern finden oder die von den Meisterköchen praktiziert werden. Nehmen wir das einfache Beispiel eines Steaks, das in einem Grill von beiden Seiten gleichermaßen mit Wärme versorgt wird. Wie wächst die Grilldauer an, wenn man eine doppelt so dicke Scheibe Fleisch nimmt? Viele große Köche (die von Erice ausgenommen!) geben auf diese Frage eine falsche Antwort und meinen, dass es nicht einmal doppelt so lange dauert. Die richtige Antwort, die durch Experimente belegt ist, lautet: Es -49
dauert viermal so lang, bis das doppelt dicke Steak gleich gut durchgebraten ist - wobei »gleich gut durchgebraten« heißt, dass in seinem Inneren die gleiche Temperatur erreicht wird.18 Wir sind auf ein weiteres Beispiel für ein quadratisches Gesetz gestoßen: doppelte Dicke - vierfache Zeit. Wie kommt es zu der quadratischen Abhängigkeit? Die Antwort auf diese Frage, die uns von den Köche n in Erice gestellt wurde, liefert der Mechanismus, mit dem die kinetische Energie zwischen den Molekülen des Fleischs transportiert wird. Der Koch-, Back oder Bratvorgang beginnt, wenn die Wärme die Oberfläche des Gerichts erreicht und dort die kinetische Energie der Moleküle erhöht. Diese Moleküle geben dann durch Stöße einen Teil der empfangenen Energie an ihre »kälteren« Nachbarn in den tieferen Schichten ab: Die Energie wird wie der Stab bei einem Staffellauf weitergereicht. Statistische Gesetze beschreiben, dass die Weitergabe der Energie in jede Richtung mit gleicher Wahrscheinlichkeit erfolgt - wie die vom Zufall bestimmte Diffusion von Molekülen in einer Flüssigkeit, die wir in Kapitel l diskutiert haben: Die Zeit zur Überbrückung einer bestimmten Distanz ist proportional zum Quadrat dieser Distanz. Um doppelt so weit zu kommen, braucht die Wärme viermal länger. Die Gleichung für die Wärmeleitung wurde von dem französischen Mathematiker Jean Baptiste Fourier aufgestellt, einem der savants, der Gelehrten, die 1798 Napoleon auf seinem Ägyptenfeldzug begleiteten. Die quadratische Abhängigkeit erhält man als Lösung der Fourier-Gleichung für den Fall eines völlig flachen Steaks, dessen Länge und Breite weit größer sind als seine Dicke. Es gibt gute Gründe, dass sie auch für ein unregelmäßiger geformtes Stück Fleisch gilt. Lösungen der Fourier-Gleichung für Würste, Koteletts und Hamburger sind zwar recht kompliziert (wenn man sie überhaupt angeben kann), aber in allen ist die Zeit vom Quadrat der Dicke abhä ngig.19 Keine Theorie kann jedoch das Experiment ersetzen -50
insbesondere, wenn es um die Kochkunst geht.20 Wir entschlossen uns in Erice, dazu einen echten Braten zu verwenden, der von Fritz Blank, dem Chefkoch und Eigentümer des berühmten »Deux Cheminées« in Philadelphia, liebevoll vorbereitet wurde. Meine Aufgabe bestand darin, den Braten mit winzigen Thermofühlern zu spicken, mit denen die Temperaturänderungen in den verschiedenen Tiefen des Fleisches gemessen werden sollten. Die Anschlussdrähte der Thermofühler liefen vom Herd zu einem mehrkanaligen Registriergerät, vor dem Blank und ich bei einem das Nachdenken fördernden Glas Wein saßen und den Bratvorgang überwachten. Nach zwei Stunden hatte der Bratenmittelpunkt die von Blank vorgegebene Temperatur von 45 °C erreicht, und die Vorträge auf der Tagung rückten in den Hintergrund, weil sich alle - die Referenten und die Zuhörer - versammelten, um das Ergebnis des Experiments zu kosten. Blank bestand jedoch darauf, dass der Braten zunächst 40 Minuten »zur Ruhe« kommen müsse. Mir war zunächst der Grund für diese Kulthandlung des Meisterkochs nicht ganz klar, ich verstand aber bald, worum es ging. Der Aufschub bot mir nämlich die Gelegenheit, den Abkühlprozess des Bratens zu beobachten und dabei die Daten zu analysieren, die wir bisher erhalten hatten. Wenn das quadratische Gesetz galt, musste der Graph der zum Quadrat genommenen Eindringtiefe einer bestimmten Temperatur in Bezug zur Zeit eine Gerade darstellen. Ich prüfte diese Annahme für einige Temperaturwerte. Als ich mir die Graphen ansah, wurde mir klar, dass ich das Glas Wein wohl verdient hatte: Die Temperaturen im Braten folgten dem quadratischen Gesetz nahezu perfekt! In der Zwischenzeit sorgte der »ruhende« Braten für eine kleine Überraschung. Die Thermofühler zeigten wie erwartet an, dass die Temperatur an der Oberfläche abfiel, sobald wir den Braten aus dem Rohr genommen hatten. Zur gleichen Zeit stieg aber die Temperatur im Mittelpunkt des Bratens weiter an! Dies -51
ging in den ganzen folgenden 40 Minuten weiter, bis zuletzt in der Bratenmitte 55°C erreicht waren, eine Temperatur, die irgendwo zwischen »medium« und »welldone« liegt. Verletzt Fleisch die üblichen Gesetze der Wärmeleitung? Ich stellte sehr schnell fest, dass sie weiterhin galten und man mit ihnen sogar das Phänomen erklären konnte. Der kühle Bratenmittelpunkt war auch dann noch von heißerem Fleisch umgeben, als wir das Gericht aus dem Rohr geholt hatten: Die Schicht mit der höchsten Temperatur lag irgendwo zwischen der Oberfläche und dem Brateninneren, und die Wärme floss von dort zu den kühleren Bereichen, also sowohl in Richtung Oberfläche, als auch in Richtung Mittelpunkt. Eine spätere genaue Analyse der Messdaten zeigte, dass der Ablauf sehr genau den Vorhersagen der Fourier-Gleichung folgte. Die Analyse zeigte auch, dass das Ritual des Kochs, große Braten vor dem Servieren »ruhen« zu lassen, eine solide wissenschaftliche Grundlage hatte: Das Innere des Bratens brät weiter und die Temperatur verteilt sich im Braten gleichmäßiger, was dafür sorgt, dass das Fleisch überall gar wird. Den gleichen Effekt erzielt man auch, wenn man einen Braten längere Zeit bei niedrigerer Temperatur brät. Aber wie kann man ein so perfektes Ergebnis erreichen, wenn man doch andererseits sehr hohe Temperaturen braucht, um die schöne braune Kruste zu erhalten? Die Antwort ist sehr einfach: Man brät das Stück Fleisch bei hohen Temperaturen an und wechselt nach kurzer Zeit zu niedrigeren. So gehen Profis wie Blank vor, wenn sie nicht gerade an Bratexperimenten teilnehmen. Dabei gilt natürlich weiterhin das quadratische Gesetz, wobei allerdings die Zeiten wegen der geringeren Temperatur im Rohr andere sind. Spitzenköche sind in der Lage, die Brat- und Kochzeiten in ihrer Abhängigkeit vom Gewicht 21 des Gerichts perfekt abzuschätzen, ohne das quadratische Gesetz bemühen zu -52
müssen: Ihre Erfahrungswerte stimmen mit ihm meist eng überein.
Tabelle 2.1 Bratdauer für ein in einem Backofen mit 190 °C »rare« zubereitetes Roastbeef
Als Regel für den klugen Koch am häuslichen Herd mag gelten: Üben, bis das Ergebnis perfekt ist - und dabei immer das Gewicht des Bratens und die Garzeit aufschreiben. Mit dem quadratischen Gesetz kann man dann leicht die Garzeiten für größere oder kleinere Portionen ausrechnen. Das klingt alles verlässlich und erfolgversprechend, es gibt aber leider eine tückische Falle. Das quadratische Gesetz gilt für den Durchmesser und nicht für das Gewicht. Dies zu berücksichtigen ist gar nicht so einfach, es sei denn, man hat ein wenig mathematische Erfahrung: Wenn man es ganz genau nimmt, wächst die Garzeit mit dem Quadrat des Durchmessers, aber mit der 2/3-Potenz des Gewichts. Vergessen Sie es - außer Sie sind ein Ass mit dem Taschenrechner! Wenn Sie das Gewicht verdoppeln, addieren Sie einfach 50 Prozent Garzeit -53
(für andere Gewichtsänderungen einen proportionalen Betrag, zum Beispiel 25 Prozent, wenn das Gewicht um die Hälfte zunimmt). Diese simple Näherung für das Gesetz ist erstaunlich gut, wie man leicht anhand von Tabelle 2.1 überprüfen kann. Vermutlich haben die besten Köche für ihre Zwecke die Regel intuitiv herausgefunden. 22
A BBILDUNG 2.2.: Temperatur im Inneren eines Eis beim Kochvorgang (nach Richard Gardner und Rosa Beddington, »On Boiling Eggs«, in: Nicholas und Giana Kurti (Hrsg.): But the Crack ling is Superb, Philadelphia 1988, S. 53).
Das quadratische Gesetz (bzw. das 2/3-Gesetz für das Gewicht), das für so viele Speisen gilt, sollte man eigentlich auch beim Kochen von Eiern anwenden können. Wir mussten dazu in Erice keine Versuche durchführen, weil Richard Gardner, Professor für Zellbiologie an der University of Oxford, sie schon neun Jahren zuvor gemacht hatte. Er wollte herausfinden, warum sein zweijähriger Sohn Matthew das Eiweiß eines frisch gekochten Eis aß, aber streikte, wenn es kalt -54
geworden war. Von wissenschaftlicher Neugier getrieben setzte Gardner einem Ei zwei Thermofühler ein - einen ins Eiweiß und einen ins Eigelb - und begann es zu kochen. Gardner interpretierte seine Daten nicht in Hinblick auf ein quadratisches Gesetz, aber wir konnten das nachholen, da er sie in dem schon genannten Sammelband But the Crackling is Superb veröffentlicht hat (Abbildung 2.2).23 Die Schwankung »A« am linken Ende der Eiweißkurve hat keine tiefere Bedeutung: Sie ist durch Bewegungen des Thermofühlers entstanden. Ganz anders die zweite Schwankung »B«. Sie trat in dem Moment (und bei der Temperatur) auf, als das Eiweiß zu gerinnen begann. Dieser Prozess erfordert Energie, und die Temperatur des Eiweißes bleibt konstant, wenn über die Wärmeleitung so schnell Wärme herangeführt wird, wie es zur Neuordnung der Moleküle nötig ist. Wenn der Wärmenachschub stockt, sinkt die Temperatur sogar kurze Zeit ab. Gardner kochte sein Ei 30 Minuten, was nur Liebhaber sehr hart gekochter Eier schätzen - und Wissenschaftler, die das quadratische Gesetz überprüfen wollen. Es zeigte sich, dass dieses Gesetz durch Gardners Daten hervorragend bestätigt wird. Um ein perfektes weiches Frühstücksei zu erhalten, muss man allerdings den Kochvorgang schon weit früher abbrechen. Hätte Gardner das Ei nach 3 1/2 Minuten aus dem kochenden Wasser genommen zur Zeit der Delle »B« in der Temperaturkurve - und es sofort aufgeschlagen, so wäre es absolut perfekt gewesen (vorausgesetzt, der Thermofühler im Eiweiß hätte eine Position nahe des Eigelbs gehabt). Wir wissen, dass bei der Gerinnungstemperatur des Eiweißes das Eigelb noch weich bleibt. Das liegt daran, dass die Proteinmoleküle im Eigelb um winzige Öltröpfchen geschlungen sind und es mehr Energie bedarf, sie von der Öloberfläche zu lösen als bei den Albuminmolekülen in der wässrigen Umgebung des Eiweißes. Die Proteine des Eigelbs werden daher erst bei einer Temperatur befreit, die höher liegt -55
als die Gerinnungstemperatur des Eiweißes. Erst bei 68 °C bewegen sie sich frei und verknäueln sich dann miteinander. Die Kunst, ein weiches Ei zu kochen besteht also darin, das Eiweiß auf über 63 °C zu bringen, das Eigelb aber unter 68 °C zu halten. Für einen Koch, der keine Temperaturfühler in seinem Ei dulden kann und will, ist alles eine Angelege nheit des exakten Timings. Die Kochzeiten, die auch noch recht empfindlich von der Größe des Eis abhängen, kann man mithilfe des quadratischen Gesetzes berechnen. Charles Williams von der Exter University hat das 1998 versucht. Er fasste seine Ergebnisse in Form einer Gleichung zusammen, mit der ich die Zahlen in Tabelle 2.2 berechnet habe: TABELLE 2.2
Wie man sieht, lag James Bond richtig, sofern seine French Marans-Hühner Eier mit 39mm Durchmesser gelegt hätten und die Produkte des Federviehs bei Zimmertemperatur aufbewahrt worden wären. Bond hätte sicher in seiner sorgfältig gewählten Ausrüstung einen edlen Ring mit einem Innendurchmesser von -56
39mm bei sich gehabt und dann nur Eier zugelassen, die gerade durch den Ring passen: 1/3 Minuten Kochzeit wären dann goldrichtig gewesen. Stehen nur mittelgroße Eier von Raumtemperatur zur Verfügung, die man direkt ins kochende Wasser gibt, so sind etwa 4 Minuten angemessen. Die Kochzeit kann abgekürzt werden, wenn das Ei ruhen darf, bevor es geköpft wird. Wir kennen den Grund schon von unserem Braten: Auch wenn ein Ei aus dem kochenden Wasser genommen wird, geht der Erwärmungsprozess im Inneren weiter. Gewähren wir die Ruhezeit, erhalten wir zur Belohnung ein Ei von feinerer Konsistenz, dessen Eiweiß nicht ganz so gummiartig ist, weil sich noch keine Querverbindungen zwischen den Albuminmolekülen gebildet haben. Fritz Blank hat eine besonders raffinierte Methode ausgetüftelt, um dieses Problem zu bewältigen: Er kocht die Eier in seinem Restaurant kürzer als üblich und wälzt sie dann in zerschlagenem Eis, sodass die Wärme nur ins Innere wandert und dort den Gerinnungsvorgang fortsetzt, aber nicht nach außen, wo dies von Übel wäre und zu der erwähnten gummiartigen Außenschicht führen würde. Wie uns Kurti gezeigt hat, gibt es aber eine noch elegantere Methode. Sein Ansatz, der später von Hervé This-Benckhard in einem Beitrag für den New Scientist bestätigt wurde, beruht darauf, dass Eiweiß früher als Eigelb gerinnt. Man muss also das Ei »nur« in einer Flüssigkeit kochen, deren Siedepunkt zwischen 63 °C und 68 °C liegt. Das Eiweiß wird dann gerinnen, das Eigelb nicht, und die Kochzeit ist beliebig.24 Wer ein Forschungslabor zur Verfügung hat, kann die gewünschte Siedetemperatur erreichen, indem er Wasser unter vermindertem Druck zum Kochen bringt. Die dazu nötigen Geräte sind aber kompliziert und kostspielig, und das Verfahren erfordert darüber hinaus erhebliche Sicherheitsvorkehrungen. 25 Es bleibt also nur der Weg, eine andere Flüssigkeit als Wasser zu finden, die unter Normaldruck zwischen 64 °C und 67 °C -57
siedet. Es gibt nicht viele, die in Frage kommen. Eine, die in chemischen Labors meistens vorrätig ist, ist Methanol, das bei 64,6 °C siedet. Dabei treten nur drei kleine Probleme auf. Das erste ist der Geschmack des Methanols, der durch die poröse Eischale ins Innere dringen wird. Das zweite ist, wie man an das Zeug kommt: Methanol wird von Chemikern für wissenschaftliche Zwecke verwendet, ansonsten findet man es meist nur als blind machenden giftigen Zusatz in billigem Fusel. Das dritte Problem wiegt am schwersten: Methanoldämpfe sind entzündlich - die heiße Herdplatte kann genügen, um eine Katastrophe auszulösen. Wie man sieht, gibt es also tatsächlich eine ideale, wissenschaftliche Methode, die ein perfektes weiches Ei garantiert. Aber bitte versuchen Sie es nicht bei sich zu Hause! James Bond wäre damit sicher klar gekommen und hätte die Flammen mit einem der Spezialspielzeuge gelöscht, die von »Q« in den Kofferraum seines Bentley platziert worden wären. Vielleicht hätte er auch das in Flammen stehende Ei als Molotowcocktail verwendet, um Dr. No auszulöschen. Um zufrieden stellende gastronomische Erfahrungen zu machen, werden wir, die wir nicht James Bond heißen, doch besser damit fahren, auf eine Kombination aus Wasser und ein wenig simpler Arithmetik zu setzen.
-58
Eines meiner größten Probleme als Student war, dass ich die logischen Grundlagen der Theorien verstehen wollte, die man uns Naturwissenschaftlern beibrachte. Es war aber leider so, dass uns das meiste Grundlagenwissen als feststehende Tatsache präsentiert wurde, die wir unbesehen akzeptieren und anwenden sollten. Meine erfolgreicheren Kollegen unterwarfen sich diesem Prinzip, kamen damit gut voran und wurden schne ll Professoren und Vizekanzler von Universitäten. Ich verbrachte meine Zeit dagegen mit der Frage, wo beispielsweise jene Schrödinger-Gleichung herkommt, die der Quantenmechanik zugrunde liegt, oder wie man auf den Begriff der Energie kam, der alles beherrscht. Schließlich fand ich heraus, dass die Schrödinger-Gleichung einen Versuchsballon darstellte, vielleicht den geistreichsten in der Geschichte der Naturwissenschaften, und dass der Energiebegriff aus den Bemühungen entstanden war, zu verstehen, was Wärme ist. Bei genauerem Hinsehen wurde mir dann klar, dass die Energie immer darüber definiert wurde, welche Arbeit sie zu verrichten vermag, sodass eigentlich Arbeit der grundlegendere Begriff ist. Wie enstand dieses Konzept? Ich brauchte 35 Jahre, um es herauszufinden. Die Antwort war für mich fast ein Schock: Die Definition von Arbeit, der Größe, die für die gesamte Naturwissenschaft die Basis darstellt, verdankt sich allein der Intuition - und wir wissen nicht einmal, wer diese Intuition hatte. Aber immerhin wissen wir, dass man die Definition verwenden kann, um Werkzeuge effektiver anzuwenden. Angeblich »sparen« diese Werkzeuge Arbeit. -59
Doch traurig aber wahr: Kein Werkzeug spart Arbeit! Es trägt bestenfalls dazu bei, bestimmte Arbeiten zu ermöglichen - indem es das Verhältnis zwischen der nötigen Kraft und dem Weg, den sie gehen muss, verschiebt. In diesem Kapitel werden wir sehen, wie sich dieses Prinzip herauskristallisiert hat und wie es die Menschen seit Archimedes benutzt haben, um große Ziele zu erreichen, die vom Heraushieven einer römischen Galeere aus dem Wasser bis zum Ziehen widerspenstiger Nägel aus hartem Holz reichen. Mit dem gleichen Prinzip kann man auch herausfinden, wie man Werkzeuge am besten einsetzt. Wir werden schnell merken, dass das Ergebnis nicht immer dem entspricht, was unter Hand- und Heimwerkern »von alters her« üblich ist. Ist es hilfreich, einen kleinen Holzklotz unter den Tischlerhammer1 zu legen, wenn man mit seiner Klaue einen Nagel ziehen will? Sind lange Schraubenzieher le ichter zu benutzen als kurze mit der gleichen Schneide? Wie scharf muss ein Meißel wirklich sein? Ist es besser, einen Nagel mit einer Reihe leichter Schläge in das Holz zu schlagen als mit einigen wenigen festen Schlägen? Aus unserer praktischen Erfahrung kennen wir die Antworten auf diese vier Fragen: ja, ja, sehr und ja. Man kann Werkzeuge richtig und falsch benutzen und sie damit effektiv oder weniger effektiv einsetzen. Mit der einen Methode wird die Arbeit erleichtert, mit der anderen erschwert. Die Ratschläge der Praktiker kann man in den einschlägigen Handbüchern nachlesen. Für mich war es Woodworking Tools and How to Use Them, der Klassiker von Alfred P. Morgan, 2 den ich als Junge förmlich verschlang - wohl auch, weil ich gern meinem Vater bewiesen hätte, dass einiges von dem, was er mir an handwerklichen »Tricks« beigebracht hatte, falsch war. Ganz gegen meine Hoffnungen stand in dem Buch genau das, was er mir gesagt hatte - später fand ich heraus, dass auch er natürlich mit Morgans Buch groß geworden war. In dem Buch wurden leider die tieferen Gründe für die Regeln nicht erklärt - ganz im -60
Unterschied zu den anderen Büchern, die mich damals auf mein weiteres Leben vorbereiteten, allen voran den populären naturwissenschaftlichen Büchern, in denen statt der Frage »wie?« die Frage »warum?« gestellt wurde. Mir erschien die dort dargestellte Welt weit wichtiger, denn es ging um Dinge, die wirklich zählten, und nicht nur um Banalitäten der Alltagswelt. Damals war mir noch nicht klar, in welcher Weise diese beiden Welten voneinander leben und dass sie beide Teil eines größeren, zusammenhängenden Reichs der Erkenntnis sind.
A BBILDUNG 3.1: Versuch einer Rekonstruktion des von Archimedes gebauten Hebels zur Hebung von Schiffen.
Nun war ich nicht der Erste, dem ein solcher Fehler unterlief. Auch Archimedes, fast 300 Jahre vor der Zeitenwende geboren, unterlag der falschen Vorstellung, dass die Praxis weniger wichtig als die Theorie sei. Obwohl er zahlreiche praktische Dinge erfand, hielt er es meist nicht für nötig, die Einzelheiten für die Nachwelt festzuhalten. Dank dieser Einstellung gibt es -61
keine Beschreibung des ersten Werkzeugs, das nach wissenschaftlichen Prinzipien entwickelt wurde. Es war ziemlich groß ausgefallen - groß genug, um eine römische Galeere aus dem Wasser zu heben und die von Panik ergriffenen Soldaten von ihr abzuschütteln wie die Ameisen von einem Schiffszwieback. Trotz seiner Größe entsprach das Gerät der Definition von »Werkzeug« oder genauer »Handwerkzeug«, wie man sie im Lexikon oder im Duden finden kann: Ein Werkzeug ist ein »für bestimmte Zwecke geformter Gegenstand, mit dessen Hilfe etwas (handwerklich) bearbeitet oder hergestellt wird«. Das »Handwerkzeug« des Archimedes erforderte sicher viele Hände zu seiner Bedienung. Wir wissen aus historischen Beschreibungen, dass es die Form eines asymmetrischen Hebels hatte und an der Uferbefestigung von Syrakus aufgebaut war, um die Heimatstadt des Gelehrten gegen die Invasion der römischen Flotte zu schützen. Der Hebelarm muss das Aussehen eines langen Baumstamms gehabt haben. An seinem kürzeren Ende, das über das Wasser ragte, war eine Art Kralle angebracht, die man auf ein angreifendes Schiff herunterlassen konnte. Hatte sie sich einmal festgefressen, zogen Scharen von griechischen Kämpfern (oder auch Arbeitstieren) am Ufer den längeren Arm des Hebels herunter, und das Schiff wurde aus dem Wasser gehoben. Wenn man dem griechischen Geschichtsschreiber Plutarch glauben kann, war das Gerät so wirkungsvoll, dass die römischen Belagerer schleunigst wieder hinaus auf die offene See flüchteten, wenn sie auch nur eine Stange über die Uferbefestigung ragen sahen (Abbildung 3.l).3 Die große Kriegsmaschine war so erfolgreich, weil Archimedes nicht nur wusste, dass es die Hebelwirkung gab die war schon den alten Ägyptern geläufig -, sondern auch, welchen Gesetzen sie gehorcht. Er beschrieb schon einige Jahre vor dem Bau der Maschine die Hebelgesetze in seiner Schrift - Von den Waagen und Hebeln -, die aber leider verloren gegangen ist.4 Mathematisch gesehen besagt das Gesetz -62
nichts anderes, als dass das Produkt aus Gewicht und Länge des Hebelarms auf beiden Seiten des Drehpunkts gleich ist. Der Verfasser eines Textes, der Aristoteles zugeschrieben wurde, aber vermutlich nicht von ihm ist, hat das gleiche Gesetz schon zuvor rein intuitiv gefunden und es in plastischer Weise so formuliert: »Wie sich das bewegte Gewicht zum bewegenden verhält, so verhält sich umgekehrt die Länge des Arms, an dem die Last hängt zu der des Arms, an dem die Kraft angreift.«5
Abbildung 3.2.: Gleichgewicht auf einer Wippe. Die Drehachse ist das Auflager, um das sich die Wippe dreht. Wippen dieser Art sind »zweiarmige« Hebel, weil die beiden Lasten auf verschiedenen Seiten der Drehachse angreifen.
Wie manches Kind bin ich durch ein Experiment selbst auf das Hebelgesetz gestoßen: Ich stellte fest, dass ich meinen viel schwereren Vater auf einer Wippe in die Höhe heben konnte, wenn er nur möglichst nah an der Drehachse saß und ich ganz außen. Er wog damals dreimal so viel wie ich, und ich musste daher dreimal so weit von der Achse entfernt sitzen (Abbildung 3.2). Ich begriff sehr schnell, wie man die Hebelwirkung auch bei anderen Gelegenheiten einsetzen konnte, so auch, als ich in einer denkwürdigen Aktion mit dem sorgfältig geschliffenen -63
Meißel meines Vaters den fest verschlossenen Deckel einer Bonbondose aufstemmte. Mein Vater versprach mir, dass er mir ganz genau zeigen wolle, wie man einen Meißel für solche Zwecke benutzt - aber ich wusste ja schon, wie es ging und versteckte mich lieber im Schrank, um der schmerzhaften Lektion zu entkommen. Im Laufe der Zeit lernte ich noch weitere Hebelformen kennen, beispielsweise den Schubkarren. Als ich zwölf war, rief die Anstrengung, eine Ladung feuchten Zements mit ihm zu transportieren, die Mutter eines Freunds auf den Plan, die erschreckt aufschrie: »Oh, Lenny, nein! Du wirst Dir einen Wie heißtdasdennnoch-Bruch heben!« Die Hebelgesetze taten ihr Bestes, und ich blieb von einem Wie heißtdasdennnoch-Bruch verschont - was immer das war (Abbildung 3.3).
A BBILDUNG 3.3: Der Schubkarren. Ein Schubkarren ist ein »einarmiger« Hebel, weil hier die Last und die hebende Kraft auf der gleichen Seite der Drehachse angreifen. Die hebende Kraft ist weiter von der Drehachse entfernt als die Last.
Erst auf der High School wurde mir dann das simple mechanische Gesetz beigebracht, das für einen Hebel gilt, und -64
ich stellte fest, dass ich wie Archimedes schon im Vorhinein berechnen konnte, wohin ich bei einem Hebel die Drehachse legen musste, damit er seine Aufgabe erfüllte. Heute nutze ich diese Kenntnisse, um für mich und meine Kollegen Messgeräte für die Forschung zu entwerfen. Es ist allerdings noch nicht lange her, dass ich mich zu fragen begann, ob man das Hebelprinzip und einige andere einfache mechanische Gesetze nicht auch auf Handwerkzeuge anwenden könnte, um sie effizienter zu machen. Auf diesen Gedanken kam ich bei einer Kaffeerunde im Physics Department der Bristol University. Ich hatte die Frage aufgeworfen, warum man mit einem langen Schraubenzieher eine Schraube leichter eindrehen kann als mit einem kurzen, der die gleiche Schneide hat eine der typischen »Warum«-Fragen eines Naturwissenschaftlers. Gegen alle Vermutung gibt es keinen vorgegebenen strenglogischen Weg, um auf derartige Fragen eine »wissenschaftliche« Antwort zu finden. Es ist eher eine Frage des Geschmacks, welchen von drei möglichen Wegen ein Naturwissenschaftler geht. Der erste Weg besteht darin, auf die Grundprinzipien zurückzugehen und keinen Gedanken daran zu verschwenden, was andere vielleicht zu diesem Thema schon gesagt haben, geschweige denn, es anzuerkennen. Einige der berühmtesten Naturwissenschaftler wie Archimedes, Newton und Einstein gingen so vor. Wer fähig ist, ein Problem auf diese Weise anzupacken, hat gute Chancen, zu den Stars am Wissenschaftlerhimmel aufzusteigen. Seine Kollegen werden ihn anerkennen, manchmal aber auch fürchten. Einer aus dieser Kategorie war John Conrad Jaeger, der australische Autor und Ko-Autor einflussreicher Lehrbücher über angewandte Mathe matik.6 Einer meiner Freunde hörte mit Jaeger einem Seminarvortrag zu, den ein Student hielt, der gerade an der University of Tasmania seinen Doktor gemacht hatte. Es war in der Frühzeit der Computer, und der Student berichtete davon, wie er mit einer solc hen Maschine ein -65
besonders schwieriges Problem gelöst hatte. Mein Freund erzählte, wie der Student seinen Vortrag schwungvoll beendete, indem er die vollständige Lösung des Problems anschrieb, dann ein wenig zurücktrat und zusammen mit seinem Doktorvater voll Freude den Beifall entgegennahm. Jaeger meldete sich und fragte, ob er zur Tafel gehen dürfe, auf der immer noch die Gleichungen des Referenten standen. Dann nahm er ein Stück Kreide und murmelte vor sich hin: »Der Grenzwert dieser Funktion ist das-und-das…. Diesen Ausdruck kann man so annähern…. Und diese zwei Terme heben sich gegenseitig auf…«. Nach gerade mal einer Minute lieferte er eine Lösung des Problems, die das Ergebnis des Doktoranden völlig in den Schatten stellte, sagte »Ja, so stimmt es« und setzte sich wieder. Die Naturwissenschaft könnte ohne geniale Köpfe wie Jaeger nicht überleben, die fähig sind, den Kern eines Problems auf Anhieb zu erkennen. Ich hatte das große Glück, während meiner wissenschaftlichen Karriere mit einigen wenigen dieser Genies zusammenarbeiten zu können. Einer von ihnen war ein Mathematiker, der eine Aufgabe immer schon gelöst hatte, während ich noch verzweifelt nach einem Ansatz suchte. Immerhin war ich in der Lage, seine Lösungswege nachvollziehen zu können, weil ich irgendwann eine Prüfung in »reiner Mathematik« abgelegt hatte. Unvorsichtigerweise erwähnte ich diese Glanzleistung eines Tages, worauf er sich umdrehte, mich erstaunt anstarrte und fragte: »Sie? Ach wirklich?« Als ich in Bristol das Problem mit dem Schraubenzieher aufwarf, ging man freundlicher mit mir um, aber nicht weniger deutlich. Ich argumentierte, dass längere Schraubenzieher leichter zu handhaben seien, weil man durch einen schrägen Ansatz eine zusätzliche Hebelwirkung erzeugen kann, ohne dass gleich die Schneide aus dem Schlitz rutscht. Mein Kollege Jeff Odell rechnete das Ganze in der Zeit durch, die ich für einen Schluck Kaffee brauchte: Eine Neigung um einige wenige Grad würde die Drehkräfte nur wenig verstärken, -66
und die Hebelwirkung hätte auf jeden Fall kaum etwas mit dem Problem zu tun. »Ein fest gehaltener Schraubenzieher«, so dozierte er, »ist nichts als ein verlängerter Arm. Das einzige was zählt ist, dass er die Drehung des Handgelenks unterstützt. Vermutlich geht es mit langen Schraubenzie hern leichter, weil ihr Griff größer ist und man daher besser zupacken kann, ohne abzurutschen.« Stuart Burgess, ein anderer Kollege, behauptete, ein »Schraubenzieher sei in Wirklichkeit ein Gabelschlüssel, der nicht senkrecht zur Schraube sondern in Schraubenrichtung benützt wird«. Wer Recht hat - Jeff Odell oder Stuart Burgess mögen Sie später selbst entscheiden. Mir fiel nach diesen trockenen Kommentaren auch nichts mehr ein - außer zu gehen und ein Experiment zu machen. Die Ergebnisse werde ich weiter unten darstellen. Den Ansatz mit einem Experiment hatte ich bei meinen Forschungsarbeiten schon oft gewählt: Er weist mich ganz eindeutig als Mitglied des zweiten Lagers von Naturwissenschaftlern aus, zu dem jene zählen, die - ihrer Spürnase folgend zunächst Messungen anstellen und erst danach über die Ergebnisse nachdenken. Mein großes Vorbild für diese Art des Umgangs mit wissenschaftlichen Problemen ist Lord Rutherford, der raubeinige Neuseeländer, der die britische Physik zu Beginn des 20. Jahrhunderts dominierte. Rutherford untersuchte Alphateilchen, jene relativ schweren, positiv geladenen Heliumkerne, die von einigen radioaktiven Stoffen bei ihrem Zerfall wie Gewehrkugeln abgeschossen werden und dabei eine Geschwindigkeit von über 15 000 km/s erreichen. Er erinnerte sich später: Eines Tages kam Geiger [der Erfinder des Geigerzählers7 ] zu mir und sagte: »Meinen Sie nicht, dass der junge Marsden, dem ich gerade radioaktive Untersuchungsverfahren beibringe, ein wenig Forschung betreiben sollte?« Ich hatte mir das auch schon überlegt und antwortete: »Warum lassen wir ihn nicht -67
herausfinden, ob vielleicht irgendwelche Alphateilchen von einer Goldfolie um große Winkel aus ihrer Bahn gestreut werden?«8 Auf den ersten Blick ein verrücktes Experiment, das kaum Aussicht auf Erfolg versprach! Damals glaubte man noch an das Modell von Joseph John Thomson und William Thomson (Lord Kelvin), wonach Atome kleinen elektrisch neutralen Plumpuddings ähneln, in deren lockerer, kugelförmiger, positiv geladener Hauptmasse die negativ geladenen Elektronen wie Rosinen nach dem Zufallsprinzip verteilt sind. Alphateilchen, die mit großer Geschwindigkeit durch Materie fegen, die aus solchen Atomen aufgebaut ist, sollten daher nicht mehr Schaden anrichten als eine Gewehrkugel beim Schuss durch einen echten Plumpudding. Bei Marsdens Versuchen wurden aber viele der Alphateilchen weit von ihrem Weg abgelenkt, ja einige wurden sogar reflektiert und flogen wieder dahin zurück, wo sie hergekommen waren. Rutherford war fassungslos: »Es ist fast so unglaublich, wie wenn man eine 40-Zentimeter-Granate auf Seidenpapier abfeuert und sie zurückprallt und einen umwirft«.9 Rutherford hatte nicht ahnen können, auf ein so spektakuläres Ergebnis zu stoßen, er hatte nur das getan, was Naturwissenschaftler mit gutem experimentellem Instinkt tun: Sie fragen nicht lange nach den Aussichten, sondern versuchen etwas, was sich als wichtig erweisen könnte - wenn es funktioniert. Je geringer die Erfolgsaussichten sind, umso sensationeller ist es, wenn etwas herauskommt.10 In unserem Fall war das Ergebnis in der Tat sensationell und führte Rutherford zu der modernen Vorstellung, die wir von Atomen haben - mit einem positiv geladenen, auf engstem Raum konzentrierten Atomkern, der fest genug ist, die Flugbahn vo n Alphateilchen abzulenken, die ihm zu nahe kommen. -68
Rutherfords Strategie, einer Intuition zu trauen und etwas »auszuprobieren«, folgten vermutlich auch die ersten Erfinder von Handwerkzeugen - der Unbekannte eingeschlossen, der als erster den Einfall hatte, an einen Stein zum Zertrümmern von Knochen einen Holzgriff zu binden, und damit den Hammer erfand.11 Der eigentliche »Rutherford« der Welt des Hammers war aber ein anderer, der nach einigen tausend Jahren Ärger mit dem Wegfliegen der schlecht verknoteten Steine den genialen Einfall hatte, in den Kopf ein Loch zu bohren und den Stiel hineinzustecken. 12 Seit jenen fernen Zeiten sind die unterschiedlichsten Hammerarten entwickelt worden. Ich wollte gern wissen, ob auch bei den Handwerkzeugen irgendjemand Rutherfords nächsten Schritt gemacht hatte, der den wahren Wissenschaftler auszeichnet: die Frage zu stellen, warum all die Hämmer, Schraubenzieher und sonstigen Werkzeuge so arbeiten wie sie es tun, und mit der Antwort zu versuchen, ihre Konstruktion und ihre Anwendung zu verbessern. Um mit dieser Aufgabe voranzukommen, habe ich mich zu der dritten und größten Gruppe von Wissenschaftlern gesellt: Sie versuchen zuerst mit großem Spürsinn herauszufinden, was andere vor ihnen geleistet haben, bevor sie den Problemen selbst weiter nachgehen. Zu dieser Kategorie von Wissenschaftlern gehören einige der Besten. Sie stellen quasi den Mörtel dar, der die Wissenschaft als Ganzes zusammenhält. Einer von ihnen ist Jacob Israelachvili, mit dem ich schon sehr früh zusammengearbeitet habe. Er war der Erste, dem es gelang, die Kräfte zwischen zwei Oberflächen zu messen, die so dicht aufeinander lagen, dass nur einige wenige Atome zwischen ihnen Platz hatten. Die Versuche, die er durchführte, hatten viele - und auch ich - für aussichtslos gehalten. Er stellte sie für seine Dissertation an und sagte mir später, dass er 2 3/4 der vorgesehenen 3 Jahre damit zugebracht hatte, die Forschungsergebnisse anderer zu studieren, um mit diesen Erkenntnissen dann eine -69
Versuchsanordnung zu basteln, die Erfolg versprach. Dann brauchte er ganze zwei Monate, um die Messungen durchzuführen, durch die er berühmt geworden ist - aber sein Erfolg beruhte zum großen Teil auf der genauen Kenntnis der wissenschaftlichen Grundlagen, die er sich aus frühe ren Arbeiten angeeignet hatte. Kann man annehmen, dass auch die Handwerkzeuge so entstanden sind? Ich machte mich auf die Suche nach schriftlichen Quellen und fand mit der Hilfe eines freundlichen Bibliothekars, der sich gut in den Ingenieurwissenschaften auskannte, sehr schnell heraus, dass es über die physikalischen Gesetze, die den Handwerkzeugen und ihrem Gebrauch zugrunde liegen, sehr wenig Schriftliches gibt. Wir fanden nur einige wenige verstreute Arbeiten über dieses Thema, und selbst die 32 eng bedruckten Seiten des Artikels in der berühmten Ausgabe der Encyclopaedia Britannica von 1911 mit dem verheißungsvollen Titel »Tools« verloren kein einziges Wort darüber, warum die Handwerkzeuge so konstruiert wurden, wie sie heute sind, und warum man sie in der jetzt üblichen Art und Weise benützt. In der Annahme, Hilfe finden zu können, machte ich dann einen Besuch bei Stuart Burgess, der Fachmann für Design13 ist und an der Bristol University Kurse für Werkzeugmacher anbietet. Er war über meinen Besuch sehr erfreut - nicht dass er mir helfen konnte, aber er fand es sehr schön, dass ich über dieses Thema etwas schreiben wollte. Er meinte, es gäbe noch nichts Derartiges und versprach mir, mein Buch seinen Studenten zu empfehlen - wenn es irgendwann einmal fertig wäre. Als Nächstes hatte ich die Idee, dass Handwerkzeuge vielleicht in Physikvorlesungen als praktische Beispiele herangezogen werden, um einfache mechanische Grundprinzipien zu veranschaulichen. Meine Kollegen unter den Physikern sagten mir, dass sie zwar die mechanischen Prinzipien unterrichten, sich aber nicht um die praktischen Anwendungen -70
kümmern. Ich war also mit meinem Projekt auf mich allein gestellt. Na ja, nicht ganz allein: Im Laufe meines Berufslebens hatte ich eine Menge Leute kennengelernt, mit denen ich über solche Dinge reden konnte und die bereit waren, sich auf neue Ideen einzulassen. Das ist der übliche Weg, wie Wissenschaft funktioniert: Die Forscher sitzen nicht einsam und allein in ihrem Elfenbeinturm, sondern tauschen Gedanken aus, reden über ihre Ergebnisse und schlagen neue Ansätze vor, die sich oft in Bereiche vorwagen, die weit entfernt von der üblichen Laborarbeit liegen. Mit anderen Worten: Wissenschaft ist Teamwork, und ich habe zum Glück reichlich Freunde und Kollegen, die bereitwillig ihre Hilfe, ihre Ideen und ihre Kritik anbieten. Zu ihnen und zu meinen Freunden unter den Praktikern bin ich gegangen, um auf dem Weg zum wahren Zenmeister aller Heimwerker voranzukommen und das wissenschaftliche »Tao« des Schraubenziehers zu finden. Die erste Frage, die ich mir stellte, war: »Warum verwenden wir überhaupt Werkzeuge?« Schon Galilei schalt vor 400 Jahren die Handwerker für ihren Glauben, Werkzeuge würden die Arbeit vermindern und damit das Leben leichter machen. Ich vermutete, dass trotz Galileis Kritik auch heute noch viele an dieses Märchen glauben. Ich irrte - zumindest was meine Freunde unter den Praktikern betraf. Sie gaben mir alle die wissenschaftlich korrekte Antwort, dass Werkzeuge die Arbeit nicht vermindern, sondern dass mit ihnen die Lösung mancher Aufgaben erst möglich wird, weil sie die rohe Gewalt auf ein »handliches« Maß reduzieren. Ein schönes Beispiel stellt der Wagenheber dar. Jeder kann mit ihm ein Auto von 500kg Masse hochkurbeln und kommt dabei mit einer Kraft aus, die auf direktem Weg (also ohne dazwischengeschobenes Werkzeug) vielleicht gerade 5 kg heben kann. 14 Mit dem Wagenheber kann man die hundertfache Masse heben, er hat also einen mechanischen Wirkungsgrad von 100:1 oder 100. Als ich -71
damals als 25kg schweres Kind meinen Vater mit seinen 75 kg auf der Wippe anhob, war der Wirkungsgrad der Wippe 3. Die Schattenseite dieses Verfahrens ist, dass man zwar weniger Kraft aufbringen muss, aber der Weg länger ist, um den man den Angriffspunkt der Kraft bewegen muss. Ganz gleich, wie hoch ich mein Auto kurbeln möchte: Der Weg der Kurbel (und meiner Hand, die sie antreibt) ist hundertmal größer als die gewünschte Höhe. Diesem Gesetz kann niemand entkommen. Warum nicht? Den Grund hat Galilei entdeckt, der mit einer Reihe kluger Argumente zeigen konnte, dass bei jedem Prozess, bei dem Kraft angewandt wird, das Produkt aus Kraft und Weg eine konstante Größe ist, die man nicht beeinflussen kann, wie geschickt man sich auch aus der Affäre ziehen will und wie ausgeklügelt auch ein Werkzeug oder eine Maschine konstruiert ist. Inzwischen wird in der Wissenschaft das Produkt »Kraft x Weg«15 mit »Arbeit« bezeichnet und stellt eine Grundgröße der Naturwissenschaften dar. Aus der Erkenntnis, dass man Energie weder erzeugen noch vernichten kann, folgt, dass die Arbeit, die wir in einen bestimmten Prozess stecken müssen, unabhängig davon ist, auf welchem Weg wir dies bewerkstelligen. Galilei wusste noch nichts vom Energieerhaltungssatz, und ich bekam erst eine Ahnung, wie er das Problem angegangen war, als ich das Material für dieses Buch zusammenstellte. Als ich dabei schließlich auf seine Beweisführung stieß, die er für Laien formuliert hatte, wurde ich regelrecht neidisch und wünschte mir, auch so schön und einfach schreiben zu können. Er erklärte, dass »der Vorteil, den man durch die Länge des Hebels gewinnt, nichts anderes darstellt, als die Möglichkeit, das schwere Gewicht auf einmal zu heben. Das wäre mit der gleichen Kraft und der gleichen Bewegung, aber ohne die Hilfe eines Hebels nur durchzuführen gewesen, wenn man das Gewicht gestückelt hätte.« Um auf unser Beispiel zurückzukommen: Wenn wir ein Auto mit seinen 500 kg in 100 kleine Stücke zu je 5 kg zersägen und -72
dann jedes dieser Stücke mit der Hand 30cm über den Boden heben, leisten wir genau die gleiche Arbeit - 5kg x 30cm x 100 , wie wenn wir bei gleicher Kraftanstrengung mit der Kurbel des Wagenhebers einen Weg von 30m beschreiben oder wenn wir den Wagen mit einem Ruck um 30cm heben: Die Arbeit beträgt immer 5kg x 30m = 500kg x 30cm = 150kg m. Alles was der Wagenheber leistet, ist eine Umverteilung von Kraftanstrengung und Weg, während das Produkt der beiden Größen immer gleich bleibt. Galilei zeigte, dass diese Feststellung für alle Werkzeugarten gilt. Seine Erkenntnis, dass kein Werkzeug den Arbeitsaufwand verringern kann, der für einen Prozess nötig ist, sondern nur das Verhältnis von Kraft und Weg umverteilt, gilt, solange die gesamte Arbeit auch dem Prozess zugute kommt. Geht bei der Ausführung ohne Werkzeug Arbeit verloren, kann ein Werkzeug durchaus Arbeit sparen. Wenn wir beispielsweise einen Haufen Ziegel mit der Hand ein Stück auf dem Boden entlangschieben, geht ein großer Teil der aufgewandten Arbeit als Reibung verloren, statt zur Bewegung der Ziegel beizutragen. Reibung bedeutet, dass Bewegungsenergie in Wärme umgewandelt wird, die in die Ziegel und ihre Umgebung abgeführt wird und nicht wieder in Bewegungsenergie zurückverwandelt werden kann. Wenn wir den gleichen Haufen Ziegel mit dem Schubkarren transportieren, ist die Reibung auf die weitaus kleinere Rollreibung des Rads reduziert, und wir sparen Arbeit. Wenn wir unsere bisherigen Überlegungen über Handwerkzeuge zusammenfassen, bleiben zwei Fragen, die wir bei jedem Werkzeug stellen müssen: Ist der mechanische Wirkungsgrad so groß wie möglich, und ist der Verlust an Energie (beispielsweise durch Reibung) so klein wie möglich? Ich entschloss mich, diese beiden Fragen in Bezug auf einige der üblichen Handwerkzeuge zu stellen, wie sie Handwerker und Bastler verwenden. Obwohl meine Zeit nicht unbegrenzt war, -73
hatte ich bald genug Material, um ein ganzes Buch füllen zu können. Im Folgenden stelle ich eine Auswahl der Ergebnisse vor, die ich am interessantesten fand und die besonders für Heimwerker nützlich sein könnten. Um ein wenig Ordnung in das große Feld der Werkzeuge zu bringen, stütze ich mich wieder auf den schon erwähnten Artikel in der Encyclopaedia Britannica von 1911. Sein Verfasser, der viktorianische Experte Joseph G. Horner, teilte die Werkzeuge in fünf Kategorien ein: 1. Meißel, 2. Schneidwerkzeuge wie Scheren, 3. Spachtel, 4. Schlagwerkzeuge wie Hämmer und 5. formende Werkzeuge wie Kellen. Weder Werkzeuge auf der Grundlage des Hebelprinzips noch die wichtige Gruppe von Werkzeugen, die auf der Keilwirkung beruhen, werden erwähnt. Auf das Risiko hin, den Zorn von Mr. Horners Geist zu erregen, entschloss ich mich, aus seinen fünf Kategorien nur die »Schlagwerkzeuge« zu untersuchen, aber die zwei genannten fehlenden Kategorien hinzuzufügen.
-74
• TISCHLERHAMMER Wenn man den gebräuchlichen Tabellen folgt, braucht man zum Ziehen eines Nagels von 5 cm Länge, der quer zur Faserrichtung in einen abgelagerten Hartholzblock geschlagen wurde, für den ersten Ruck eine Kraft, die dem Heben von 26kg entspricht.16 Den Nagel mit einer Zange herauszuziehen ist schwer, weil man keine Hebelwirkung einsetzen kann. Hier hilft ein Tischlerhammer weiter. Sein Wirkungsgrad ist gewaltig, da der Drehpunkt sehr nah am Nagel sitzt. Mein Hammer ist 700g schwer und hat einen 33cm langen Stiel. Der erste Auflagepunkt des Hammerkopfs auf dem Holz liegt ganze l cm von der Nagelachse entfernt. Der Wirkungsgrad 33/1 = 33 bedeutet, dass eine Kraft von weniger als l kg genügt, um den Nagel in Bewegung zu versetzen (Abbildung 3.4). Der Wirkungsgrad schmilzt schnell dahin, wenn der Nagel ans Tageslicht kommt, weil sich dabei der Auflagepunkt des Kopfs immer weiter vom Nagel entfernt. Schließlich wird die Kante des Kopfs, die 11cm vom Nagel entfernt ist, zur Drehachse und der Wirkungsgrad beträgt nur noch ganze 3, während der Nagel gerade mal um 2cm herausgezogen ist. Würde man den Nagel nun noch weiter mit dem Hammer heraushebeln, wäre eine Kerbe im Holz die Folge. Die Kraft, mit der ganz zu Anfang der Nagel senkrecht herausgezogen wurde, greift ihn nun in einem Winkel an, was zu weiteren Zerstörungen an Holz (Kerbe) und Nagel (Verbiegung) führen kann.
-75
A BBILDUNG 3.4: Tischlerhammer, dessen Hebelwirkung zum Ziehen eines Nagels eingesetzt wird.
A BBILDUNG 3.5: Einsatz eines kleinen Holzklotzes, um den Bewegungsradius eines Tischlerhammers zu vergrößern. -76
Sind wir damit schon am Ende der Möglichkeiten angelangt? Nein: Gute Handwerker verbessern ihre Chance, indem sie einen kleinen Holzklotz unter den Hammerkopf legen (Abbildung 3.5). Mein Vater erklärte das gern so, dass auf diese Weise das Holz geschont werden soll - ein Vorteil, den man aber damit bezahlen muss, dass zu Anfang der Wirkungsgrad vermindert wird, da der erste Auflagepunkt nun etwas weiter vom Nagel entfernt is t. Trotzdem ist der Wirkungsgrad noch ganz ordentlich und ändert sich auch während des Ziehens nicht mehr allzu sehr. Wählt man einen Holzwürfel mit 10mm Kantenlänge und legt ihn dort unter, wo der Stiel im Kopf steckt, fällt der Wirkungsgrad bei meinem Hammer von 10 auf 8, was bedeutet, dass man zu Beginn eine Kraft von 2,6 kg aufbringen muss, also immer noch zufriedenstellend wenig. Die Arbeit wird leichter, wenn man mit dem Tischlerhammer wippt und sie wird immer leichter, je weiter man den Nagel herausgezogen hat, obwohl der Wirkungsgrad dabei ständig kleiner wird. Der Grund dafür ist, dass die aufzuwendende Kraft proportional zur Eindringtiefe des Nagels ist - hat man den halben Nagel schon herausgezogen, braucht man auch nur noch die halbe Kraft. Der eigentliche Vorteil, den der kleine Holzblock bringt, liegt jedoch darin, dass man mit einem einzigen Zug den Nagel 3,5cm herausziehen kann. Die restlichen 1,5cm, die noch im Holz stecken, kann man nun direkt und ohne Hebelwirkung mit einer Zange bewältigen, mit der man nur noch 26kg x (1,5/5) = 7,8kg aufwenden muss. Nachdem ich mir das alles überlegt hatte, kam mir noch eine andere Idee, auf die ich ganz stolz bin und von der ich meine, dass sie eine Pioniertat darstellt (bis jemand kommt und mir erzählt, dass die Handwerker das schon seit undenklichen Zeiten so gemacht haben): Man sollte sich einen Holzblock mit Stufen basteln und ihn Schritt für Schritt unter den Kopf schieben, während man den Nagel anhebt. Mit einem solchen Zubehör, das man jedem Tischlerhammer beigeben könnte, wäre es möglich, Nägel beliebiger Länge auf einen Rutsch zu ziehen. -77
• SCHRAUBENSCHLÜSSEL Der ideale Schraubenschlüssel bewirkt ausschließlich eine Drehbewegung, die gesamte Kraft geht also in die Drehung der Mutter.17 Ich erinnere mich dunkel an meine Vorlesungen in angewandter Mathematik, in denen ich gelernt habe, dass das nur gilt, wenn der Schraubenschlüssel symmetrisch ist (Abbildung 3.6). Der Vorteil einer solchen Bauweise ist zudem, dass man die Kraft beider Hände nutzen kann. Die an den beiden Enden angreifenden Kräfte sind identisch, wirken aber in entgegengesetzte Richtung. Wenn zwei Kräfte längs derselben Geraden angreifen - beispielsweise an einem Seil, an dessen beiden Enden exakt gleich starke Frauen oder Männer ziehen -, ist die Anordnung im Gleichgewicht und nichts bewegt sich. Haben die beiden Kräfte aber Angriffspunkte, die einen Querabstand voneinander haben, bilden sie ein Kräftepaar, das eine Drehung auslöst. Das Drehmoment ist gleich der angreifenden Kraft multipliziert mit dem Abstand der Angriffspunkte.18
A BBILDUNG 3.6: Drehmoment bei der Drehung einer Mutter durch einen zweiarmigen Schraubenschlüssel.
Man kann den Wirkungsgrad, den ein solcher Schraubenschlüssel gegenüber den bloßen Fingern hat, nicht so leicht ausrechnen, weil der Zugriff und die Bewegung der Muskeln ganz anders sind, wenn man eine Schraubenmutter -78
dreht, indem man mit der ganzen Hand am einen Ende des Schraubenschlüssels zieht, während man das andere wegdrückt. Eine Versuchsanordnung zur Messung des Drehmoments besteht darin, mit einem Streifen Klebeband eine Mutter in ihrem oberen Teil zu umwickeln, dazu mit einem zweiten Streifen Klebeband mit umgekehrtem Drehsinn ihren unteren Teil und dann an den beiden freien Enden zu ziehen - im Übrigen ein guter Trick, wenn kein Schraubenschlüssel zur Hand ist! An den beiden Enden kann man nun die gleiche Kraft anlegen wie bei einem Schraubenschlüssel. Der Wirkungsgrad des Schraubenschlüssels besteht im Verhältnis der Drehmomente bei beiden Anordnunge n, das heißt im Verhältnis der Gesamtlänge des Schraubenschlüssels zum Durchmesser der Mutter. Zum Unglück aller Physiker, die solche Berechnungen anstellen wollen, haben Schraubenschlüssel in der Regel nur einen Arm: Es sind Gabelschlüssel. Für sie kann man den Wirkungsgrad nicht so leicht angeben. Ein Gabelschlüssel verursacht nicht nur eine reine Drehbewegung, er übt auf das Werkstück auch eine seitliche Kraft aus und drückt es weg, wenn es nicht ausreichend befestigt ist. Diese Kraft existiert natürlich auch, wenn das Werkstück in eine Schraubzwinge eingespannt oder anderweitig gesichert ist, und wirkt dann auf Mutter und Gewinde. Sie erhöht den Reibungswiderstand, der überwunden werden muss, und vermindert damit den Wirkungsgrad. Für eine erste Analyse des Problems kann man einen Gabelschlüssel als Hebel ansehen, dessen Drehachse an dem Berührungspunkt liegt, der dem Mittelpunkt der Mutter am nächsten liegt, während an dem Berührungspunkt, der am weitesten außen liegt, die Kraft für die Drehung übertrage n wird (Abbildung 3.7).
-79
A BBILDUNG 3.7: Hebelwirkung eines Gabelschlüssels.
Da die Drehachse des Hebels nicht festliegt, ist unser Bild sehr vereinfacht, aber es erlaubt uns immerhin, den Wirkungsgrad eines Gabelschlüssels ungefähr zu berechnen: Man mus s den Abstand des Griffendes zum ersten Berührungspunkt von Schlüssel und Mutter durch die Länge einer Seite der Mutter dividieren. In unserem Beispiel beträgt er 25/5 = 5 und ist damit halb so groß wie bei einem entsprechenden Schraubenschlüssel mit zwei Griffen. Einen einfachen Zugang zu dem Problem, wie sich Schraubenschlüssel mit einem von denen mit zwei Griffen unterscheiden - und dabei einen Zugang, der charakteristisch für die physikalische Denkweise ist -, bietet das Prinzip, das Galilei aufgestellt hat: Das gesamte Ausmaß der Arbeit ist unabhängig davon, wie sie geleistet wird. Mit anderen Worten: Die Größe »Kraft x Weg« ist in allen Fällen gleich. Beim zweiarmigen Schlüssel legen die zwei Angriffspunkte der Kraft - verglichen mit dem einen Angriffspunkt beim einarmigen Schlüssel den doppelten Weg zurück. Da der Weg verdoppelt ist, halbiert sich die Kraft. Der zweiarmige Schlüssel ist daher doppelt so effektiv wie der einarmige, hat also den doppelten mechanischen Wirkungsgrad. Trotzdem stellt auch schon ein Gabelschlüssel ein ziemlich wirkungsvolles Werkzeug dar. Aber wozu brauchen wir ihn -80
eigentlich? Welchen Vorteil hat es, eine Sechskantschraube oder eine Mutter mit einem Schraubenschlüssel anzuziehen? Ich fand den Grund heraus, als ich vor der Aufgabe stand, Geräte von höchster Präzision zu entwerfen: Ein Schlüssel erlaubt uns, mit unseren schwachen Kräften eine Mutter genügend fest anzuziehen. Eine fest angezogene Mutter wirkt wie eine sehr starke Feder und übt eine Kraft aus, welche die Reibung zwischen Schraube und Mutter und zwischen Mutter und Oberfläche des Werkstücks erhöht. Damit wird erschwert oder verhindert, dass sich die Mutter löst. Das gleiche gilt auch für eine Schraube. Wie stark eine Mutter angezogen werden muss, hängt sehr von ihrer Umgebung ab. Eine Mutter an einem stark vibrierenden Automotor muss sicher fester sitzen als eine, die einen Holztisch zusammenhält. Bei Schrauben in Metall kann man wiederum mehr Kraft anwenden als bei Schrauben in Holz, ohne etwas zu beschädigen oder gar zu zerstören. Aber wie weit soll man gehen, wenn man eine Mutter anzieht? Wie hängt die Festigkeit des Sitzes und die Federkraft, mit der sich die Mutter verankert, vom Drehmoment beim Anziehen ab? Welche Federkraft ist ideal? Gibt es einfache Regeln, nach denen ein Bastler vorgehen kann? Ich suchte in den Lehrbüchern für Ingenieure nach Antworten auf diese Fragen und steckte alsbald in einem Sumpf aus Formeln, die ungeheuer kompliziert waren und einfach alles berücksichtigen: die Auswirkungen des Schraubendurchmessers, des Schraubenmaterials sowie Tiefe, Form und Steigung des Gewindes und sogar noch die Kräfte, die später auf die festgezogene Schraube einwirken - beispielsweise wenn sie den Motorblock am Chassis eines Autos befestigt. Eine für die Handbücher typische Formel war die für die »minimale Länge l, die eine Schraube im Gewinde stecken muss, um zu vermeiden, dass das äußere Gewinde abgedreht wird oder die Schraube sogar bricht«:
-81
mit F = Fläche des Schraubgewindes, an der der Zug angreift, di = innerer Gewindedurchmesser, da = äußerer Gewindedurchmesser und G = Windungen je Inch. 19 Ich finde es schon trostlos genug, wenn ich bei meiner Arbeit solche Formeln verwenden muss und wäre sicher der Letzte, der sie einem Heimwerker aufdrängen wollte. Deshalb schaute ich mich in dem Handbuch nach einer einfacheren Lösung um - und fand tatsächlich etwas. Versteckt unter Gleichungen und Tabellen stand, dass »Experimente, die an der Cornell University in Ithaca (N.Y.) für die Autoindustrie durchgeführt worden waren«, gezeigt haben, dass »erfahrene Mechaniker eine Mutter mit einer Kraft anziehen, die grob betrachtet proportional zum Schraubendurchmesser ist«, und dass »die Schubspannung, die man zum Anziehen der Mutter aufbringt, oft ausreicht, um eine Schraube von 12mm Durchmesser zu brechen - aber keine dickeren Schrauben«. Aufgrund dieser Untersuchung wurden die Normen geändert: Man verminderte aber nicht etwa die Kraft zum Anziehen der Schrauben und Muttern, sondern setzte dickere ein, die kein Mechaniker mehr abdrehen konnte. Man kann die Ergebnisse der Studie auch anders interpretieren. Die Festigkeit gegen Zug betrug bei den fraglichen Schrauben etwa 10000kg, das heißt eine Stange aus diesem Material riss erst bei einer angehängten Last von 10000kg. Ein Schraubenschlüssel, wie man ihn zum Anziehen einer solchen Schraube verwendet, hat üblicherweise eine Länge von 20cm. Ich habe bei Versuchen herausgefunden, dass ein einigermaßen starker Mann am Ende eines solchen Schlüssels mit einer Kraft von maximal 30kg ziehen kann. Ein Drehmoment von 30kg x 0,2 in = 15kg m20 reicht somit aus, um eine Stahlschraube mit 12mm Durchmesser abzudrehen. Besteht die Schraube oder Mutter aus weicherem Material wie -82
Messing oder Aluminium, genügt bereits ein kleineres Drehmoment. Es stellt einen guten Kompromiss dar, eine 12Millimeter-Schraube mit einem Drehmoment von bis zu 8 kg in einzudrehen, wenn man erreichen will, dass sie möglichst fest sitzt, aber nicht bricht. Die Grenze für das Drehmoment ist von der Querschnittsfläche der Schraube abhängig. Für eine 25Millimeter-Schraube liegt sie nach den obigen Kriterien bei 32kg m, für eine 6-Millimeter-Schraube bei 2kg m. Das heißt nichts anderes, als dass die »erfahrenen« Mechaniker es falsch gemacht haben: Wenn man dieselbe Festigkeit des Sitzes erreichen will, muss man eine Kraft anwenden, die nicht linear mit dem Schraubendurchmesser wächst, sondern mit seinem Quadrat. Man kann herausfinden, wie viel Kraft in einer Hand steckt, indem man versucht, welches Gewicht man mit ihr gerade noch heben kann. Mit diesem Wert kann man ausrechnen, wo man einen Schraubenschlüssel anpacken muss, um eine Schraube so fest wie möglich anzuziehen, ohne das Gewinde zu ruinieren. In Tabelle 3.1 sind einige Zahlenbeispiele angegeben, wobei davon ausgegangen wird, dass der Schraubenschlüssel nicht länger als 250mm ist. Das Lösen einer Schraube oder einer Mutter ist eine andere Sache. Selbst um eine saubere, gut geölte Mutter zu lösen, braucht man mehr Kraft als um sie festzudrehen. Die anfangs nötige Kraft, um die Reibung zu überwinden und die aufeinander reibenden Oberflächen (die zwei Gewinde gegeneinander und die Auflagefläche des Schraubenkopfs oder der Mutter auf dem Werkstück) zum Gleiten zu bringen, ist größer als die Kraft, die das Gleiten beim weiteren Aufdrehen bewirkt. Der Schraubenschlüssel muss daher zum Aufdrehen anfangs etwas weiter außen gehalten werden. Beim Lösen einer eingerosteten Schraube ist das Problem nicht, dass die beiden Gewinde durch den Rost zusammengebacken sind. -83
Tabelle 3.1 Ansetzen des Griffs bei einem Schraubenschlüssel
Es besteht vielmehr darin, dass Rost, der in einer komplizierten chemischen Reaktion aus Eisen, Wasser und Sauerstoff entsteht, verglichen mit Eisen ein größeres Volumen einnimmt. Eine Schraube oder Mutter dehnt sich also aus, wenn sie rostet, und erzeugt damit einen ungeheuren Druck, der die Reibungskräfte zwischen den Gewindeflächen vergrößert. Man kann sich eine Vorstellung von der Stärke dieses Drucks machen, wenn man sich einen Stein anschaut, in den eiserne -84
Nägel eingeschlagen worden sind. Wenn die Nägel rosten, kann der Druck so stark werden, dass er den Stein sprengt. Öl hilft nicht weiter, wenn man die Reibungskräfte verringern will, die durch den Rost erzeugt wurden. Es gibt einen besseren Trick, der allerdings etwas Zeit erfordert: Man gibt eine schwache Säure, etwa Essigsäure, auf die entsprechenden Stellen und wartet, bis sie langsam eingedrungen ist und den Rost aufgelöst hat. Eine Alternative wäre, das gesamte Gebilde - etwa mit der Flamme eines Schweißbrenners - zu erhitzen und damit auch den Zwischenraum zwischen den Gewinden vergrößern. • SCHUBKARREN Schubkarren hatten anfangs noch gar kein Rad, sondern bestanden nur aus einem Brett, das von starken Männern an je zwei Stangen vorn und hinten wie eine Sänfte getragen wurde. Erst nach 1300 kam man darauf, zwischen die vorderen Stangen ein Rad zu montieren. Damit hatte eine Erfindung, die schon ein Jahrtausend zuvor in China gemacht worden war, ihren Weg in den »Westen« gefunden, und es genügte von nun an ein Mann, um das Gefährt zu bedienen. 21 Die Erfindung des Schubkarrens mit Rad zählt zu den unspektakulären technischen Fortschritten, die es aber erst erlaubten, so spektakuläre Bauten wie die gotischen Kathedralen hochzuziehen. Ein einzelner Arbeiter konnte nun riesige Steinblöcke transportieren und, nachdem ein unbekanntes Genie den Einfall hatte, das Brett durch einen Kasten zu ersetzen, auch Sand und Mörtel. Welche Last ein Mensch mit einem Schubkarren transportieren kann, hängt von der Lage des Rads ab. Der Schubkarren ist ein einarmiger Hebel, bei dem Last und Kraft auf der gleichen Seite der Radachse angreifen. Liegt die Achse genau unter der Last wie bei den flachen Karren, mit denen zu Zeiten der Pest im Mittelalter die Leichen abtransportiert wurden, ist der Wirkungsgrad rein theoretisch unendlich, und ein Einzelner kann eine beliebig große Last transportieren -85
solange der Karren nicht zusammenbricht. Solche Karren, die mancherorts noch bis heute als Transportwagen für die Toten überlebt haben, hatten meist links und rechts ein Rad. Mit nur einem Rad kann man den Karren besser steuern und ihn auch auf schmalen Wegen - zum Beispiel Holzplanken - und bis in die letzten Ecken benützen. Aber warum in aller Welt sitzt bei modernen Schubkarren das Rad nicht unter der Last, sondern am vorderen Ende des Kastens? Der Grund ist die Stabilität: Solange der Schwerpunkt des Gebildes aus Karren und Last in dem Dreieck liegt, das man aus den zwei Händen des Arbeiters und dem Berührungspunkt des Rads mit dem Boden bilden kann, ist der Karren stabil und kippt nicht um. Die abwärts gerichtete Last, die aufwärts gerichtete Kraft der Hände und die Gegenkraft des Bodens auf das Rad bilden insgesamt ein Kräftepaar, das den Karren bei einer Drehung in die alte La ge zurückdrehen will. Liegt aber der Schwerpunkt nicht in dem genannten Dreieck, wird unser Gefährt instabil, weil das Kräftepaar nun den Karren weiter kippen will. Um eine Katastrophe zu vermeiden, muss der Arbeiter hellwach sein und - je nach Lage der Dinge - mit einem oder beiden Griffen gegensteuern. Je weiter der Schubkarren überhängt, umso schwieriger wird es, richtig zu reagieren eine Erfahrung, die ich schon als 12jähriger Junge machen musste. Sitzt das Rad exakt unter dem Schwerpunkt, so befindet sich der Karren im so genannten »labilen Gleichgewicht«, und schon die kleinste versehentliche Neigung oder ein Verrutschen der Ladung nach vorn genügt, damit der Schwerpunkt aus dem imaginären Dreieck wandert und alles instabil wird. Die einzige Möglichkeit, mit diesem Problem fertig zu werden, besteht in einer Konstruktion mit einem Schwerpunkt, der tiefer liegt als die Auflage für das Rad. Das Kräftepaar, das nun entsteht, wenn der Karren versehentlich geneigt wird, bringt ihn immer wieder in die alte Lage zurück. Es mag unmöglich scheinen, einen solchen Schubkarren zu konstruieren, aber es ist mir doch -86
gelungen. Er könnte gute Dienste leisten, wenn man eine Last auf einer schmalen Planke transportieren muss, und ist dadurch gekennzeichnet, dass auf beiden Seiten des Rads zwei gleiche Körbe für die Lasten tief herabhängen. In Abbildung 3.8 ist mein Entwurf (noch nicht zum Patent angemeldet!) in einer Schnittzeichnung dargestellt.
A BBILDUNG 3.8: Entwurf für einen Schubkarren, der nie umkippen kann.
Zu Hause habe ich leider noch immer einen ganz ordinären Schubkarren in traditioneller Bauweise. Aber vielleicht kann man auch ihn effizienter benutzen? Es geht darum, einen Kompromiss zwischen hohem Wirkungsgrad und großer Stabilität zu schließen, der davon abhängt, welche Last man transportieren will. Um einen hohen Wirkungsgrad zu bekommen, muss man die Last möglichst weit vorn lagern, also nahe der Radachse. Um große Stabilität zu erzielen, muss man sie dagegen möglichst weit hinten lagern, sodass auch bei großer seitlicher Neigung des Karrens der Schwerpunkt noch in dem oben definierten Dreieck liegt. Man muss auf jeden Fall darauf achten, dass der Schwerpunkt möglichst tief liegt, also Schweres nach unten packen und Leichtes obenauf. Die Entscheidung liegt letztlich beim Benutzer. Einen ExtraTipp, den ich von einem Handwerker habe, möchte ich noch -87
weitergeben: Man sollte zwei Rohrstücke zur Hand haben, die man über die beiden Griffe schieben kann, wenn es um den Transport einer besonders schweren Last geht, denn damit kann der Wirkungsgrad vergrößert werden, ohne dass die Stabilität leidet!
-88
A BBILDUNG 3.9: Mechanischer Wirkungsgrad eines Keils.
• KEILE Der Keil ist ein uraltes Werkzeug. Wie bei vielen anderen Werkzeugen beruht seine Wirkung auf einem Tauschgeschäft zwischen Kraft und Weg. Das ist leicht zu verstehen, wenn wir uns anschauen, wie man mithilfe eines Keils etwas anhebt, beispielsweise eine Steinplatte. Der mechanische Wirkungsgrad ist einfach das Verhältnis der Strecke, um die man den Keil unter die Platte treiben muss, zur Höhe, um die eine Kante der Platte gehoben wird. Im Beispiel von Abbildung 3.9 ist dieses Verhältnis 6:1. Durch den Einsatz dieses Keils wird die Platte also mit einem Sechstel der Kraft angehoben, die man braucht, um sie direkt zu heben. Der Preis den man zahlen muss, besteht darin, dass man den Angriffspunkt der Kraft, also den Keil, sechsmal weiter bewegen muss, als die gewünschte Hebung ausmacht. So weit so gut. Der besondere Vorteil eines Keils besteht aber darin, dass er für uns die Richtung der Kraft umdreht: Während wir den Keil seitwärts unterschieben, hebt er die Platte senkrecht nach oben. Derselbe Effekt spielt auch eine Rolle, wenn wir einen Tischlerhammer unter den Nagelkopf schieben. Der Wirkungsgrad eines Keils hängt von dessen Winkel ab: Er wird umso größer, je flacher der Keil ist (Tabelle 3.2). Nun wird auch klar, warum Keile meist recht flach sind.22
-89
Keilwinkel in Grad 5 10 15 20 25 30 35 40 45
Wirkungsgrad 11,4 5,7 3,7 2,7 2,1 1,7 1,4 1,2 1
TABELLE 3.1 Wirkungsgrad eines Keils
• MEISSEL Schneidwerkzeuge aus Feuerstein oder anderem Steinmaterial sind die ältesten Werkzeuge überhaupt.23 Die meisten Menschen, einschließlich des Autors des oben erwähnten Artikels in der Encyclopaedia Britannica, halten den Meißel für das moderne Gegenstück der Steinzeitaxt. Das stimmt, wenn man einen Meißel dazu verwendet, Holz quer zu den Fasern zu zerhacken. Der Meißel wird aber meist dazu verwendet, Holz längs der Fasern zu spalten, und in diesem Fall ist er in erster Linie ein Keil und kein Schneidwerkzeug. Ist der Meißel erst einmal in das Holz eingedrungen, sorgt die Form des ersten Spalts dafür, dass die Schneide des Meißels frei liegt und zum weiteren Vordringen nur wenig beiträgt (Abbildung 3.10). Typische Holzmeißel haben an der Schneide einen Winkel von etwa 30°, was ihnen einen Wirkungsgrad von nahezu 2 verleiht. Das genügt auch, weil das Spalten längs der Fasern ähnlich leicht geht, wie das weitere Öffnen eines Risses in irgendwelchen anderen Materialien. Die Arbeit, die geleistet werden muss, hängt von der Schärfe der Bruch- oder Reißkante ab, aber nicht von der Schärfe der Meißelschneide. Eine -90
Ausnahme stellt das erste Eindringen dar: Es geht umso glatter, je schärfer die Schneide ist. Danach geht die Arbeit umso leichter weiter, je schärfer die Bruchkante ist - wie bei einem trocknen Keks.
A BBILDUNG 3.10: Meißel zum Spalten von Holz (mit der freiliegenden Vorderkante).
Ist die Schneide des Meißels zu Beginn der Aktion nic ht scharf genug, kann sie im sich öffnenden Spalt seitlich in die Holzfasern schneiden und eingeklemmt werden, was die Arbeit sehr erschwert. Wie scharf muss also der Meißel sein? Das hängt entscheidend davon ab, wie sich das Holz im Spalt an der Stelle biegen lässt, wo es unter der größten Spannung steht. Um die optimale Form für einen Meißel herauszufinden, habe ich einen Blick in Formulas for Stress and Strain24 geworfen, ein Handbuch für Ingenieure mit Formeln und Gesetzen, das ich in einem Antiquariat in der Psychologie-Abteilung unter dem Stichwort »Stress« entdeckt hatte. Die Rechnungen waren kompliziert, aber schließlich kam ich zu einem Ergebnis. Zu meiner Überraschung stellte sich heraus, dass die Meißelschneide nicht dicker als 0,15 ì m sein sollte, damit sie nicht in das benachbarte Holz eindringt und eingeklemmt wird. Wenn man 300 solcher Schneiden aufeinander legt, ergeben sie gerade die Dicke eines menschlichen Haars! Jetzt wundert es mich nicht mehr, dass mein Vater so verärgert war, als ich damals einen seiner sorgfältig geschliffenen Meißel als Hebel -91
für meinen Bonbondoseneinbruch missbraucht hatte. Verwendet man einen gut geschliffenen Meißel, um Holz längs der Faserung zu spalten, ist - nach dem ersten Ansatz des Spalts seine Aufgabe, irgendwelche Holzfasern, die quer zum Spalt verlaufen, zu durchschneiden. Das geht am besten, wenn die Schneide sehr scharf ist und wenn sie die Fasern schräg anschneidet. Aus diesem Grund hat mir mein Vater auch geraten, den Meißel ein wenig schräg in das Holz zu treiben. Das ist alles, was man wissen muss, wenn man mit einem Meißel Holz längs der Faserung spalten will: Der Trick besteht darin, zu verhindern, dass er in das anliegende Holz einschneidet, weil sich dadurch der schon geöffnete Spalt nicht weiter öffnen würde. Schon die kleinste Neigung des Schafts zu der Seite, an der die Schneide abgeschrägt ist, kann dazu führen, dass der Meißel festsitzt. Ein Gegenmittel ist, ein wenig Kraft in die Gegenrichtung auszuüben, damit die Schneide immer frei bleibt und keinen Kontakt zum Holz hat. • SCHRAUBENZIEHER Der Schraubenzieher25 gehört zu den wenigen Handwerkzeugen, die erst im Mittelalter erfunden wurden. Er ist schwer einzuordnen: Wenn er in eine Bohrwinde - ein Bohrgerät mit Kurbel - eingespannt wird, wirkt er wie ein Gabelschlüssel als Hebel. Meistens halten wir jedoch einen Schraubenzieher mit der Hand, und Jeff Odell wies ja schon während unserer Kaffeepausenrunde darauf hin, dass er dann zu nichts anderem dient, als eine geeignete Verbindung zwischen Hand und Schraube herzustellen. Als steife Verlängerung unseres Arms ist sein Wirkungsgrad gleich l, wenn er in korrekter Weise in den Schraubenschlitz gesteckt wird. Er erlaubt aber seinem Besitzer (oder seiner Besitzerin) eine solide Verbindung zu einem Objekt aufzubauen, das einen mechanischen Wirkungsgrad hat, der größer als l ist: nämlich zur Schraube.
-92
A BBILDUNG 3.11: »Abgewickeltes« Schraubgewinde.
Eine Schraube, die in ein Holzstück gedreht wird, wirkt dort wie ein Keil. Das ist der Grund, warum ich den Schraubenzieher in diesem Abschnitt aufgeführt habe. Der Keil, den die Schraube darstellt, ist als Spirale um einen zentralen Kern gewickelt und wird Gewinde genannt. Seine Aufgabe als Keil besteht darin, die Holzfasern auseinander zu hebeln. Diese Aufgabe kann auf direkte Weise nur schwer gelöst werden - man versuche nur einmal, mit bloßen Händen ein Holzstück zu zerreißen! Selbst bei Weichholz wie Picea glauca muss man zum Öffnen eines Spalts eine Zugspannung von 33 kg/cm2 aufbringen, bei Hartholz ist es leicht das Drei- oder Vierfache. Den Wirkungsgrad einer Holzschraube kann man berechnen, indem man sich das Gewinde ausgestreckt vorstellt. Eine »typische« Holzschraube aus meiner Sammlung hat ein Gewinde mit fünf Umdrehungen je cm und einen Durchmesser von 5mm. Damit ist nach den Regeln der Geometrie die Gesamtlänge des Gewindes 7,8cm je cm Schraubenlänge, was einen Wirkungsgrad von 7,8 darstellt (Abbildung 3.11). Der Holzquerschnitt, in den diese Schraube dringt, beträgt 0,2 cm2 , daher ist die Kraft, die nötig ist, um über diese Fläche die Holzfasern zu trennen 0,2cm2 x 33 kg/cm2 = 6,6kg. Durch den mechanischen Wirkungsgrad wird diese Kraft um den Faktor 7,8 auf 6,6kg / 7,8 = 0,85kg reduziert, einen Wert, der auf einige Kilogramm anwächst, wenn es um Hartholz geht. Ich fragte mich, ob ich allein durch eine Drehbewegung meines Arms überhaupt eine solche Kraft aufbringen konnte. -93
Um das herauszubekommen, wickelte ich ein Seil ein paarmal um mein Handgelenk und band an das herabhängende Ende verschieden schwere Steinbrocken. Es zeigte sich, dass ich durch das Drehen meines Handgelenks Felsbrocken bis zu 3kg ziemlich mühelos heben konnte, was bei einem Gelenkdurchmesser von 7cm einem Drehmoment von 0,1kg in entspricht. Bei Steinen von über 3kg Gewicht wurde die Aufgabe zunehmend schwerer, bei 10kg war meine Grenze erreicht. Das Ergebnis meines Experiments war, dass der mechanische Wirkungsgrad einer Holzschraube für ihre Zwecke angemessen ist. Die berechneten Zahlenwerte stellen Näherungen dar und sind nur »über den Daumen gepeilt«. Sie berücksichtigen weder, dass die Reibung zwischen Schraube und Holz beim Hineindrehen zunimmt, noch dass der Schraubenschaft nicht Teil des Keils ist und man auch Energie aufwenden muss, um für ihn im Holz Platz zu schaffen - ein Problem, das man aus dem Weg räumen kann, indem man zuerst ein Loch für den Schaft ins Holz bohrt. Kann man sich die Arbeit erleichtern, indem man den Schraubenzieher schräg ansetzt, um damit zusätzliche Hebelwirkung zu erzielen? Mir war klar, dass ich noch ein weiteres Experiment machen musste. Ich wählte dazu eine Holzschraube von 7mm Durchmesser mit einem geschlitzten Kopf und zwei Schraubenzieher mit unterschiedlichen Grifflängen, aber Schneiden, die exakt zum Schraubenschlitz passten. Dann benutzte ic h die beiden Schraubenzieher abwechselnd, um die Schraube in weiches Holz zu drehen. Ganz offensichtlich war das mit dem längeren Schraubenzieher (25cm) leichter als mit dem kürzeren (10cm). Als dann die Schraube schon tiefer steckte und es immer schwerer wurde, sie zu drehen, setzte ich ganz instinktiv die Schraubenzieher schräg an (mit 20° Neigung gegenüber der Senkrechten) - natürlich so, dass weiterhin die Schneide fest im Schlitz saß (Abbildung 3.12). -94
A BBILDUNG 3.12: Kopf eines Schraubenziehers im Schlitz einer Schraube bei schrägem Ansatz (20°). Der Kopf des Schraubenziehers passt gut in den Schlitz, wenn er senkrecht angesetzt wird. Die Skizze zeigt, dass der Schraubenzieher auch bei einem schrägen Ansatz mit 20° Neigung kaum aus dem Schlitz rutschen wird.
Welches zusätzliche Drehmoment kann man durch eine solche Neigung des Schraubenziehers aufbringen? Bei 20° liegt der längere Schraubenzieher 9cm außerhalb der Schraubenachse, aber es ist sehr schwer, die seitlich wirkende Kraft zu bestimmen, die zusammen mit der senkrecht auf den Schraubenkopf wirkenden Kraft ein Kräftepaar bildet, das drehend wirkt. Aber selbst wenn die seitliche Kraft nur 0,5 kg beträgt, gibt dies ein Drehmoment von 0,045 kg m, was immerhin dem Drehmoment durch die Handbewegung 45 Prozent hinzufügt. Eine ähnliche Rechnung zeigt, dass der entsprechende Gewinn bei dem kürzeren Schraubenzieher nur 18 Prozent beträgt das ist die Erklärung dafür, dass man mit einem langen Schraubenzieher leichter arbeiten kann. Wie groß ist das Risiko, dass der Schraubenzieher aus dem Schlitz rutscht, wenn man ihn schräg ansetzt? Nicht allzu groß, wie Abbildung 3.12 zeigt - zumindest, wenn die Schraube in Schuss ist. Und wie steht es mit der Gefahr, die Schneide des -95
Schraubenziehers zu verbiegen? Der Wirkungsgrad eines Schraubenziehers von 25cm Länge ist bei einem Schlitz von l mm Breite von der Größenordnung 250 (!), wenn also die quer auf den Griff wirkende Kraft 0,5kg beträgt, drückt der Schraubenzieher mit einer Kraft von 125kg auf die Seitenwand des Schlitzes - was nach einem drohenden Desaster klingt. Gefährdet ist aber eher der Schraubenkopf, weniger der Schraubenzieher. Schraubenzieher sind - wenn ich meinem Kollegen Burgess glauben darf - heutzutage so stabil, dass man mit ihnen Farbdosen aufhebeln kann, während das Material von Schrauben meist weicher ist. Mein Streit mit Jeff Odell endete mit einem für uns beide ehrenhaften Unentschieden, zumindest was Schraubenzieher betrifft, die von Hand gehalten werden. Wenn man eine schwergängige Schraube hinein- oder herausdrehen will, ist es am besten, eine Bohrmaschine mit Schraubeinsatz zu verwenden. Die Spannweite einer typischen Bohrwinde liegt mit rund 20 cm in der Größenordnung eines großen Schraubenschlüssels und liefert für die oben als Beispiel genannte Schraube einen mechanischen Wirkungsgrad von rund 30. Der einzige Nachteil einer Bohrwinde ist - solange für sie überhaupt genug Platz ist -, dass die Aufgabe für einen Bastler, der Herausforderungen liebt, zu einfach wird.26
-96
• HÄMMER Nachdem ich nun drei meiner vier anfänglichen Fragen beantwortet habe, wird es Zeit der vierten nachzugehen: Wie wendet man einen Hammer am besten an? Gibt es für einen bestimmten Nagel einen Hammer mit dem optimalen Gewicht? Wie kräftig sollte man jeweils zuschlagen? Sicher nicht so kräftig, wie ich es in meiner Lehrzeit als Kind gemacht hatte. Die Blutblase, die dadurch unter meinem Daumennagel entstanden war, drückte so unerträglich, dass mein Vater eine Nadel mit der Lötlampe rotglühend machte und damit ein Loch in den Nagel schmolz, um den Druck abzulassen. Ich bin bis heute für diese schnelle Erste Hilfe dankbar, aber es wäre vielleicht doch besser gewesen, wenn ich zuvor nicht so fest mit dem Hammer zugeschlagen hätte. Mein Fehler war, dass ich den Nagel mit einem einzigen kräftigen Schlag ins Holz treiben wollte. Die Erfahrung lehrte mich schnell, dass man besser mit einer Reihe leichter Schläge beginnt. Der Grund ist, dass jeder Schlag eine kleine Seitwärtskomponente hat, wenn man ihn nicht völlig exakt führt, wodurch entweder der Nagel schräg eingeklopft wird oder der Schlag am Nagelkopf abprallt. Die Idee, dass man eine Kraft oder eine Bewegung in zwei unabhängige Komponenten zerlegen kann, leuchtet nicht auf Anhieb ein. Ich fragte einmal in der Dorfkneipe, was meine Freunde davon hielten und war überrascht: 30 Prozent glaubten, ein Stein komme hinter einem Radfahrer auf, wenn er ihn senkrecht nach oben wirft, während er mit konstanter Geschwindigkeit einen Berg hinunterfährt.27 Die richtige Antwort ist aber, dass er neben ihm (oder auf seinem Kopf) landen wird, da die Aufwärtsgeschwindigkeit, die der Stein durch das Hochwerfen mitbekommt, völlig unabhängig von der Vorwärtsgeschwindigkeit ist, die er beim -97
Verlassen der Hand hat. Der Stein wird sich also weiterhin mit der gleichen Geschwindigkeit vorwärts bewegen wie der Fahrer und das Fahrrad. Naturwissenschaftlern ist es inzwischen ganz geläufig, jede Bewegung und jede Kraft als die Summe zweier Komponenten zu betrachten, die im rechten Winkel zueinander stehen. Die Größe dieser beiden Komponenten kann man mithilfe eines Diagramms leicht bestimmen: Man stellt die Kraft, die man analysieren will, als die längste Seite (also die Hypotenuse) eines Dreiecks dar und ergänzt das Dreieck um seine zwei Katheten. Im Falle eines Nagels, der einen schrägen Schlag auf den Kopf bekommt, sieht das so aus wie in Abbildung 3.13. Die Pfeilspitzen geben dabei jeweils die Richtung der Kräfte an, die Länge der Pfeile ihre Stärke.
A BBILDUNG 3.13: Kräftedreieck bei einem schrägen Hammerschlag.
Wenn der Nagel erst einmal ein paar Millimeter im Holz steckt, wird die Horizontalkomponente eines Hammerschlags, der den Kopf nicht genau von oben trifft, durch die elastische Widerstandskraft des Holzes aufgefangen und nicht mehr durch die Finger, die den Nagel festhalten. Deshalb kann nun der -98
Hammer schneller geschwungen werden. Aber wie schnell? Welche Geschwindigkeit ist optimal? Wenn man mit einem Hammer zuschlägt, geht ein Anteil der Energie in den Rückstoß, denn der Hammerkopf wird vom Kopf des Nagels zurückgefedert. Ich dachte daher zuerst, dass man den Hammer möglichst langsam schwingen muss, um die größte Wirkung zu erzielen: Der Rückstoß wäre geringer und der Hammerkopf wäre länger in Kontakt mit dem Nagel. Diesmal musste mir nicht Jeff Odell sagen, dass ich falsch lag. Ich kam selbst darauf, denn mir wurde klar, dass die Energie, die in den Rückstoß geht, gar nicht verloren ist: Sie hebt den Hammer wieder zum nächsten Schlag an. Es gibt heute Hämmer, deren Kopf mit Polyurethan überzogen ist, das ein wenig nachgibt, wenn der Nagel getroffen wird. Damit bleibt der Hammer länger mit dem Nagel in Kontakt, und es kann mehr Energie übertragen werden. 28 Wenn wir an unsere obigen Überlegungen denken, entpuppt sich das als bloßer Werbegag. Will man mit einem Hammer einen Nagel einschlagen, ist das einzige Problem, genau zu treffen: Die senkrecht auf den Nagelkopf wirkende Kraft soll so groß wie möglich sein und die Seitwärtskomponente möglichst klein. Aber selbst dieses Problem löst sich von selbst, wenn der Nagel nach und nach ins Holz eindringt. Deshalb besteht die richtige Technik darin, die Kraft der Schläge langsam zu vergrößern und so machen es erfahrene Zimmerleute schließlich ganz intuitiv schon längst. Experten bohren zuvor noch ein Loch zur Führung des Nagels, das einen etwas kleineren Durchmesser hat als der Nagelschaft. Das hat den Vorteil, dass der Nagel sehr schnell einen geraden Sitz im Holz hat, und verhilft zudem dazu, dass das Holz nicht so leicht gespalten wird. Ein weiterer, etwas überraschender Vorteil dieser Methode ist, dass der Nagel danach fester sitzt als ohne Bohrloch. Der Grund ist, dass ohne Bohrloch der Nagel nur an zwei Seiten mit dem Holz in Berührung kommt (Abbildung 3.14, links), mit Vorbohrung aber -99
auf seinem ganzen Umfang, womit die Reibungskraft entsprechend größer wird (Abbildung 3.14, rechts).
A BBILDUNG 3.14: Berührungsflächen eines Nagels in Holz ohne (links) und mit (rechts) vorgebohrtem Loch.
Es bleibt nur noch ein Hinweis zum optimalen Gebrauch: Welchen Teil des Hammerkopfs soll man einsetzen, um einen Nagel einzuschlagen? Die meisten Leute würden auf die »Mitte« tippen und lägen damit falsch. Wie ein Cricket-, Tennis oder Baseballschläger hat auch ein Hammer einen sweet spot, an dem der Aufprallschock minimal und die Kraftübertragung maximal ist. Dieses percussion center existiert, weil der Hammerkopf nicht senkrecht auf und ab schwingt, sondern einen Bogen beschreibt. Es gibt Formeln zur Berechnung des Schlagzentrums, die zeigen, dass es beispielsweise bei einem Baseballschläger ein ganzes Stück weiter von der Hand entfernt liegen kann als der Schwerpunkt. Meine Rechnungen haben aber gezeigt, dass die Differenz bei einem Hammer vernachlässigbar ist und es - wie gesagt - vor allem darauf ankommt, das Hauptproblem in den Griff zu bekommen: genau zu treffen. Am Schluss meiner Untersuchung von Werkzeugen war ich etwas enttäuscht, dass ihre Entwicklung - ganz im Gegensatz zu anderen alltäglichen Aktivitäten - vergleichsweise wenig zum Verständnis wissenschaftlicher Prinzipien beigetragen hat. Aber immerhin konnte ich mich über die Erkenntnis freuen, dass -100
wissenschaftliche Prinzipien sehr nützlich sind, wenn es darum geht, Werkzeuge so wirkungsvoll wie möglich einzusetzen.
-101
Die Verständigung zwischen Naturwissenschaftlern und Nicht-Naturwissenschaftlern scheitert nicht nur daran, dass physikalische Theorien eine nur schwer zu überwindende Schranke darstellen. Zahlen können noch weit trennender sein. Für Naturwissenschaftler gehören sie zum Alltagsgeschäft, vielen anderen Menschen sind sie nicht geheuer. Naturwissenschaftler können vor allem deshalb leichter mit ihnen umgehen, weil sie Tricks auf Lager haben, die den Kampf mit den Zahlen relativ einfach machen. Diese Tricks und Methoden kommen bei ihrer wissenschaftlichen Arbeit zum Einsatz. Ich habe mich gefragt, ob man es mit ihnen nicht auch in anderen Lebensbereichen versuchen könnte, und beschloss, mit der Überprüfung von Kassenzetteln und einer Einschätzung der Preispolitik »meiner« Supermärkte anzufangen. Ich war verblüfft, was bei den Rechnungen herauskam. Die Tricks dabei waren so einfach, dass sie jeder nutzbringend anwenden kann einmal, um mehr Übung im Umgang mit Zahlen zu bekommen, zum anderen, um endlich klarer zu erkennen, was im Supermarkt gespielt wird. Als ich anfing, dieses Kapitel zu schreiben, erklärte ich meiner Frau Wendy, ich habe eine statistisch fundierte, streng wissenschaftliche und leicht anzuwendende Methode entwickelt, die dem Käufer mit einem Blick zeigt, was er im Supermarkt ausgegeben hat. Wendy meinte nur trocken, dass sie so etwas schon längst habe: Sie rundete alle Preise mit »49« oder weniger -102
Pence nach unten ab und alle anderen nach oben auf. Dann zählte sie die ganzen Pfundwerte zusammen. Ich war wenig beeindruckt und meinte, dass das sehr interessant klänge, dass ich aber sicher sei, meine Methode wäre genauer. Sie können sich natürlich vorstellen, wie es weiterging. Als ich beide Methoden verglich, war Wendy die klare Gewinnerin. Es sah ganz so aus, als wenn es nur ein sehr kurzes Buchkapitel werden würde. In der Hoffnung, aus den Trümmern meines Konzepts wenigstens ein paar Bruchstücke zu retten, untersuchte ich Wendys Methode, um herauszufinden, warum sie besser funktionierte. Den ersten Hinweis entdeckte ich auf einem Kassenzettel, den mir ein Freund gab, aber das letzte Teilchen des Puzzles fand erst seinen Platz, nachdem ich fast tausend Preise im Supermarkt analysiert hatte. Es stellte sich heraus, dass Wendys Ansatz nahezu perfekt auf die Tatsache reagierte, dass in modernen Supermärkten die Preise ganz gezielt festgelegt werden. Mein angeblich viel exakterer statistischer Ansatz hatte diese Tatsache nicht berücksichtigt. Mit dieser Erkenntnis konnte ich nun meine Methode der Realität anpassen und eine bessere Lösung finden, wenn auch Wendy weiter darauf beharrte, ihre Methode sei einfacher anzuwenden - Sie mögen später selbst entscheiden, welche besser ist. Was aber noch wichtiger war: Ich fand heraus, dass Käufer, die den besten Gegenwert für ihr Geld wollen, die Preispolitik heutiger Supermärkte wie bei einem Judogriff gegen den Angreifer wenden können.
-103
Wendy und ich gingen bei unseren Versuchen, die Endsumme eines Kassenzettels abzuschätzen, im Grunde gleich vor: Wir ignorierten die Zahlen, die weniger Gewicht hatten und konzentrierten uns auf die restlichen. Dieser Ansatz, den auch Naturwissenschaftler bei ihrer Arbeit gern wählen, ist das krasse Gegenstück zum uralten Sprichwort »Wer den Pfennig nicht ehrt, ist des Talers nicht wert« bei uns zählten nur die Taler, und auch unterbezahlte Forscher konzentrieren sich in ihrer Gehaltsabrechnung auf den Euro in dem Wissen, dass er viel mehr wert ist als ein paar Cent - oder, wie in den folgenden Beispielen, dass das Pfund mehr gilt als der Penny. Die Stellen von Zahlen, die in erster Linie zählen, werden »signifikant« genannt.1 Wenn der Kassenzettel im Supermarkt auf eine Summe von 45,21 £ kommt, ist die signifikanteste Zahl die 4: Sie steht für 40 £ an hart verdientem Geld, das der Käufer ausgegeben hat. Es folgt an zweiter Stelle die 5 - 5 £, die den meisten immer noch weh tun. Die beiden letzten Ziffern - mit anderen Worten: die Stellen hinter dem Komma - spielen keine große Rolle mehr. Kaum jemand sorgt sich noch um 21p. Wenn wir uns also nur mit den signifikanten Größen befassen wollen, lautet unser Kassenzettel auf 45 £ und damit wäre schon alles gesagt. Der Grundsatz, sich auf die signifikanten Stellen zu beschränken, ist sehr nützlich, wenn Sie während des Einkaufs wissen wollen, wie hoch die Rechnung schon ist. Da das Pfund mehr zählt als die Pence, ist der einfachste Weg, den Überblick zu behalten, die Pencebeträge völlig zu ignorieren. Bei dieser Taktik wird also eine Zahl »rechts« abgeschnitten - wie mit dem Fallbeil. Wie auch immer: Die Idee ist, die Pence oder Cent -104
abzuschneiden und zu vergessen. Der Vorteil dieser Methode ist, dass sie auch wenig geübte Kopfrechner beherrschen. Der Nachteil ist, dass sie - wissenschaftlich ausgedrückt - nur eine »erste Näherung« der Gesamtsumme liefert. Eine erste Näherung ist noch recht grob, und der Begriff legt nahe, dass es vermutlich auch eine zweite und weitere Näherungen geben wird: Man kann es also noch besser machen. Bei dem Kassenzettel von Abbildung 4.1 - der Leser wird es schon erraten haben: das Ginger Ale war für meinen Scotch, die Rosen für meine Frau - kommt man mit der Abschneidmethode auf eine Summe von (0 + 0 + 2 + 3)£ = 5£, zu zahlen waren aber 7,38 £! Als ich mit meinem statistischen Ansatz ans Werk ging, setzte ich zuerst auf die Abschneidmethode und hoffte, dass sie mir eine gute Lösung liefern würde. Die grobe, erste Näherung gibt eine Untergrenze der Summe an, während der exakte Betrag gleich oder größer ist. Auf ähnlich einfache Weise kann man auch eine Obergrenze finden, indem man einfach zur Untergrenze die Zahl der Posten auf dem Kassenzettel addiert. In unserem Beispiel, bei dem die Untergrenze 5£ beträgt, stehen vier Artikel auf dem Kassenzettel. Die Obergrenze ist also (5+4) £ = 9£. Das gleiche Ergebnis erhält man auch, wenn man beim Zusammenzählen nicht die Pence abschneidet, sondern immer den Betrag auf das nächste ganze Pfund aufrundet, also z.B. aus den 3,49 £ für die Rosen 4£ macht.
A BBILDUNG 4.1: Kurzer Kassenzettel aus dem Supermarkt.
Wenn man die Obergrenze kennt, hat man bereits etwas in der -105
Hand, um die Rechnung an der Kasse zu kontrollieren. Verlangt der Kassierer mehr als den oberen Grenzbetrag, hat er falsch gerechnet und entweder einen Artikel doppelt eingetippt oder einen falschen Preis erwischt. Was auch immer: Es lohnt sich, nachzurechnen. Die wirkliche Summe liegt zwischen Ober- und Untergrenze. Da die beiden Grenzen leicht zu ermitteln sind, werden sie auch von Naturwissenschaftlern oft angewandt, um eine unbekannte Größe einzukreisen, die direkt sehr schwer zu bestimmen ist. So hat beispielsweise Archimedes, wenn er nicht gerade mit der Konstruktion und dem Bau von Kriegsmaschinen beschäftigt war, die Einkreistechnik bei seiner unerbittlichen Suche nach der Größe von Ð angewandt. Archimedes brauchte den genauen Wert, um die Flächen kreisförmiger Objekte bestimmen zu können. Die Babylonier wussten schon, dass ein Kreis mit Radius r die Fläche Ð r2 hat und nahmen für TT den Wert 3,125 an, wobei sie allerdings noch im Zweifel waren, ob TT für große und kleine Kreise denselben Wert hat. Griechische Mathematiker hatten schon vor Archimedes bewiesen, dass TT konstant ist, es war ihnen aber nicht gelungen, den Wert viel genaue r zu bestimmen. 2000 Jahre später im Jahr 1897 versuchte man endlich ein für alle Mal Ordnung zu schaffen und beantragte im US-Bundesstaat Indiana in einem »Act introducing a new mathematical truth«, den Wert von Ð per Gesetz festzulegen. 2 Bedauerlicherweise lehnte der Senat die Eingabe ab, aber ohnehin gehorchen Kreise lieber den Naturgesetzen als den Gesetzen Indianas. Archimedes hatte seinerzeit schon einen besseren Weg gefunden: Er zeichnete ein Vieleck oder Polygon, das den Kreis umschrieb und ein zweites, das sich von innen an ihn schmiegte (Abbildung 4.2).
-106
A BBILDUNG 4.2: Kreis mit einem einbeschriebenen und einem umbeschriebenen achtseitigen Polygon, einem Oktogon.
Die Berechnung der Fläche eines Polygons ist einfach, weil man es immer in Dreiecke unterteilen kann, deren Fläche leicht zu ermitteln ist. Archimedes machte sich die Tatsache zunutze, dass das äußere Oktogon eine größere Fläche hat als der Kreis, das innere aber eine kleinere. Die Fläche des äußeren Oktogons liefert daher eine Obergrenze für Ð, die des inneren eine Untergrenze. Archimedes zeichnete nun Polygone mit immer mehr Seiten, die sich immer besser der Kreisform anschmiegten und konnte sich dadurch der Zahl Ð von beiden Seiten mehr und mehr annähern. Schließlich fand er, nachdem er ein Polygon mit 96 (!) Seiten gezeichnet hatte, dass der Wert von Ð zwischen 3,1408 und 3,1429 liegen müsse. Wie wir heute wissen, ist der richtige Wert auf fünf Stellen genau 3,1416.
-107
Archimedes hätte noch ein Weiteres tun und den Mittelwert aus Ober- und Untergrenze bilden können: Der Wert von 3,1418 wäre für die meisten praktischen Bedürfnisse genau genug gewesen. Ich hatte nun vor, mich auf ähnliche Weise der Supermarktquittung anzunähern. Bei unserem obigen Beispiel beträgt der Mittelwert aus Ober- und Untergrenze (9£ bzw. 5£) 7£ - ein Ergebnis, das schon befriedigend nah am wahren Wert von 7,38 £ liegt. Ein ganz einfacher praktischer Weg, um zu diesem Ergebnis zu kommen, besteht darin, beim Gang durch den Supermarkt oder beim Zusammenzählen der Beträge auf dem Kassenzettel die Pfundwerte (ohne die Pencebeträge) zu addieren und dann die halbe Zahl der Posten dazuzuzählen. Das kommt mathematisch gesehen auf das Gleiche heraus, wie aus Ober und Untergrenze den Mittelwert zu bilden, lässt sich aber viel einfacher durchführen. 3 Das Verfahren schien mindestens so gut zu sein wie das Wendys - wenigstens dachte ich das. Ich setzte so sehr auf meine Idee, dass ich bei einem Drink mit einem Freund sogar eine kleine Wette darauf abschloss. Mein Freund zog sogleich einen zerknitterten Kassenbon von einem Supermarkt aus der Tasche und forderte mich auf, den Beweis anzutreten. Ich habe mir diesen Kassenzettel als stete Mahnung an die Hybris aufgehoben, eine unter Wissenschaftlern häufige Berufskrankheit. Wie Abbildung 4.3 zeigt, stehen auf dem Zettel 31 Posten. Die Hälfte von 31 ist 15,5, die Summe der Pfundwerte beträgt 25 £, damit ist das Ergebnis nach meiner Blitzmethode 40,50 £. Unglücklicherweise betrug die wahre Summe 45,60 £ und - noch peinlicher - die 46 £ nach Wendys Methode waren eine ganz hervorragende Näherung!
-108
A BBILDUNG 4.3: Supermarktquittung meines Freundes.
-109
Wieso lag ich mit meiner Antwort so weit daneben? Oder anders gefragt: Warum konnte Wendy einen Treffer landen? Beide Methoden schienen schließlich auf den gleichen Annahmen zu beruhen, dass nämlich der Durchschnittswert der Pencebeträge etwa 50p ist. Nach meiner Methode sollte die Gesamtsumme der Pencebeträge (in Pfund angegeben) gleich der halben Zahl der Posten sein, Wendy nahm an, dass die Rundungsfehler nach oben und unten sich gegenseitig aufheben. Aber wie auch immer: Wir schienen beide im gleichen »statistischen« Boot zu sitzen. Die Angelegenheit wurde noch rätselhafter, als ich mir den Mittelwert der Pencebeträge einmal genauer ansah: Er lag gar nicht bei 50p, sondern bei 66p! Die Preise waren also offensichtlich - was die Pencebeträge betrifft nach »oben« verrutscht. Damit war auch klar, warum ich mit meiner Methode eine viel zu niedrige Summe bekam. Aber warum ging es Wendy nicht genauso? Die einzige Möglichkeit war, dass sich die Fehler beim Auf- und Abrunden tatsächlich aufhoben. Ich sah mir daraufhin den Kassenzettel noch einmal an und stellte fest, dass das wirklich der Fall war. Im Bereich des Aufrundens, also zwischen 50p und 99p, war der durchschnittliche Pencebetrag 81p, sodass der aufgerundete Preis im Mittel um 19p zu hoch war. Ganz anders im Bereich des Abrundens, also zwischen Op und 49p. Dort war der Durchschnitt 35p, sodass bei jeder Abrundung ein mittlerer Fehler von 35p anfiel, also fast das Doppelte des Fehlers beim Aufrunden. Dieses Ungleichgewicht, von dem man eigentlich annehmen sollte, es würde Wendys Methode zum Scheitern bringe n, wurde fast exakt ausgeglichen, weil es zweimal mehr Kandidaten zum Aufrunden als zum Abrunden gab.4 -110
Ich fragte mich natürlich, ob das Zufall war oder ob andere Quittungen in diesem Supermarkt dasselbe Phänomen zeigen würde. Es gab nur eine Möglichkeit, das herauszufinden: Ich musste eine Anzahl Quittungen analysieren, die möglichst von verschiedenen Kunden stammten. Mithilfe meiner Nachbarn im Dorf begann ich, mir eine Sammlung anzulegen. In der darauf folgenden Woche quollen aus unserem Briefkastenschlitz Rechnungen und Kassenzettel - zum besonderen Vergnügen unserer Katze, deren Eingangsklappe direkt darunter lag. Ich untersuchte auch die Preise einer anderen Supermarktkette in einer anderen Stadt, wo ich allerdings keine netten Nachbarn hatte und mir selbst helfen musste, indem ich draußen vor den Kassen und in den Abfallbehältern nach weggeworfenen Kassenzetteln wühlte. Zuletzt hatte ich fast tausend verschiedene Preise in eine Tabelle eingegeben - über 600 vom ersten Laden und 350 vom zweiten, wo mich die misstrauischen Blicke des Geschäftsführers schließlich dazu brachten, meine Suche in seinem Müll einzustellen. Als sich bei der Auswertung immer deutlicher ein Muster abzeichnete, hatte ich dasselbe Gefühl wachsender Aufregung, wie ich es aus dem Labor kannte, jenen besonderen Nervenkitzel, der kurz vor dem Abschluss einer Untersuchung entsteht, wenn endlich Sinn in die Daten kommt. Dieses Gefühl ist die höchste Belohnung, die wir als Naturwissenschaftler erlangen können, und weit von der oft sterilen Art und Weise entfernt, mit der wir unsere Ergebnisse schließlich der Öffentlichkeit präsentieren. Ich habe erlebt, wie die nüchternsten Forscher bei solchen Gelegenheiten zu singen und zu tanzen anfingen, ja einmal zog sich einer nackt aus und machte eine n Handstand - in einem Augenblick reiner, grenzenloser Freude. Zu solchen Glücksmomenten kommt es, weil sich bei einem Experiment oder gar einer Reihe von Experimenten eine gehörige Spannung aufbaut. Diese Spannung gäbe es nicht, wenn die Wissenschaft so funktionierte, wie es -111
sich die meisten vorstellen: Der Forscher sammelt in aller Ruhe und ganz objektiv »Daten«, dann erst überlegt er sich, was ihm diese Daten sagen wollen. Die meisten Forscher führen ihre Experimente anders durch: Sie beginnen mit einer Vorstellung, die sie überprüfen wollen, gleichgültig, ob sie noch ganz vage ist oder vielleicht schon sehr konkret. Auf jeden Fall muss man über jedes neue Resultat nachgrübeln und mit ihm entweder die Theorie untermauern oder es als Schritt in eine neue Richtung verwerten. Je mehr Ergebnisse anfallen, umso größer wird die Aufregung. Sie erreicht ihren Höhepunkt, wenn eine grobe Abschätzung zeigt, dass alles so läuft, wie man es vermutet hatte. Die Notizbücher von Robert Millikan5 , der, wie schon erwähnt, als Erster die Ladung des Elektrons bestimmt hat, sind voller Kommentare wie »Schön. Unbedingt veröffentlichen. Wunderbar!« und »Das ist fast exakt richtig und das beste Ergebnis, das ich je erzielt habe!!!!« Auch meine Notizbücher sind voll solcher Sätze, obwohl ich etwas vorsichtiger geworden bin, seit einmal ein Assistent meine nicht gerade druckfähigen australischen Randbemerkungen getreulich zusammen mit den Ergebnissen abgeschrieben hat. Ich wollte anhand der Supermarktquittungen herausfinden, ob die Pencebestandteile der Preise wirklich nach »oben« verschoben waren, es also mehr Preise gab, die in der oberen Hälfte des Bereichs lagen, als in der unteren. Die Eingabe der langen Preisliste mag ja langweilig erscheinen, aber mein Herz schlug bald schneller, als ich merkte, dass sich die Preise nicht nur in der oberen Hälfte häuften, sondern vor allem bei »99«. Als ich mit dem Eintippen weitermachte, fiel mir noch auf, dass es außer den vielen »99er«-Preisen auch viele »49er«Preise gab und daneben ungewöhnlich viele weitere Preise, die mit einer »9« endeten. Das war natürlich keine sehr neue Erkenntnis, aber das Ausmaß dieser Ungleichverteilung verschlug mir doch die Sprache: 67 Prozent der Preise endeten mit »9«. -112
A BBILDUNG 4.4: Häufigkeitsverteilung der Preise von Waren aus zwei verschiedenen Supermärkten.
Dann stellte ich fest, dass es Lücken bei den Endziffern gab. Preise mit »0«, »1« oder »2« gab es so gut wie nie, die übrigen Ziffern waren selten, nur »5« und »8« waren etwas häufiger vertreten. Auch die Kassenzettel aus dem zweiten Supermarkt zeigten dieses Muster. Um einen Überblick über die Daten zu bekommen, um Unterschiede zwischen den Supermärkten herauszufinden und vielleicht auf noch andere Besonderheiten zu stoßen, zeichnete ich Häufigkeitsverteilungen (Abbildung 4.4) der Preise.6 Wären die Ziffern in der Pencespalte zufällig verteilt, dürften -113
die Verteilungen keine Spitzen aufweisen. Sie werden aber deutlich von einer hohen Spitze bei 99p dominiert, auf die immer kleiner werdende Spitzen bei 1,99 £, 2,99 £ und 3,99 £ folgen. Auch die Preise mit 49p (49p, 1,49£ usw.) sind deutlich häufiger als die Werte dazwischen. Offensichtlich hatten beide Supermärkte ihre Preise so gestaltet, dass sie möglichst dicht unter einem vollen (oder halben) Pfundwert lagen und ihn nicht überschritten. Das Bild zeigt, dass die grundlegende Einheit für die Preisgestaltung 50p beträgt und daher auch Preisänderungen letztlich um diesen Betrag stattfinden. Nur wenige Preise liegen zufällig verteilt zwischen diesen Marken. Am oberen Ende der Preisskala, das in den beiden Abbildungen nicht mit dargestellt ist, erwies sich diese Gesetzmäßigkeit sogar als exakt gültig: Für Waren, die mehr als 6£ kosteten, gab es nur Preise mit »49« oder »99«. Bei den niedrigeren Preisen - insbesondere zwischen l £ und 2 £ - fand ich eine dritte Serie von Spitzen, die 10 p auseinander lagen und jeweils mit »9« endeten, also bei 29p, 39p usw. Die Leute, die im Supermarkt die Preise festsetzen, scheinen davon auszugehen, dass eine »0« am Ende die Kauflust hemmt eine wenig überraschende Erkenntnis. Eine besonders hohe Barriere stellen natürlich die ganzen Pfundwerte dar, eine weniger hohe die mit »50« am Ende. Die Psychologie hinter dieser Preispolitik ist vermutlich, dass wir beim Blick auf ein Preisschild eher dazu neigen, eine Zahl abzurunden als sie aufzurunden. Nun wollte ich noch wissen, ob der Durchschnitt der Pencebeträge von der Supermarktquittung, mit der ich angefangen hatte, für alle Supermärkte repräsentativ ist. Er war es! Der Mittelwert der Pencebeträge der Waren unter 2£, die immerhin 80 Prozent der Einkäufe des Durchschnittskäufers ausmachen, lag beim ersten Supermarkt bei 60p, beim zweiten bei 63p. 55 Prozent der Preise lagen beim ersten in der oberen Hälfte, 64 Prozent beim zweiten. Daraus kann man schließen, dass der zweite Supermarkt der teurere von -114
beiden war, eine Vermutung, die sich später noch aufgrund anderer Tatsachen bestätigte. Ich will im Übrigen auch nicht verschweigen, dass Wendys Rechenmethode beim zweiten Supermarkt fast perfekt funktionierte und auch beim ersten Supermarkt besser als meine war, gab mich aber noch nicht geschlagen, denn mit den neuen statistischen Erkenntnissen war ich in der Lage, meinen Ansatz weiter zu verbessern. Der Mittelwert der Pencebeträge betrug für beide Supermärkte zusammengenommen 61p. Ich konnte also ein besseres Ergebnis für die Gesamtsumme erhalten, indem ich die Pfundwerte zusammenzählte und dann nicht die Hälfte, sondern zwei Drittel der Zahl der Posten addierte, was dem exakten Wert von 0,61 recht nahe kam. Bei dem Kassenzettel von Abbildung 4.3 ist die Summe der Pfundbeträge 25 £, die Zahl der Posten ist 31. Mit der »zwei Drittel «-Methode erhält man 25 £ + (31 x 2 /3)£ = 45,67£, was - vielleicht auch mit etwas Glück - erfreulich nah am richtigen Wert von 45,60£ liegt. Normalerweise wird die Summe etwas stärker überschätzt, aber schließlich ist es ja nur eine Schätzung. 7
-115
Verbraucherorganisationen und die Supermärkte selbst vergleichen die Preise anhand eines »Standard-Einkaufskorbs«, der jeweils die gleichen Waren enthält. Dieses Verfahren kann darauf hinauslaufen, dass die Preise im Standardkorb gesenkt werden, während man zum Ausgleich die übrigen Preise erhöht, um den Verlust auszugleichen. Der einzelne Käufer kann mit den oben erklärten Rezepten der Wahrheit auf verschiedenen Wegen besser auf die Spur kommen. Der erste Weg besteht darin, die Pencemittelwerte von Kassenzetteln verschiedener Supermärkte zu vergleichen. Die einfachste Methode ist dabei, von der ausgedruckten Gesamtsumme die ganzen Pfundbeträge abzuziehen. Das Ergebnis muss man nur noch durch die Zahl der Posten dividieren, um den Pencemittelwert zu erhalten. Bei unserem obigen Kassenzettel beispielsweise ist der so berechnete Mittelwert (45,60 £ - 25 £) / 31 = 66p. Die Vergleichsmethode funktioniert am besten, wenn man sich auf Waren mit Preisen unter 2£ beschränkt, da sich in diesem Bereich die Unterschiede zwischen den Supermärkten vorwiegend in den Pencebeträgen ausdrücken - man wird schließlich kaum Waren in einem Supermarkt für 2 £, in einem anderen aber für l £ verkaufen. Der Testkäufer kann bei dieser Methode im Übrigen seinen ganz persönlichen Warenkorb füllen, der auch in beiden Supermärkten nicht gleich ausfallen muss. Unterschiedliche Pencemittelwerte können natürlich auch an der unterschiedlichen Qualität der Waren liegen - aber das muss der Käufer beurteilen. Zumindest ist er mit dieser Rechenmethode gut gerüstet, um seine Entscheidung zu treffen. Man sollte für einen fairen Vergleich mindestens 50 Waren heranziehen. Das bedeutet, dass man in der Regel einige -116
Quittungen sammeln muss. Für einen Durchschnittskäufer könnte das zu viel Mühe sein. Gibt es vielleicht noch einfachere Methoden? Es gibt sogar zwei, um herauszufinden, welcher von zwei Supermärkten der billigere ist. Beide beruhen auf der Strategie, nach der die Supermärkte ihre Preise gestalten, und beide wenden diese Strategie gegen den Feind und geben damit den Käufern eine Waffe zur Verteidigung ihrer Interessen in die Hand. Die einfachste Methode ist, festzustellen, welcher Anteil der Billigwaren unter l £ mit 99p ausgezeichnet ist. Bei unserem Kassenzettel waren es 2/14 = 0,143. Den gleichen Wert erhielt ich auch, als ich alle 261 Preise unter 1£ analysierte. Im zweiten Supermarkt waren dagegen 37 Waren von 151 unter l£ mit 99p ausgezeichnet, der Anteil betrug also 0,245, also fast ein Viertel, und lag damit deutlich höher als im ersten Supermarkt. Daraus kann man wieder schließen, dass der zweite Supermarkt in diesem Preissegment teurer war. Dieser Schluss wird noch dadurch unterstrichen, dass der Mittelwert der Preise unter l£ im ersten Supermarkt 67p, im zweiten aber 70p betrug. Eine zweite leicht zu handhabende Vergleichsmethode ist, den Anteil der Waren in den Bereichen l,01-2£ und 0,01-1 £ zu bestimmen. Für den ersten Supermarkt betrug dieses Verhältnis 127/ 247 = 0,51, für den zweiten 151/261 = 0,58. Auch bei diesem Test war der zweite Supermarkt der teurere.
-117
Florence Nightingale glaubte daran, »dass man, um Gottes Gedanken zu verstehen, Statistiken auswerten muss, da man aus ihnen seine Absichten ergründen kann«. Das mag stimmen oder nicht - um die Absichten eines Supermarkts bei der Preisgestaltung zu durchschauen und ihrer Herr zu werden, gibt es keine bessere Waffe als die Statistik. Die Blitzmethoden, die ich zur Analyse von Supermarktpreisen und zum Vergleich verschiedener Supermärkte vorgestellt habe, beruhen auf Statistik.8 Man muss nicht viel von Statistik verstehen, um zu erkennen, dass die Supermärkte vor einem Problem stehen, wenn sie ihre Preise »anpassen«, also erhöhen wollen. Die meisten Preise haben sich wie die Lemminge vor den 49p- und 99p-Schwellen gesammelt. Wenn sie über diese Schwellen springen müssen, landen sie mathematisch gesehen - im Nichts. In Läden, die sich auf die hier beschriebenen Tricks verlegt haben, tendieren die Preise der einzelnen Waren dazu, einige Zeit bei 49p oder 99p stabil zu bleiben, um dann schnell die Hürde zu nehmen und die 50p zum nächsten Stopp zu durcheilen. Der schlaue Käufer kann die Supermarktstrategie unterlaufen, indem er Waren wählt, deren Preise knapp oberhalb einer Schwelle liegen. Diese Preise stehen wahrscheinlich kurz davor davonzulaufen, man sollte also die Zeit nutzen, bevor dies geschieht und noch schnell ein Schnäppchen machen. Die zweite Strategie besteht darin, auf die Waren zu achten, deren Preise schon lange Zeit knapp unter der Schwelle liegen und dann sofort zuzuschlagen, denn bei diesen Waren ist es sehr wahrscheinlich, dass sie demnächst eine n Preissprung machen. Wenn ich das so niederschreibe, fühle ich mich wie jemand, der nach einem Lehrbuch schwimmen gelernt hat, aber es noch -118
nie im Wasser ausprobieren konnte. Der Grund dafür ist einfach: Ich hasse es, einzukaufen und tue immer alles, um so schnell wie möglich wieder aus einem Laden zu entkommen. Für alle, die mehr Geduld aufbringen, könnten die simplen Regeln, die ich in diesem Kapitel vorgestellt habe, aber von Wert sein: Um den Kassenzettel im Supermarkt blitzschnell zu überprüfen, addiere man zuerst zur Summe der Pfunde (oder Euro oder Dollar) zwei Drittel der Zahl der Posten. Um den billigsten Supermarkt herauszufinden vergleiche man, welcher Anteil von Preisen auf einem größeren Kassenzettel mit »99« endet. Je größer der Anteil, umso teurer ist vermutlich der Laden.
-119
Es ist nur wenigen Menschen gegeben, für eine neue Sparte im Guinness Buch der Rekorde zu sorgen. Ich bin sehr froh darüber, zu diesen Glücklichen zu gehören. Es begann damit, dass man mich zu einem Wissenschaftsprogramm im Fernsehen hinzuzog und fragte, ob ich nicht eine Idee für einen nationalen Wettbewerb habe - etwas, das mit Naturwissenschaften zu tun habe und das die Massen an den Bildschirm fesseln würde. »Nun, warum nicht«, schlug ich vor, »sollen sie sich doch einen Bumerang bauen und zum Fliegen bringen.« Der Produzent wies geduldig darauf hin, dass Außendrehs sehr teuer seien und dass man eigentlich davon ausgehe, die Ausscheidung im Studio stattfinden zu lassen. »Schön«, sagte ich, »dann werden die Bumerangs eben aus Pappe gebaut, und der Wettbewerb sieht so aus, dass jeder sein Fluggerät innerhalb einer Minute so oft wie möglich um eine Zielmarke werfen und wieder auffangen muss.« Der Wettbewerb wurde ein großer Erfolg, und der britische Werfer Lawrence West stellte einen neuen Weltrekord auf, indem er seinen Bumerang atemberaubende 20mal je Minute um eine Zielmarke warf, die 3 in entfernt war. Ich wollte auch noch erklären, warum Bumerangs eigentlich zurückkommen, daraus wurde aber beinahe nichts, denn der Produzent wollte mir nur ein paar Sekunden Sendezeit dafür geben. Das war natürlich schade, weil allein schon die Erklärung faszinierend genug ist und weit über die Grenzen des Reiches sich drehender Bumerangs hinausreicht: Sie gilt für jedes rotierende Ding - von -120
den Atomen in unserem Gehirn, über die Räder eines Fahrrads bis zur Erde auf ihrer Umlaufbahn. All diese kreiselartigen Objekte reagieren gleich, wenn etwas versucht, sie zu kippen. Im Fall des Bumerangs kommt diese Kraft von der Luft, die über seine »Flügel« streicht. Wie man es anstellen muss, dass der Bumerang zurückkommt und warum er dazu in der Lage ist, soll Gegenstand dieses Kapitels sein. Als Zugabe will ich beschreiben, was zu beachten ist, wenn man einen weltrekordverdächtigen Bumerang aus Pappe bauen will. »Bumerangs? Sie meinen diese Frisbees für Intellektuelle?« war die Reaktion von Sean Slade, dem Sekretär der British Boomerang Society1 , den ich ganz verzweifelt angerufen hatte, damit er mir bei einem eintägigen Kurs zum Thema »Bumerangs: physikalische Theorie und Praxis« half. Ich wollte bei diesem Kurs Nicht-Naturwissenschaftlern erklären, wie man einen eigenen Bumerang entwirft, baut und zum Fliegen bringt. Zu diesem Zweck hatte ich alles über die Physik des Bumerangs gebüffelt, aber jetzt war nur noch eine Woche Zeit und ich hatte noch keinen einzigen erfolgreich gestartet. Was immer ich auch versuchte: Mein Bumerang wollte nicht zurückkommen. Slade war, um es milde auszudrücken, überrascht, auf einen echten Australier zu treffen, der nicht wusste, wie man einen Bumerang wirft, und erklärte sich bereit, mich in diese Kunst einzuweihen - eine Kunst, die australische Aborigines seit mindestens 10000 Jahren beherrschen, während die moderne Naturwissenscha ft gerade erst damit anfängt, sich ihrer anzunehmen. 2 Am nächsten Tag stand Slade mit einer Tasche vor meiner Tür und brachte mir mehr als 150 Bumerangs mit. Einige waren traditionellerweise aus Holz, aber die meisten bestanden aus Materialien, wie sie von den Chemielabors unserer Tage entwickelt werden: bunt gefärbtem Plastik, mit Kohlefasern verstärkten Kompositstoffen - und sogar aus Titan. 3 Der längste war fast so groß wie Slade und sah wahrlich -121
furchterregend aus. Bumerangs, die zurückkehren, wurden allerdings kaum je als Waffe benutzt: Wie für die Bumerangwerfer unserer Zeit waren sie für die australischen Aborigines ein Sportgerät. Bei diesem Sport floss durchaus manchmal Blut, wie der folgende Bericht aus dem Jahr 1881 zeigt: Zehn oder zwölf Krieger, alle mit weißen Streifen über Backen und Nase, mit Schildern und Bumerangs bewaffnet, stehen einer gleichen Anzahl im Abstand von etwa 20 Schritt gegenüber. Jeder hat das Recht, seinen Bumerang auf einen beliebigen der gegenüber stehenden Kämpfer zu werfen. Er tritt dazu aus der Reihe vor und wirft. Dann ist die gegnerische Partei dran, und so geht es immer im Wechsel weiter, bis jemand getroffen wird oder bis alle genug haben…. Wenn der Bumerang mit voller Kraft geworfen wird, braucht man großes Geschick und eine schnelle Reaktion, um der unberechenbaren Waffe auszuweichen. Bei diesen Kämpfen bewährt sich die bemerkenswerte Beweglichkeit der Aborigines, die durch die Furcht vor schweren Verletzungen, die ein Bumerang zufügen kann, zweifellos noch gefördert wird.4 Auch moderne Bumerangs können Angst machen. Slade erzählte mir, dass gerade ein neuer Weitwurfrekord aufgestellt worden war allerdings nicht von einem Aborigine, sondern von einem Franzosen namens Michel Dufayard bei einem Wettbewerb im englische n Shrewsbury. Der Bumerang flog unglaubliche 149,12m weit, aber der Siegeswurf verursachte beinahe eine Katastrophe, denn ein Bumerang für solche Rekordflüge gleicht einer fliegenden Rasierklinge: Er ist äußerst dünn und scharfkantig, um den Luftwiderstand zu reduzieren und damit einen langen Flugweg zu ermöglichen, bevor er umdreht, und ist praktisch unsichtbar, da er mit der Schmalseite -122
voraus zurückfliegt. In diesem Fall köpfte er beinahe den Werfer, um schließlich über 70m hinter ihm zu landen. 5 Trotz ihrer zerstörerischen Kraft wurden zurückkehrende Bumerangs selten zur Jagd benutzt, weil es viel leichter ist, ein Tier oder einen Feind mit einem direkten Speer- oder Steinwurf zu treffen, als mit einem Ding, das nicht nur eine weite Kurve beschreibt, sondern dabei auch noch aufsteigt.6 Wenn australische Aborigines bumerangförmige Stöcke als Waffen für die Jagd oder im Krieg verwenden, werden die kylies, wie sie in einigen Aborigine-Sprachen heißen, bewusst so eingesetzt, dass sie nicht zurückkommen. Die Arme des Geräts sind aerodynamisch so geformt, dass es nach oben getragen wird. Ein solches Holz wirft man horizontal in einer Weise, dass es sich zehnmal in der Sekunde um sich selbst dreht. Es streicht dann in geradem Flug etwa einen Meter über dem Boden und trifft auf alles, was das Pech hat, in seinem Weg zu stehen. 95 Prozent der bumerangförmigen Objekte, die man gefunden hat, zählen zu dieser Kategorie. Ein »echter« Bumerang ist anders gebaut. Auch bei ihm sorgen die Arme für aerodynamischen Auftrieb, er wird aber fast senkrecht stehend auf die Reise geschickt, neigt sich langsam über und beschreibt einen Bogen, legt sich dann auf dem Rückweg zum Werfer mehr und mehr in die Horizontale und schwebt waagrecht liegend heran, um eingefangen zu werden. Beim Anblick von Slades großem Bumerang und selbst bei den bescheideneren Exemplaren dachte ich etwas beklommen, dass sie doch ziemlich tödlich sein könnten, selbst wenn sie nur »heranschwebten«. Ein paar Finger könnten ihnen leicht zum Opfer fallen. Slade zeigte mir, wie man ein solches Desaster vermeiden kann: Man muss den Bumerang »einfach« zwischen den Handflächen beider Hände schnappen. Das stellte sich als leichter heraus, als es aussah und damit fing die Lovestory zwischen mir und den Bumerangs an. -123
Es gibt zahlreiche Rekorde für das Werfen von Bumerangs, das inzwischen längst als Sport organisiert wird. Es werden Wettbewerbe für fast catch (eine möglichst schnelle Folge von Würfen), für consecutive catch (eine möglichst große Folge von Würfen), für Weitwerfen (was auch von den Aborigines betrieben wurde), maximale Flugdauer und einiges andere mehr durchgeführt. Der große Preis für die längste Flugdauer steht ohne Zweifel Bob Reid zu, einem Physiker von der Leeds University, dem es gelang, seinen Bumerang 24 Stunden und 11 Sekunden in der Luft zu halten. Unmöglich? Nicht, wenn man fanatisch und exzentrisch genug ist, so ein Ding mit zum Südpol zu nehmen und es dort quer durch alle Zeitzonen zu schleudern: Zur eigentlichen Flugzeit darf man dann 24 Stunden addieren (Abbildung 5.l).7
A BBILDUNG 5.1: Bob Reid beim Werfen eines Bumerangs um den Südpol.
Bei Experten wie Sean Slade und Bob Reid fühlte ich mich -124
gut aufgehoben und wagte mich an die Frage, warum ein Bumerang eigentlich zurückkommt. Kurzgefasst liegt es an der Kreiselwirkung und an der Tatsache, dass die beiden Arme eines Bumerangs verschieden ausgerichtet sind (Abbildung 5.2). Sie sind wie Flugzeugflügel geformt, aber so zusammengefügt, dass immer die abgerundete Seite nach vorn zeigt, wenn der Bumerang nach dem Start durch die Luft wirbelt. Beide Arme erzeugen Auftrieb, da die Drehachse aber waagrecht liegt, wirkt der »Auftrieb« nicht nach oben, sondern als »Seitwärtstrieb«, zwingt also den Bumerang in eine Kurve und sorgt schließlich dafür, dass er zum Werfer zurückkehrt.8
A BBILDUNG 5.2: Flügeiförmige Arme eines klassischen Bumerangs.
Ich hoffe, dass Sie mit dieser kurzen Erklärung noch nicht zufrieden sind. Ich habe sie seinerzeit für den TV-Produzenten zusammengestellt, der mir doch noch einen sound bite von 10 Sekunden abgerungen hatte, in dem ich erklären sollte, wie ein Bumerang funktioniert. Naturwissenschaftler werden oft um derart kurze Statements gebeten, weil man davon ausgeht, dass die Zuhörer oder Zuschauer es nicht länger bei einem Thema aushalten und etwas kompliziertere Dinge sowieso nicht -125
verstehen. Ich glaube nicht an solche Märchen und bin der Meinung, das Publikum wird durch derartige Praktiken nur für dümmer verkauft, als es ist. Die Erklärung im Telegrammstil wirft eigentlich mehr Fragen auf, als sie beantwortet. Die wirklichen Gründe für die Rückkehr des Bumerangs sind viel leichter zu verstehen, wenn man sich etwas Zeit nimmt. Zudem sind sie viel interessanter und die Gesetze haben schon fast ästhetische Qualitäten. In der Natur wissenschaft liegt wie in der Kunst die Schönheit im Detail. Nicht dass es bei einem Bumerang an optischem Reiz fehlt! Seine symmetrische Form ist an sich schon schön, außerdem ist er normalerweise bemalt - wobei allerdings bei den Aborigines die Bemalunge n nur selten einen Schmuck darstellten, sondern - wie die Kunst der Aborigines überhaupt der Verehrung der Ahnen und der Erinnerung an jene mythische Zeit dienten, als die Erde entstand (Abbildung 5.3). Die meisten Exemplare aus alter Zeit sind schon längst bei Sammlern gelandet, und was man heute an Aborigine-Bemalung finden kann, ist ausschließlich für den Touristenmarkt hergestellt worden. 9 Ich bin auf eine merkwürdige Geschichte gestoßen, als ich Bumerangs von Duncan MacLennan kaufen wollte, einem Australier aus der »guten alten Zeit«, der fast 60 Jahre lang in Sydney eine Bumerangschule geleitet hat. Als er damals anfing, wollte er für seine Bumerangs aus Sperrholz Aborigine-Motive und wandte sich an die Mitglieder eines nahen Stammes, damit sie die Malereien ausführten. Sie waren sehr an dem Job interessiert, aber auch an den Bumerangs selbst. Es stellte sich nämlich heraus, dass sie noch nie einen gesehen hatten, und MacLennan hatte das einmalige Vergnügen, einem ganzen Stamm von Aborigines beizubringen, wie man einen Bumerang wirft.
-126
A BBILDUNG 5.3: Bemalte Bumerangs der australischen Aborigines. OBEN: Region Kimberley in Westaustralien. UNTEN: Region Diamantina River. (Wiedergabe mit freundlicher Erlaubnis von Philip Jones, Oberkurator am South Aus tralia Museum, Adelaide).
Als ich Sean Slade die Geschichte von Duncan MacLennan erzählte, kam er mit einer weiteren Anekdote, die jene noch übertraf. Andy Furniss, ein weltbekannter britischer Bumerangfanatiker, war als Tramper in Australien unterwegs und wurde irgendwo in einer gottverlassenen Gegend abgesetzt. Während er auf den nächsten Lift wartete, holte er leichtsinnigerweise seinen Bumerang, den er stets bei sich hatte, heraus und begann, ihn zu werfen. Ein Aborigine kam dazu und fragte auf gut Australisch: »What the feller thing?«10 Furniss erklärte es und zeigte ihm, wie man das Ding werfen musste. Gerade als der Mann den Trick heraushatte, hielt ein Bus mit Ami- Touristen. Alle stürzten heraus und schössen Fotos davon, wie ein echter Aborigine dem »weißen Mann« das -127
Bumerangwerfen beibrachte. Die naturwissenschaftlichen Gesetze, mit denen man den Flug eines Bumerangs beschreiben kann, sind von einer so vollkommenen Ästhetik wie der Bumerang selbst. Die Grundvorstellung ist einfach: Die zwei Arme des Geräts erfahren, obwohl sie identisch geformt sind, verschiedene aerodynamische Kräfte, weil sich der Bumerang sowohl vorwärts bewegt als auch um seine Achse dreht. Das Resultat ist, dass sich der obere Arm schneller durch die Luft bewegt als der untere und rückläufige, sodass der Zug zur Seite beim oberen Arm stärker ist als beim unteren und sich der Bumerang deshalb neigt (Abbildung 5.4). Der Bumerang ändert nun seine Flugrichtung, um der Richtung der Neigung zu folgen. Auf dieses Phänomen, das man Präzession nennt, trifft man im Alltag oft, wenn es auch nicht immer beim Namen genannt wird. Wenn wir uns beim Fahrrad fahren nach links legen, folgt automatisch das Vorderrad dieser Richtung und das Rad macht eine Linkskurve. Das Phänomen wirkt auch in umgekehrter Weise: Wenn wir das Vorderrad des Fahrrads mit dem Lenker nach links drehen, legen wir uns automatisch nach links: nicht, weil wir es wollen, sondern weil uns die Physik dazu zwingt.
A BBILDUNG 5.4: Fliegender Bumerang von hinten längs der Flugbahn (Kreis) gesehen. (Die Stärke der aerodynamischen Kraft ist jeweils proportional zur Länge des Pfeils.) -128
Präzession spielt oft eine Rolle, wo wir es nicht erwarten zum Beispiel in der Klinik bei der Kernspintomographie, einem Verfahren, mit dem »weiche« Organe wie das Gehirn untersucht werden. In diesem Fall rotiert allerdings nicht der Patient, sondern die Kerne der Wasserstoffatome in seinem Gehirn. Der Tomograph kippt durch »Magnetresonanz« die rotierenden Kreisel der Atomkerne und misst dann die daraus resultierende Präzession. Sie ist von der Umgebung der Kerne abhängig und erlaubt dem Experten Aussagen über krankes und gesundes Gewebe. Die Präzession funktioniert bei Bumerangs, Fahrrädern und im Gehirn in gleicher Weise und kann durch ein einfaches Gesetz beschrieben werden, das für alle Kreisel gilt und in Abbildung 5.5 dargestellt ist: Die Kreiselachse »verfolgt« die Kippachse.
A BBILDUNG 5.5: Kreiselgesetz bei einem Bumerang.
Die Kreiselachse ist die Gerade, um die der Bumerang, Vorderrad des Fahrrads und der Atomkern rotieren. Kippachse liegt beim Bumerang längs seiner Flugbahn. Richtung der Achsen kann man bestimmen, indem man -129
das Die Die die
Finger der rechten Hand in Richtung der Kreisel- oder Kippbewegung zusammenbiegt: Der Daumen zeigt dann in Achsenrichtung - bei der Kreiselachse des Bumerangs zu Beginn des Flugs ins Bahninnere, bei der Kippachse nach rückwärts. Aus den Richtungen der beiden Achsen und dem Kreiselgesetz folgt, dass der Bumerang eine Linkskurve beschreibt, wenn er nach links gekippt wird, und schließlich einen vollen Bogen durchfliegt und zum Werfer zurückkehrt. Man kann auch einen Bumerang konstruieren, der sich beim Werfen nach rechts legt und folglich eine Rechtskurve beschreibt. Der erste Typ wird normalerweise von Rechtshändern benutzt, der zweite von Linkshändern. So wie es für Links- und Rechtshänder besondere Korkenzieher, Scheren und Füllfederhalter11 gibt, unterscheiden sich auch die Bumerangs. Das Kreiselgesetz folgt aus einem der grundlegenden Erhaltungssätze der klassischen Physik, von denen es vier gibt, die alle im 19. Jahrhundert formuliert wurden und jeweils für eine Größe gelten, deren Gesamtsumme im Universum für immer unveränderlich ist. Einen dieser Sätze, den Energieerhaltungssatz, haben wir ja schon in Kapitel 2 kennen gelernt. Die anderen drei gelten für die elektrische Ladung, den Impuls und den Drehimpuls. Der Impuls ist als »Masse x Geschwindigkeit« definiert, der Drehimpuls als »Masse x Rotationsgeschwindigkeit«. Der Impuls bleibt konstant, solange keine Kraft von außen angreift. Die Richtung der Kraft bestimmt die Richtung des Impulses. Das gleiche gilt für den Drehimpuls: Solange keine Kraft einwirkt, bleibt er konstant. Greift eine Kraft von außen an und versucht die Achse des sich drehenden Objekts zu kippen, bestimmt sie die neue Richtung des Drehimpulses, also der Kreiselachse. Dabei kommt das oben genannte Kreiselgesetz zur Anwendung, die Kreiselachse »verfolgt« also die Kippachse.
-130
A BBILDUNG 5.6: Zeitrafferaufnahme eines fliegenden Bumerangs, der von einer kleinen batteriebetriebenen Birne an der Vorderkante beleuchtet wurde. WERFER: Michael Hanson. FOTO: Christian Taylor.
Mit dem Begriff der Präzession kann man auf elegante Weise beschreiben, warum ein Bumerang zurückkommt - aber wie Abbildung 5.6 zeigt, ist das nur ein Teil der Geschichte. Die Aufnahme zeigt die einfachste der möglichen Flugbahnen, wie sie für viele Bumerangs typisch ist. Von oben gesehen ist es ein Kreis, von der Seite gesehen wie in der Abbildung steigt der Bumerang, wenn er sich vom Werfer entfernt, immer schneller an, um dann kreiselnd in eine Rückflugschleife einzuschwenken und langsam wieder abzusinken. Das Foto ist das neueste (und beste) einer langen Reihe, die auf eine Zeitrafferaufnahme vor dem australischen Parlamentsgebäude zurückgeht. Sie wurde von Lorin Hawes aufgenommen, einem exzentrischen Amerikaner, der seinen Job als Kontrolleur für Kernwaffen aufgab, um in Australien Bumerangs zu bauen und die wundervolle Mudgeeraba Creek Emu Racing and Boomerang Throwing Association12 zu gründen. Es ist fast nicht zu glauben, dass eine so komplizierte -131
Flugbahn von einem einzigen einfachen Gesetz bestimmt wird, aber vor Kopernikus hatten die Menschen ein ähnliches Problem mit den Planetenbahnen: Von der Erde aus gesehen bewegen sich die äußeren Planeten (wie Mars, Jupiter und Saturn) einmal schneller, dann wieder langsamer, ja manchmal sogar rückwärts und beschreiben dabei Schleifen am Fixsternhimmel. Wenn wir von der Flugbahn des Mars Fotos wie von einem Bumerang aufnehmen könnten, so würde das Ergebnis ganz ähnlich ausfallen wie in Abbildung 5.6. Der griechische Astronom und Mathematiker Apollonius von Perge (und nach ihm besonders Ptolemäus) erklärte die komplizierten Planetenbahnen durch kleinere Kreisbewegungen, die Epizykle n genannt wurden und der eigentlichen Umlaufbahn überlagert sein sollten. Erst die geniale Erkenntnis Kopernikus', dass die Sonne im Zentrum des Planetensystems liegt, brachte die Wende. Im kopernikanischen System sind die Planetenbewegungen plötzlich sehr leicht zu erklären und können als einfache Ellipsen beschrieben werden. 13 Ähnlich ist es auch mit dem Bumerang: Versetzt man sich in das Fluggerät, so kann man seine Bewegungen sehr leicht beschreiben. Zunächst muss man erklären, warum ein Bumerang im Kreis fliegt. Eine Kreisbahn wird durch eine Kraft bedingt, deren Größe konstant und stets auf den Kreismittelpunkt gerichtet ist. Diese Kraft ist in unserem Fall der aerodynamische Auftrieb. Um das zu erreichen, muss sich der Bumerang mit einer Rate neigen, die garantiert, dass der Anstellwinkel der Tragfläche, also der Winkel, unter dem die Luft die Flügelkante anströmt, konstant ist. Einige Zeilen - zugegebenermaßen reichlich komplexer - Algebra genügen, um zu zeigen, dass ein Bumerang mit Armen, die überall den gleichen Querschnitt haben, diese Forderung erfüllt. Die Mathematik, die man beispielsweise bei Bob Reid 14 nachlesen kann, führt zur »Bumeranggleichung«, die sehr viel über diese Fluggeräte und ihre Bewegungen aussagt. Ich habe versucht, die Gleichung für den Radius r der Flugbahn -132
in Worten zu formulieren:
Diese Gleichung besagt, dass der Bahnradius wächst, wenn Material mit größerer Dichte (also »schwereres« Material) verwendet wird und wenn die Arme dicker sind. Der Radius wächst auch, wenn der Auftriebskoeffizient kleiner wird (also wenn die Arme aerodynamisch weniger raffiniert geschnitten sind), wenn die Arme schmaler sind und wenn die Luft dünner ist. Wenn man also große Weiten erreichen will, sollte man es in größeren Höhen versuchen, wie der Schweizer Werfer Manuel Schütz, der 1999 mit 238 in einen neuen Weitenrekord aufstellte und dazu immerhin den Fuß der Berge erklomm: Er ging nach Kloten bei Zürich, das 409 in über dem Meeresspiegel liegt und wo die Luft bereits fünf Prozent dünner ist als auf Meereshöhe. Noch interessanter als die Faktoren in der Gleichung ist eigentlich, was nicht in ihr enthalten ist. So ist der Bahnradius weder von der Fluggeschwindigkeit noch von der Rotationsgeschwindigkeit abhängig. Auch die Länge der Arme spielt keine Rolle, wenn man einmal von deren Einfluss auf den Auftriebsfaktor absieht. Das über »normale«, zweiarmige Bumerangs Gesagte gilt übrigens auch für mehrarmige Monster - es ist gleichgültig, wie viele Arme ein Bumerang hat. Einige der Faktoren in der Gleichung stehen im Widerspruch zueinander. Um für einen größeren Bahnradius den Auftriebskoeffizient klein zu halten, muss man den Querschnitt der Arme verringern, was aber wiederum den Bahnradius verkleinert. Nun besteht Bumerangdesign nicht nur darin, eine Gleichung in die Praxis umzusetzen, aber immerhin stellt diese Gleichung eine nützliche Richtschnur dar. Auf Erfahrung beruhende Kompromisse können die Leistungen eines Bumerangs beträchtlich erhöhen. -133
A BBILDUNG 5.7: Lawrence Wests Bumerang aus Pappe, mit dem ihm sein Weltrekord gelang. Das Fluggerät besteht aus 1,5 mm dickem Karton.
Wie auch immer der Bumerang gestaltet ist: Der Bahnradius ist »eingebaut«, aber Faktoren wie der Neigungswinkel und die Rotationsgeschwindigkeit beim Werfen können für andere Größen eine entscheidende Rolle spielen. Wirft man den Bumerang mit mehr Kraft, so ist der Haupteffekt, dass er die gleich bleibende - Bahn schneller durchläuft und damit schneller zurückkommt. Lawrence West, der derzeitige Weltrekordhalter für Bumerangflüge in geschlossenen Räumen, nutzte diesen Effekt für den Wettbewerb aus, den ich für die TV-Serie Tomorrow's World organisierte. Wie schon gesagt: Es ging darum, einen Bumerang aus Pappe so oft wie möglich innerhalb -134
einer Minute auf seine Bahn um eine Zielmarke zu schicken. West konstruierte einen Bumerang, bei dem die Faktoren der Bumeranggleichung so austariert waren, dass der richtige Bahndurchmesser erreicht wurde. Bei den Vorversuchen gelang es ihm, das Gerät in einer Minute 24mal kreisen zu lassen, beim Wettbewerb immerhin 20mal (Abbildung 5.7). In der Wissenschaft vom Bumerang stecken noch einige Feinheiten, die ich den Teilnehmern an meinem Tageskurs erklärte, als sie darangingen, ihre eigenen Fluggeräte zu bauen. Da ist zunächst die Stabilität des Geräts und der Winkel zwischen den Armen. Wenn man nur die Bumeranggleichung in Betracht zieht, könnte man meinen, der Winkel sei unwichtig, da er in ihr nicht vorkommt. Er spielt aber eine Rolle, was man anschaulich zeigen kann, wenn auch der wissenschaftliche Beweis recht kompliziert ist. Stellen Sie sich vor, Sie bauen einen völlig geraden Bumerang. Es ist leicht einzusehen, wie schwer es ist, ihn so zu werfen, dass er sich nur in der Ebene der Arme um sich selbst dreht. Es ist nur zu wahrscheinlich, dass er auch um seine Längsachse rotiert, was ihn schließlich torkeln lässt und zum Absturz führt.15 Stabilität und Rotation sind die Lieblingsthemen von Mike Berry, meinem Kollegen an der Bristol University. Er hat weltweite Anerkennung dafür gefunden, einige lang gepflegte Glaubenssätze auf diesem Gebiet umgestoßen zu haben. Sein letzter Triumph war die aufsehenerregende Beschreibung fliegender Frösche und »Levitronen« 16 , die ihm den IgNobelpreis der Harvard University einbrachte. Die Wissenschaft, die seiner Untersuchung zugrunde lag, war allerdings höchst real! Der »fliegende Frosch« war ein Objekt in einem Schaufenster, das gegen alle physikalischen Gesetze frei im Raum schweben blieb. Das Problem war nicht, dass der Frosch der Schwerkraft trotzte - das bewirkten einige Magnete, die in ihm versteckt waren: Ihre Nordpole wiesen nach unten, während die Basisstation unter ihm Magnete enthielt, deren -135
Nordpole nach oben wiesen. Das eigentliche Problem war, dass man schon lange wusste, wie instabil eine solche Anordnung ist: Schon beim geringsten Stoß oder Windhauch müsste der Frosch eigentlich kippen und abstürzen. Aber nun gab es dieses Ding, das ohne Ende langsam in einem Schaufenster kreiste! Die Kreisbewegung lieferte denn auch die Lösung des Rätsels. Berry fand sie, als er die Anordnung mathematisch untersuchte. Es stellte sich heraus, dass das Gebilde nur dann instabil ist, wenn der Frosch nicht kreist. Sorgt man dafür, dass bestimmte Rahmenbedingungen sehr genau eingehalten werden, kann man einen kreisenden Frosch stabil in der Luft halten. 17 Der Erfinder des abgehobenen Froschs hatte zuvor keine Ahnung, dass man den Frosch mit Magneten allein nicht in der Luft halten konnte, er war durch Zufall über die richtige Lösung gestolpert. Bumerangdesigner haben ein ähnliches Problem. Der physikalisch »ideale« Bumerang hat Arme mit einer überall gleichen Querschnittsfläche. Das macht die Rechnungen einfacher, ist aber überhaupt nicht »ideal«, wenn es darum geht, einen Wettbewerb zu gewinnen. Ändert man jedoch die Form des Bumerangs, so steht man prompt vor dem Problem, die Neigungsrate der Rotationsfrequenz anpassen zu müssen, also dafür zu sorgen, dass der Anstellwinkel konstant bleibt. Ist die Neigungsrate zu gering, nimmt der Anstellwinkel langsam ab und der Bumerang wird nach einem glänzenden Start nicht zurückkommen. Ist sie zu groß, wächst der Anstellwinkel an, der Auftrieb wird stärker und schließlich schmiert der Bumerang ab. Was kann man an einem Bumerang verbessern, der nicht zurückkommt und hinter dem Horizont verschwindet oder abschmiert und zu Bruch geht? Einige der Teilnehmer an meinem Tageskurs versuchten, die Form des Bumerang durch Abschmirgeln zu verändern. Aber es geht viel einfacher: Man muss nur einige kleine Münzen auf die Arme kleben. Für -136
Bumerangs, die abzuschmieren drohen, zeigt die Mathematik, dass man die Münzen nahe der Enden aufkleben muss. Damit wird die Trägheit erhöht und der Bumerang abgebremst. Soll der Bumerang schneller rotieren, muss man die Münzen nahe der Mitte aufkleben. Die Aus wirkungen sind dann wie bei einem Schlittschuhläufer, der bei einer Pirouette die ausgestreckten Arme anzieht und sich schneller dreht, weil nach den Gesetzen der Physik der Drehimpuls erhalten bleiben muss. Bumerangdesigner wenden zunächst den Trick mit den Münzen an und ändern die Grundform erst, wenn klar geworden ist, wo Gewicht fehlt oder zu viel ist. Ein weiteres großes Problem für Bumerangdesigner ist, dass sich das Gerät genau in der richtigen Phase des Flugs »flachlegen« soll. Dazu liefert eine weitere Besonderheit des Bumerangs einen Beitrag: Einer der Arme trifft immer auf turbulent aufgewirbelte Luft - ein Phänomen, das jeder Segler kennt, an dem ein schnelles Motorboot vorbeigezogen ist, und jeder Autofahrer, den ein rasender LKW überholt hat. Die Ursache ist, dass die zwei Arme eines traditionell geformten Bumerangs zwar gleich geformt sind, aber trotzdem verschieden wirken. Jeder Arm hat wie ein Flugzeugflügel eine scharfe und eine abgerundete Kante. Der Bumerangarm, dessen abgerundete Kante in Bezug zur Drehrichtung wie bei einem Flugzeugflügel vorn liegt, wird Leitarm genannt, den anderen »nachlaufenden« Arm mit der scharfen Kante in Flugrichtung hat Lorin Hawes dingle getauft. Dieser unglückliche dingle hat immer die vom Leitarm aufgewühlte Luft vor der Nase. Wenn also beide Arme völlig gleich gebaut sind, liefert der dingle weniger Auftrieb als der Leitarm. Nach Bob Reid führt dies über eine volle Drehung zu einer zusätzlichen Neigung, die wiederum zu einer Präzession um die Flugrichtung führt: Der anfangs vertikale Bumerang legt sich flach. Nach einer halben Stunde Studium der Diagramme, die mir Reid zeigte, war ich überzeugt. Andere, wie meine -137
Kursteilnehmer beim Bau ihrer Bumerangs, mussten es einfach glauben oder in den Originalarbeiten vo n Reid nachlesen. Die praktische Folge dieser Überlegungen ist, dass man die Tendenz eines Bumerangs, in die flache Lage überzugehen, durch das Design des dingles beeinflussen kann, beispielsweise, indem man ihm etwas mehr Auftrieb gibt als dem Leitarm. Das kann man mit Abschmirgeln erreichen. Diese »Feineinstellung« des Bumerangs sorgt dafür, dass er sich genau im richtigen Moment flach legt, nämlich in dem Moment, in dem man ihn fangen will, um ihn sofort mit der Präzision einer Maschine wieder zu werfen - wie West bei seinem Rekord. Das meiste von alldem lernte ich bei der Vorbereitung meines Tageskurses, aber das gesamte theoretische Wissen der Welt half mir nicht, meinen Bumerang zum Rückflug zu bewegen. Mit jedem Tag, den das große Ereignis näher rückte, wurde ich frustrierter. Endlich kam ich darauf, was das Problem war: der Luftwiderstand! Ein Bumerang gibt einen Teil des Impulses, den er beim Wurf mitbekommt, während seines Flugs an die umgebende Luft ab: Er beschleunigt die Luftmoleküle und erhitzt die Luft, wird selbst aber langsamer. Die Reibung kann ausreichen, sowohl die Vorwärts- als auch die Drehbewegung so sehr zu bremsen, dass der Bumerang schlicht und einfach aufgibt und zu Boden plumpst. Die Lösung ist, den Bumerang beim Start so schnell als möglich rotieren zu lassen, sodass er bei der Rückkehr noch ein gehöriges Maß an Drehmoment besitzt. Ein letztes Geheimnis enthüllte mir Sean Slade gerade noch rechtzeitig: Man muss den Bumerang beim Start leicht zurückkippen und ihn dann in einer wippenden Bewegung mit einem Aufwärtstrend von einigen wenigen Grad losschicken, um der Wirkung der Schwerkraft während des Flugs gegenzusteuern. Als der Tag des Kurses kam, konnte ich schon wie ein Profi werfen (der ich ja nun wirklich nicht war), und die Teilnehmer bauten mit meinen guten Ratschlägen einige prächtige -138
Bumerangs. Ich verzichtete darauf, ihnen anzuvertrauen, dass die australischen Aborigines ihre Bumerangs meistens als Messer missbrauchen, damit im Boden herumgraben, Musik machen oder sie als Zahnstocher einsetzen. Es wäre doch schade gewesen, den Teilnehmern ihr Vergnügen zu verderben, denn immerhin kamen ausnahmslos alle ihre Bumerangs zurück.
-139
Es ist noch nicht lange her, da gehörte das Fangen eines Balls zu den wenigen Gebieten des Sports, die noch nicht von der Wissenschaft ins Visier genommen wurden. Tennisschläger, Turnschuhe, Fußbälle und andere Sportgeräte werden schon lange nach wissenschaftlichen Prinzipien konstruiert, ebenso die Diät der Athleten und in gewisser Weise die Athleten selbst. Auch bestimmte Sporttechniken konnten mithilfe der Forschung verbessert werden. So wird heute der Speer in einem exakt berechneten Winkel geworfen, wobei natürlich auch die Bewegungen des Werfers festgelegt sind. Das Fangen von Bällen blieb jedoch weiterhin die Domäne der natürlichen Begabung. Am nächsten kam die Wissenschaft dieser sportlichen Technik noch in dem klassischen Bericht von Archibald G. Macdonell über ein Cricketspiel in einem englischen Dorf im Jahr 1933: Das Match war ausgeglichen, und es stand noch ein Wicket auf dem Spiel. Der letzte Batsman2 war der Schmied…. Er ging in Verteidigungsstellung und warf wilde Blicke um sich. Ganz eindeutig war er immer noch ziemlich wütend. Auf den ersten Ball, der kam, schlug er wie wild und hieb ihn weit hinauf in die Luft. Der Ball stieg und stieg und stieg, bis man ihn kaum mehr am tiefblauen wolkenlosen Himmel erkennen konnte, wohin er alle Hoffnungen und Ängste mit sich trug, die ein englisches Dorf nur haben kann. Er stieg und stieg, dann schien er bewegungslos in der Luft zu stehen, souverän -140
und stolz wie ein Falke, im heroischen, aber aussichtslosen Kampf gegen die bedeutendste Entdeckung jenes Sir Isaac Newton - um dann mit seinem langsamen Fall zu beginnen. - In der Zwischenzeit passierte unten Einiges…. Der Titan Boone hatte sich nicht vom Fleck gerührt, da dieser Fleck mehr oder weniger der richtige zu sein schien. Aber dann wurde es immer unwahrscheinlicher, dass er den Ball würde fangen können. Major Hawker stürzte vom Platz der Bowler wie ein Schlachtschiff herbei und brüllte voll beeindruckender Selbstgewissheit »meiner, meiner«. Mr. Harcourt, der Poet unter den Spielern, hatte offensichtlich den Ball aus den Augen verloren (wenn er ihn überhaupt je gesehen hatte), denn er lief immer wieder um Boone herum und kicherte wie ein Irrer. Livingstone und Southcott, die beiden Cracks, kamen nun Kompetenz ausstrahlend - herbei und nahmen den Ball ins Visier…. In der Zwischenzeit hatte der Ballistik-Professor blitzschnell Winkel, Geschwindigkeit, Dichte der Luft, Lufttemperatur und Luftdruck in seine Gleichungen eingegeben und war zu dem Schluss gekommen, dass der kritische Punkt, der Punkt, den man auf einem Foto mit »X« markieren würde, 91 cm nordöstlich von Boone liegen würde. Er machte sich auf, um sich dort zu postieren, wobei er auf seinem Weg Donald über den Haufen rannte. Eine Sekunde später kam Bobby Southcott herbeigeeilt, stolperte über den hingestreckten Donald und donnerte, den Kopf voraus, in Boones Schoß, dessen Ausmaße an den Abrahams 3 erinnerten. Boone wurde durch den Aufprall einen Meter zurückgeschleudert, landete mit seinen Spikes und seinen gut HO Kilo Fleisch und Knochen genau auf den Zehen des Professors, um dann zu Boden zu gehen. Fast zur gleichen Zeit rempelte der fette Wicketkeeper, dessen Bewegungen ständig den Sieg des Geistes über die Materie unter Beweis stellten, den Professor von hinten an…. Während all dieser Ereignisse drückte sich der amerikanische Journalist Mr. Shakespeare Pollock aufmerksam am Rand des Spielfelds -141
herum… und stimmte mit seiner durchdringenden hohen Tenorstimme die Schlachtrufe amerikanischer Universitäten an. Schließlich kam der Ball an. Es war ein wirklich schlagender Beweis für die mathematischen und ballistischen Fähigkeiten des Professors, dass er mit scharfem Knall exakt auf seinem Kopf einschlug. Von dort sprang er wieder einen halben Meter nach oben, donnerte nun auf Boones Kopf, rollte dann langsam die breite Rückenfläche des Wicketkeepers hinab, nicht ohne einen kleinen Hüpfer zu machen, als er die umfangreichen unteren Rückenpartien erreichte. Der Ball war kaum noch einen halben Meter über dem Rasen, als Mr. Shakespeare Pollock sich in das Gewühl stürzte und ihn mit einem letzten ohrenzerreißenden Siegesschrei vom Hosenboden des Wicketkeepers wegfischte. Das Spiel war unentschieden. 4 Ich kann mich für die wesentlichen Einzelheiten der obigen Schilderung verbürgen, weil ich schon lange für das englische Dorf, in dem ich lebe, Cricket spiele. Überraschenderweise scheint es inzwischen wissenschaftlich erwiesen, dass wir alle über die Fähigkeiten des Professors verfügen, blitzschnell die Flugbahn des Balls zu berechnen, und dass wir diese Fähigkeiten anwenden, wenn wir einen Ball fangen wo llen. Diese Vermutung unterstützt eine Arbeit, die 1993 in Nature erschien. 5 Die beiden Psychologen Peter McLeod und Zoltan Dienes berichten darin über Videoaufnahmen von Sportlern, die versuchen einen Ball zu fangen. Den Aufnahmen nach änderten die Ballfänger ihre Laufgeschwindigkeit in einer Weise, dass man das Heben ihres Kopfs, mit dem sie dem Flugweg des Balls zu folgen versuchten, mit einer einfachen Gleichung beschreiben konnte. Die beiden Forscher gingen davon aus, dass die Ballfänger zu ihrer Meisterleistung nur in der Lage waren, weil sie diese Gleichung während des Laufens im Kopf lösten, und schlössen, dass dies »die Fähigkeit des Gehirns verdeutlicht, Probleme unbewusst lösen zu können«.6 -142
Ich war anfangs von der Argumentation der beiden Autoren ziemlich beeindruckt, ebenso wie die Zeitungen, von denen eine sogar mit der Neuigkeit auf der Titelseite herauskam. 7 Als ich mir die Gleichung etwas genauer ansah, wurde mir allerdings klar, dass die von ihr vermittelte Regel zum Fangen eines Balls geradezu absurd einfach war und wir sie schon als Kinder einüben. Tatsächlich zeigt uns die Untersuchung der beiden Psychologen, wie wir Dinge, die wir als Kinder »einfach« nebenbei gelernt haben, später den komplexeren Gegebenheiten des Erwachsenenlebens anpassen. Ein Kind lernt das Fangen eines Balls, indem es dasteht, die Arme ausbreitet und wartet, dass ihm ein Erwachsener, der es innig liebt, den Ball zuwirft. Die Erfolgsaussichten dieser Prozedur werden nicht selten dadurch getrübt, dass die meisten Kinder dazu tendieren, die Augen zu schließen und ihren Kopf zur Seite zu drehen, sobald ein Ball auf sie zufliegt. Im Laufe der Zeit lernt das Kind, dass diese Technik nicht gerade effizient ist: Nachdem die Erwachsenen ihm Mut zugesprochen haben, fängt es an, die Augen offen zu lassen und den Ball zu beobachten. Schließlich lernt es, mit einer Bewegung des Kopfs der Flugbahn zu folgen. Durch immer neue Übung lernt das Kind, seine Kopfheberate als Maß dafür zu nehmen, ob es überhaupt am richtigen Platz steht, um den Ball zu fangen. Ist dies der Fall, so ist die Botschaft der Kopfneigungsrate an das Kind sehr einfach und kann mit der besagten Gleichung beschrieben werden. Die beiden Autoren des Artikels in Nature zeigten, dass wir naturgemäß als Erwachsene der gle ichen Regel folgen wie als Kinder, selbst wenn wir rennen müssen, um einen Ball zu fangen. Wie gehen wir dabei vor? Lösen wir die Gleichung im Kopf? Oder beschreibt die Gleichung nur einen einfachen physikalischen Vorgang, den wir einüben, indem wir ihn immer wieder wiederholen, bis er unbewusst abläuft wie die -143
Fingerbewegungen eines Klavierspielers, der vom Blatt spielt? Um eine Antwort auf diese Fragen zu finden, beschloss ich, die Rechnungen von McLeod und Dienes in Nature selbst nachzuvollziehen. Ich musste dazu auf die Differentialrechnung zurückgreifen, eine Technik, die man in der Wissenschaft zur Bestimmung von Änderungsraten benützt. Ihre Grundprinzipien sind einfach - viel einfacher, als die Regeln, die mit dem Notenlesen verbunden sind. Als Kind fand ich eine glänzende Erklärung in einem wunderbaren kleinen Buch, das ein Professor des Ingenieurwesens in Cambridge mit dem beeindruckenden Namen Silvanus P. Thompson geschrieben hat, um die »armen Mitmenschen mit den Rechenverfahren« bekannt zu machen. Das Buch steht unter dem Motto »Was ein Narr versteht, versteht auch ein zweiter«8 . Dieses Motto tröstete meinen Vater, der dieses Buch besaß - und später auch mich. So begriff ich denn auch bald, dass die Differentialrechnung Änderungen einer Größe in kleine Stufen zerlegt. Wenn zum Beispiel ein Ball geworfen wird, kann man seine Flugbahn beschreiben, indem man die Horizontalbewegung in kleine Abschnitte aufteilt, dann die Wirkung der Schwerkraft berücksichtigt und die Höhe des Balls am Ende jeden Abschnitts berechnet. Das Prinzip ist in Abbildung 6.1 dargestellt, wo die glatte Flugbahn durch eine Stufenkurve mit acht Abschnitten angenähert wird. In diesem Beispiel wurde der Ball in einem Winkel von 45° nach oben geworfen. Die Aufwärtsgeschwindigkeit, die der Ball mitbekommen hat, wird nun ständig durch den Einfluss der Schwerkraft verringert, bis schließlich der Ball seine Gipfelhöhe erreicht hat. Der Ball gehorcht natürlich ganz getreu der »bedeutendsten Entdeckung jenes Isaac Newton«, bleibt also nicht in der Schwebe, sondern beginnt augenblicklich mit ständig wachsender Geschwindigkeit unter dem Einfluss der Schwerkraft wieder nach unten zu fallen. Diese Änderung der Vertikalgeschwindigkeit hat auf die Horizontalgeschwindigkeit keinerlei Einfluss. Es fällt manchmal -144
schwer, das zu glauben - die Geschichte aus meinem Dorf, als ich einen Streit über diese Frage schlichten sollte, habe ich bereits in Kapitel 3 angedeutet.
A BBILDUNG 6.1: Flugbahn eines Balls, der mit einem Winkel von 45° geworfen wird, mit der Annäherung der Flugbahn durch acht gleich große horizontale Abschnitte. Die Vertikalbewegung am Ende jedes horizontalen Abschnitts wird mit dem Newtonschen Gravitationsgesetz berechnet. Es besagt, dass die Schwerkraft die Vertikalgeschwindigkeit jede Sekunde um 9,8 m/s erhöht. Die Schwerebeschleunigung beträgt also 9,8 m/s 2 .
Es ging an diesem Abend um das Wetter, die Politik und den Zustand des Buswartehäuschens am Dorfplatz, aber schließlich landeten wir auf unerklärlichen Wegen bei der Frage, wo ein Ball wieder herunterkommt, den jemand von einem fahrenden Rad aus nach oben wirft. Die Meinungen waren geteilt. Einige vermuteten neben dem Fahrer, aber viele waren sich sicher, dass der Ball hinter ihm herunterfallen würde. Sie waren sehr enttäuscht, dass ich mich auf die Seite der anderen schlug und das damit begründete, dass der Ball sich mit exakt der gleichen Geschwindigkeit vorwärts bewegte wie der Fahrer und das Rad. Es ging um einige Pint Bier, ich fühlte mich also herausgefordert, schnappte mir ein Fahrrad und wollte den Beweis für meine Theorie durch ein Experiment liefern. Ich lieferte den Beweis nur allzu gut, als ich mit dem Rad den Hügel herabkam, vorbei an den jubelnden Massen vor dem Pub, und einen kleinen Stein nach oben warf, den ich vorher von der Straße aufgelesen hatte. Der Stein hielt wunderbar mit mir -145
Schritt und machte nach ein paar Metern Fahrt eine Punktlandung auf meinem Kopf. Ich war heilfroh, dass ich weder einen Cricketball noch eine Billardkugel als Demonstrationsobjekt gewählt hatte. Ein noch dramatischeres Beispiel für die Unabhängigkeit von Horizontal- und Vertikalbewegung schildert Lewis Wolpert: Nehmen wir an, ein Schütze schießt eine Kugel horizontal ab und lässt zur genau gleichen Zeit eine Kugel fallen, die in der Hand lag, mit der er auch das Gewehr hielt. Beide Kugeln schlagen zur gleichen Zeit am Boden auf! Die große Horizontalgeschwindigkeit der abgeschossenen Kugel hat keinerlei Wirkung auf ihre Vertikalgeschwindigkeit, also das Herunterfallen auf den Boden. 9 Die Unabhängigkeit der beiden Geschwindigkeitskomponenten wurde immer wieder unter Laborbedingungen überprüft und bestätigt, aber das ist noch nicht die ganze Geschichte, wenn es darum geht, warum mir der Stein genau auf den Kopf gefallen ist. Die andere Frage is t, warum sich der Stein nach dem Verlassen meiner Hand weiterhin mit derselben Geschwindigkeit wie ich und das Fahrrad bewegt hat. Es leuchtet auf den ersten Blick überhaupt nicht ein, warum er das hätte tun sollen. Der gesunde Menschenverstand sagt uns vielmehr, dass Dinge sich nur bewegen, wenn man an ihnen zieht oder sie schiebt, also wenn eine Kraft an ihnen angreift: Von nichts kommt nichts - oder in den Worten von Aristoteles: »Alles Bewegte oder Sichbewegende wird notwendigerweise von etwas bewegt.«10 Dieser Ansicht sind auch heute noch viele Menschen. Bei einer Umfrage, die kürzlich durchgeführt wurde, glaubten etwa 30 Prozent der Befragten, dass Dinge, die sich bewegen, sofort zur Ruhe kommen, wenn nichts mehr an ihnen zerrt.11 2000 Jahre und die Genialität eines Newton waren nötig, bis man entdeckte, dass Objekte, an denen keine Kräfte mehr angreifen, entweder weiterhin ruhen oder sich mit ihrer alten Geschwindigkeit weiterhin auf einer geraden Bahn bewegen. -146
Das ist die Aussage von Newtons erstem Be wegungsgesetz, dem auch mein Stein gehorchte, als er sich mit derselben horizontalen Geschwindigkeit fortbewegte, die er vor dem Verlassen meiner Hand hatte. Hätte ich während der Weiterfahrt nach oben geschaut, wäre er immer genau über mir zu sehen gewesen, da wir alle - das Fahrrad, ich und der Stein - in Bezug zur Erde die gleiche Horizontalgeschwindigkeit hatten. Vom Standpunkt des Publikums vor der Tür des Pubs sah es ein wenig anders aus: Auch der Stein bewegte sich mit konstanter Geschwindigkeit horizontal fort, das heißt, er legte in der doppelten Zeit auch den doppelten Weg zurück.12 Was die Vertikalgeschwindigkeit betraf, wurde er von der Schwerkraft in Richtung Erde beschleunigt. Das von Galilei entdeckte Fallgesetz besagt, dass ein fallender Gege nstand in der doppelten Zeit viermal so weit fällt.13 Kombiniert man die konstante horizontale mit der beschleunigten vertikalen Bewegung, so ist die Flugbahn des Steins von der Seite gesehen eine Parabel.14 Für einen Ballfänger, der dort steht, wo der Ball aufkommen wird, ist der Blickwinkel wieder anders. Er sieht den Flugweg nicht von der Seite, sondern von vorn und bekommt nur aus dem Winkel, unter dem ihm der Ball erscheint, Informationen über dessen Position. Wie ändert sich dieser Winkel, wenn der Ba ll näher kommt? Wir können uns eine Vorstellung davon machen, indem wir die Flugbahn des Balls in gleiche Zeitintervalle zerlegen und jeweils die Position auf seiner Parabelbahn bestimmen (Abbildung 6.2). Die Abbildung zeigt, dass sich der Winkel, solange er noch kleiner als etwa 30° ist (Ball bei »A«), innerhalb eines jeden Zeitintervalls um etwa den gleichen Betrag ändert. Der Fänger hebt also seinen Kopf nahezu gleichförmig, wenn er den Ball verfolgt - solange die Flugbahn nicht zu steil hinaufführt. Man kann nun auch umgekehrt argumentieren: Hebt der Fänger den Kopf gleichförmig, so steht er an der richtigen Stelle. Allem Anschein nach prägt man sich -147
das als Kind ein und wendet es auch im fortgeschritteneren Alter an.15
A BBILDUNG 6.2.: Winkel, unter de m einem Fänger ein auf einer Parabelbahn heranfliegender Ball zu verschieden Zeiten erscheint.
Auf die Faustregel ist aber nicht immer Verlass. Wird der Winkel sehr groß (Ball bei »B«), so hebt man den Kopf immer langsamer. Würde der Fänger weiter seiner Regel glauben, erschiene ihm der Ball langsamer als er in Wirklichkeit ist, und er würde ihn verfehlen. Das mag der Grund sein, warum es so schwer ist, hohe Würfe zu fangen. Abbildung 6.2 zeigt sehr schön, wie sich der Kopfhebewinkel des Ballfängers ändert, wenn dieser an der richtigen Stelle steht. Das mag den meisten genügen, aber ich wollte es genauer wissen und eine Gleichung für die Änderung des Kopfhebewinkels im Zeitverlauf aufstellen. Aus dieser Gleichung wollte ich dann ablesen, in welcher Weise der Ballfänger seine Taktik verschiedenen Situationen anpassen muss. Ich machte mich an einem Samstagmorgen leichten Herzens an die Arbeit. Ein Glas australischen Chardonnays sollte mich inspirieren, und ich freute mich schon darauf, am Nachmittag bei dem Cricketspiel im Dorf meine Theorie experimentell zu untermauern. Nachdem dann aber Stöße von -148
DIN A4-Blättern um mich wucherten, die alle mit wahnsinnig komplizierter Algebra voller Fehler bekritzelt waren, fing ich an, mich zu fragen, auf was ich mich da eingelassen hatte. Ich machte aber trotzdem zügig weiter und wurde schließlich belohnt: Die meisten Terme auf einer halben Seite voll algebraischer Gleichungen hoben sich gegenseitig auf, und was übrig blieb, war ein wunderbar einfaches Ergebnis. Mein Glücksgefühl über diese elegante mathematische Lösung ähnelte dem eines australischen Reisenden, der ganz überraschend auf dem platten Land einen Pub entdeckt. Die Tatsache, dass meine Lösung vor 30 Jahren - wenn auch in anderer Formulierung - schon von jemand ge funden worden war16 , tat meinen Gefühlen keinen Abbruch, die aus einer Mischung von Erleichterung und Triumph bestanden: Erleichterung, weil ich eine Lösung gefunden hatte, und Triumph, weil meine Lösung einen neuen Beitrag zur Wissenschaft des Ballfangens lieferte. Wer allergisch gegen mathematische Symbole ist, kann ohne großen Schaden die nächsten paar Abschnitte überspringen. Aber erst in der Symbolsprache der Mathematik erstrahlen die Ergebnisse in ihrer ganzen Schönheit, sodass ich sie denen, die sehe n möchten, was ich sah, nicht vorenthalten möchte. Als ich mit meinen Rechnungen begann, drückte ich den Kopfhebewinkel nicht in Grad aus, sondern gab den Tangens an. Der Tangens ist ein Maß für die Steigung und wird mit »tan« abgekürzt. Wir kennen diese Größe von Verkehrsschildern, die vor einer starken Steigung oder einem starken Gefalle warnen. Die Steigung ist der Quotient aus dem Höhenunterschied und der horizontalen Strecke, die man zurücklegen muss. In Abbildung 6.3 ist die Steigung des Hügels 10m / 40m = 0,25. Es gilt also tan a = 0,25.17 Ich wollte nun herausfinden, wie sich a, der Kopfhebewinkel des Fängers, oder der Tangens dieses Winkels mit der Zeit ändert. Mathematisch ausgedrückt: Ich wollte die »Ableitung« von tan a nach der Zeit angeben, eine -149
Größe, die Newton noch mit einem darüber gesetzten Punkt kennzeichnete (also ) und die Mathematiker heute schreiben als:18
A BBILDUNG 6.3: Hügel mit einer Steigung 1:4.
Wovon mag diese Größe wohl abhängen? Ich versuchte es mit allem, was irgendwie wichtig sein konnte: dem Abwurfwinkel, der Zeit vom Abwurf bis zum Auffangen, der Entfernung des Fängers vom Ball und der Entfernung des Balls vom Werfer. Letzten Endes hoben sich die Einflüsse dieser Größen alle auf. Das Einzige was übrig blieb war die Beschleunigung (g) aufgrund der Schwerkraft und die horizontale Geschwindigkeit des Balls (v). Die hinreißend einfache Gleichung lautete:
Was will uns diese Gleichung sagen? Zunächst einmal, dass sich bei einem Fänger, der dort steht, wo der Ball herunterkommt und mit seinem Kopf dem Flug des Balls folgt, der Tangens des Kopfhebewinkels gleichförmig ändert. Umgekehrt kann man aus einer solchen gleichförmigen Bewegung des Kopfes folgern, dass der Fänger am »richtigen« Platz steht. Für Winkel unter 30° ist der Tangens des Winkels ungefähr proportional zum Winkel selbst, sodass sich auch der -150
Kopfhebewinkel gleichförmig ändert, wie es in Abbildung 6.2 angedeutet wird. Bei größeren Winkeln ändert sich der Tangens schneller als der Winkel, was bedeutet, dass der Fänger seinen Kopf immer langsamer heben muss, wenn die Änderung des Tangens konstant bleiben soll. Wenn wir der Faustregel aus unserer Kindheit folgen und den Kopf mit gleicher Geschwindigkeit weiter heben, wird der Ball verloren gehen. Die Gleichung sagt uns ferner, wie die Kopfheberate von der Geschwindigkeit des Balls abhängt. Hat beispielsweise der Ball eine Geschwindigkeit von 50km/h, so muss der Fänger - ganz unabhängig vom Abwurfwinkel des Balls - den Kopf mit etwa 17° pro Sekunde heben, um der Flugbahn zu folgen. Bei doppelter Ballgeschwindigkeit halbiert sich die Kopfheberate, was dem Fänger mehr Zeit lässt, die Hände für den Ball zu platzieren - zumindest theoretisch, während in der Praxis seine Reaktionen vielleicht zu langsam sind. Zuletzt sagt uns die Gleichung noch, dass der Kopf ständig weiter gehoben werden muss, bis man den Ball in den Händen hält. Beginnt ein Fänger irgendwann den Kopf wieder zu senken, kann man sicher sein, dass er den Ball nicht mehr fangen wird. Der wahre Wert der Gleichung erweist sich erst, wenn wir aus ihr Regeln für das Fangen eines Balls im vollen Lauf ableiten können. McLeod und Dienes haben in ihrem Nature-Artikel gezeigt, wie gute Fänger ihre Laufgeschwindigkeit so einrichten, dass weiterhin die einfachen Regeln der Gleichung erfüllt werden. Wie sieht eine solche Laufstrategie aus? Ich habe versucht, sie mathematisch herzuleiten, und kam zu einem deprimierenden Ergebnis: Die Gleichung für die zeitliche Änderung der Laufgeschwindigkeit des Fängers ist schreckenerregend kompliziert. Eines wurde dabei aber klar: Wenn der Fänger mit konstanter Geschwindigkeit läuft, kann er die gleichförmige Kopfheberate bei der Verfolgung des Balls nicht einhalten. Er muss also seine Geschwindigkeit ändern. Die Rate dieser Änderung - also eine Beschleunigung oder ein -151
Abbremsen seines Laufs - hängt in einer komplizierten Weise vom Abwurfwinkel, der Ballgeschwindigkeit und der Entfernung des Fängers vom Landepunkt des Balls ab. Der Blick auf die Physik dieses Vorgangs zeigte mir, dass die Beschleunigung (oder Abbremsung) dem laufenden Fänger gegenüber einem Fänger, der schon am richtigen Punkt steht, einen deutlichen Vorteil gibt. Das Laufen ist der Clou beim Fangen eines Balls, denn ein laufender Fänger kann seine Stellung viel leichter den Gegebenheiten anpassen, als ein stehender. Die Ursache dafür liegt in den Kräften, die auf ihn einwirken. Wer still steht, erfährt im Wesentlichen zwei Kräfte: die Schwerkraft, die ihn nach unten zieht, und die Reaktionskraft des Bodens auf seine Füße, die nach oben wirkt.20 Solange diese beiden Kräfte in einer Linie liegen, ist alles in Ordnung. Das Gleichgewicht ist bei einem stehenden Menschen jedoch stets in Gefahr, da er relativ groß und dünn ist und damit sein Schwerpunkt sehr hoch liegt. Einen menschlichen Körper im Gleichgewicht zu halten, ist fast so schwer, wie einen Bleistift auf seiner Spitze zu balancieren. Schon eine Neigung um etwa 6° reicht aus, um aus der Schwerkraft und der zugehörigen Reaktionskraft ein Kräftepaar zu machen, das den schon geneigten Körper noch weiter zu neigen versucht, bis er - wie unser Schubkarren in Kapitel 3 umkippt, es sei denn, der Fallende reagiert schnell genug und stellt ein Bein vor (um den Angriffspunkt der Gegenkraft zu verlegen) oder bewegt die Arme wie ein Seiltänzer (um seinen Schwerpunkt zu verlagern). Schildkröten, Eidechsen, Frösche, Kröten und Mantas sind mit dem Gleichgewichtsproblem fertig geworden, indem sie weit auseinander stehende Beine herausgebildet haben und ihren Schwerpunkt tiefer legten. Sie sind allerdings nicht für das Fangen von Bällen berühmt, und man könnte sich fragen, warum der Mensch trotz seiner höchst instabilen Konstruktion derartige Aufgaben und andere, die koordinierte Bewegungen -152
erfordern, so erfolgreich bewältigt. Der Grund ist, dass uns gerade die instabile Anordnung manövrierfähiger macht, da wir schon mit wenig Krafteinsatz unsere Lage und Stellung schnell und gründlich verändern können. Wenn wir rennen, wird diese Kraft auf den Boden übertragen, indem wir mit unseren Füßen nach unten und rückwärts stoßen. Dadurch ändert sich unsere Gleichgewichtslage, sodass wir uns nach vorn neigen können und trotzdem nicht fallen. Die Summe aus der Schwerkraft und der Stoßkraft gegen den Boden verläuft schräg, daher verläuft auch die Gegenkraft schräg und beide Kräfte gehen nur dann durch den Schwerpunkt unseres Körpers, wenn er geneigt ist (Abbildung 6.4). Die zusätzliche Kraft tritt nur bei einer Beschleunigung auf, also wenn sich unsere Geschwindigkeit ändert. Das Laufen mit konstanter Geschwindigkeit erfordert erstaunlich wenig Kraft. Man muss nur gegen den Luftwiderstand, die Reibung in den Gelenken und den Energieverbrauch in den Muskeln ankämpfen.
A BBILDUNG 6.4: Kräfte im Stand und bei gleichförmiger Bewegung (links), und Kräfte bei beschleunigter Bewegung (rechts). Die schwarzen Pfeile entsprechen den Kräften, die vom Körper auf den Boden ausgeübt werden (actio), die weißen Pfeile stellen die gleich großen und entgegengerichteten Kräfte (reactio) des Bodens auf die Füße dar. Das Gleichgewicht bleibt erhalten, wenn die Summe der Gegenkräfte (lange weiße Pfeile) durch den Schwerpunkt des Körpers (Punkt) geht.
-153
Nach Newtons erstem Bewegungsgesetz braucht jemand, der steht oder mit konstanter Geschwindigkeit läuft, keine zusätzliche Kraft aufzubringen, um die Balance zu halten. Er muss aufrecht bleiben, um das Gleichgewicht zu bewahren. Nur beim Start, wo der Sportler ja aus dem Stand heraus beschleunigt, kann er sich vorlehnen und die zusätzliche Kraft zum Balancieren nützen. So gesehe n ist es daher besser, auf dem Weg zu dem Platz, wo der Ball niedergehen wird, zu beschleunigen oder abzubremsen und nicht mit gleichförmiger Geschwindigkeit zu laufen, denn man kann dann über die zusätzliche Kraft verfügen. Genau dies sagt die »Ballfanggleichung« voraus, wenn man sie für laufende Fänger modifiziert, und genau dies fanden McLeod und Dienes bei ihrem Experiment. Auch ich kam zu diesem Ergebnis, wenn ich meine Freunde beim Cricketspiel beobachtete oder mir ein Cricket- oder Baseballspiel im Fernsehen anschaute. Es gab nur eine Ausnahme: Baseball-Profis schienen zum Landeplatz des Balls zu rennen und dort zu warten, wenn der Ball hoch anflog. Der tiefere Grund für diese Ausnahme ist, dass die Fallgeschwindigkeit eines Baseballs aus großer Höhe beträchtlich ist und der Fänger möglichst nah am Landepunkt stehen muss, um überhaupt eine Chance zu haben, den Ball zu fangen. Es gibt auch noch einen etwas versteckteren Grund. Wie wir schon gesehen haben, wächst bei Winkeln über 30° der Tangens des Winkels rasch an und solche Winkel sind beim Baseball nicht ausgeschlossen. Wenn also jemand beim Abflug des Balls seinen Kopf mit konstanter Rate hebt, wird er am Ende des Ballflugs viel zu weit nach oben schauen. Für jemanden, der nahe am Auftreffpunkt ist, sind die Fehlermöglichkeiten geringer, was den Verlust an Beweglichkeit durch das Abwarten im Stehen mehr als ausgleicht. Zusammenfassend komme ich zu dem Schluss, dass für Bälle, die nicht steiler als im Winkel von 45° geworfen werden, das -154
»Fangen im Lauf« die bessere Taktik ist, während »Stehen und auf den Ball warten« für höher fliegende Bälle vorzuziehen ist. In beiden Fällen ist der Fänger erfolgreicher, der - unbewusst eine konstante Kopfheberate einhält und damit die Flugbahn richtig einschätzt oder, wenn er besonders gut ist, eine Kopfheberate einhält, die den Tangens des Winkels konstant hält. Mit schnellem Kopfrechnen hat das alles nichts zu tun, wir handeln unbewusst nach ganz einfachen Regeln, wenn wir dem Flugweg eines Balls folgen.
-155
Die Geschichte der Wissenschaft ist nicht nur von Höhepunkten und grandiosen Entdeckungen geprägt. Die Forscher, die in so hohe Regionen vorstießen, erreichten ihr Ziel, indem sie beharrlich einer Spur folgten und sich auf die Einzelheiten jedes Schrittes konzentrierten. Die Geschichte dieser kleinen Schritte kann so faszinierend sein wie die der großen Errungenschaften selbst, wenn sie auch vom Leser zweifellos mehr abverlangt, weil ohne einiges Hintergrundwissen vieles unverständlich bleibt. In diesem Kapitel will ich eine solche Geschichte erzählen. 1 Es ist die Geschichte einiger kleiner Fortschritte in den Naturwissenschaften und handelt davon, wie sich Moleküle zusammenfinden, um eine so komplizierte Struktur wie Schaum zu bilden. 2 Spuren dieser kleinen Fortschritte finden wir heute überall in unserem Alltagsleben - vom Haarewaschen bis zum Verabreichen von Medikamenten. Selbst unsere Vorstellung von der Entstehung des Lebens auf der Erde wird durch sie beeinflusst. Ich erzähle die Geschichte aus dem Blickwinkel eines Insiders. Indem ich dabei etwas mehr ins Detail gehe, als es in populärwissenschaftlichen Büchern üblich ist, hoffe ich, einiges davon vermitteln zu können, was Forschungsarbeit bedeutet und wie sic h die Schönheit der Natur und ihrer Gesetze oft mehr in den kleinen, täglich neuen Details zeigt als in den großen Entwürfen, die später der Öffentlichkeit präsentiert werden. Wenn man dem amerikanischen Naturwissenschaftler Sidney -156
Perkowitz3 glaubt, so wird man sich dereinst an das 21. Jahrhundert als an das »Zeitalter des Schaums« erinnern. Aluminiumschaum wird eingesetzt werden, um Autos stabiler und trotzdem leichter zu machen. Betonschaum, der normale Lasten tragen kann, aber unter übergroßen Gewichten zusammensackt, gibt es bereits. Mit ihm kann man den Auslauf der Landebahn von Flughäfen beschichten: Flugzeuge, die über die Piste hinausrasen, werden in ihm auf sanfte Weise abgebremst. Oder denken wir an die NASA: Sie hat eine Rakete mit einer Stufe aus ultraleichtem Schaum ins All geschickt, die Partikel aus einem Kometenschweif einfangen soll. Die Schäume, von denen Perkowitz spricht, haben Blasen mit festen Wänden, die ihnen Stabilität verleihen. Die Blasen der Schäume, die ich in diesem Kapitel besprechen will - etwa Bierschaum und Seifenschaum - haben flüssige Wände. Das Rätsel, wie sich diese Wände bilden und wie sie ihre Festigkeit aufrechterhalten, beschäftigte schon Newton, der zu seiner Entschlüsselung Experimente mit Seifenblasen machte. Ich stellte mir das immer gern so vor, dass er dabei in seiner Badewanne saß - aber wahrscheinlich erzeugte er den Seifenschaum ganz unromantisch in einer Schüssel auf einem Labortisch. Er sah natürlich nichts anderes als wir, aber bei einem Newton entstand aus der Beobachtung eines ganz alltäglichen Phänomens ein weiterer Baustein für das Gebäude der Wissenschaft. In seinem 1704 erschienen Buch über die Optik beschreibt er seine Versuche: Wenn man Wasser, welches man durch vorheriges Auflösen von etwas Seife einigermaßen zähflüssig gemacht hat, zu einer Blase aufbläst, so ist es eine allgemein bekannte Beobachtung, dass diese nach einiger Zeit mannigfach gefärbt erscheint. Um solche Blasen vor Bewegungen durch die Luft zu schützen (wodurch die Farben unregelmäßig durcheinander bewegt wurden, sodass man keine genaue Beobachtung an ihnen -157
machen konnte), bedeckte ich, sobald ich eine aufgeblasen hatte, diese mit einem durchsichtigen Glase. Dadurch kamen die Farben in ganz regelmäßiger Reihenfolge zum Vorschein, wie ebenso viele concentrische, den höchsten Punkt der Blase umgebende Ringe. Und in dem Maße, wie das Wasser beständig nach unten sank und die Blase dünner wurde, breiteten sich die Ringe langsam aus und überzogen die ganze Blase, indem sie der Reihe nach bis zum untersten Punkte hinabstiegen, wo sie einer nach dem anderen verschwanden. 4 Newton wusste, dass die Farben von der Dicke des Seifenfilms abhängig sind, die von oben nach unten variiert. Er stellte auch fest, dass es ein Stadium gibt, in dem eine Blase überall gleich dicke Wände hat. Vergleicht man dann die Blasenfarbe mit den Farben, die entstehen, wenn man zwei Glasscheiben in einem kleinen, genau bekannten Abstand aufeinander legt, kann man die Dicke des Seifenfilms abschätzen. In dem Moment, in dem der Film gleichmäßig silbern schimmerte, betrug sie in modernen Einheiten 80nm, also 80 Milliardstel eines Meters. Das bedeutet, dass der Seifenfilm aus etwa 500 Moleküllagen bestand. Das ist ungefähr zehnmal dünner, als man es noch mit dem bloßen Auge beobachten könnte.5 Wie kann ein so hauchdünner Film stabil bleiben? Newton nahm an, dass die aufgelöste Seife das Wasser »fester« machen würde. Erst zwei Jahrhunderte später erkannte man, dass sich Seifenmoleküle bevorzugt an der Oberfläche von Wasser aufha lten und vorwiegend dort ihre Zauberkräfte entfalten. Der Erste, der erkannte, warum sich Detergenzien, also Moleküle von Seifen und Waschmitteln, so verhalten, war Irving Langmuir, ein Naturwissenschaftler, der bei General Electric in Schenectady (N.Y.) arbeitete.6 Er hatte das beneidenswerte Privileg, alles erforschen zu dürfen, was ihm interessant erschien. In den verschiedenen Abschnitten seiner Karriere als Forscher entdeckte er einen Weg, um die -158
Lebensdauer des Wolfram-Glühfadens einer Birne zu verlängern, dann entwickelte er Hochvakuumröhren für Radiosender und erhielt den Nobelpreis für seine Theorie, wie sich Atome zu Molekülen zusammenschließen. Während des Zweiten Weltkriegs war er an Experimenten zur Erzeugung von Niederschlägen beteiligt - mit der unerwarteten Folge, dass ein amerikanischer Bundesstaat einen anderen des Diebstahls von Regen bezichtigte. Dem allen lag Langmuirs Interesse zugrunde, das Verhalten von Molekülen an Oberflächen zu verstehen. 7 Er untersuchte zunächst die Moleküle an festen Oberflächen, schließlich wechselte er dann zu flüssigen über, um schon in den frühen 1930er Jahren festzustellen, dass seifenartige Stoffe die Tendenz zeigen, sich auf der Wasseroberfläche zu sammeln, da ihre Moleküle zwei verschieden reagierende Enden haben. Das eine Ende, das hydrophil, also wasserliebend ist, ähnelt chemisch Wasser und bevorzugt daher eine Lage im Wasser. Das andere Ende ist lipophil, also fettliebend, und wird auch hydrophob genannt, wirkt also wasserabstoßend. Es ähnelt chemisch Ölen und schätzt folglich eher eine ölartige Umgebung. Gibt es weit und breit kein Öl, erfüllt auch Luft den Zweck - die Hauptsache, es ist kein Wasser. Die Forscher sind unterdessen die langen griechischen Worte leid geworden und nennen das hydrophile Ende »Kopf« und das hydrophobe »Schwanz«.
A BBILDUNG 7.1: Monomolekulare Schicht von Seifenmolekülen an der Wasseroberfläche, die hier als »Enten« mit hydrophilen Köpfen und hydrophoben Schwänzen dargestellt sind.
Diese besondere Struktur macht Seifenmoleküle »oberflächenaktiv«, das heißt, wenn man sie mit Wasser -159
schüttelt, steigen sie zur Oberfläche auf, wo sie dann wie gründelnde Enten sitzen: Köpfchen in das Wasser, Schwänzchen in die Höh (Abbildung 7.1). Natürlich wollen möglichst viele Seifenmoleküle an die Wasseroberfläche. Sie streiten sich um die freien Plätze und rücken schließlich so dicht zusammen, wie es nur immer geht. Auch die große Mehrheit, die unter Wasser bleiben muss, versucht sich so zu gruppieren, dass die Köpfe ins Wasser ragen, aber die Schwänze nicht vom Wasser berührt werden. Um dieses Ziel zu erreichen, gibt es zwei Anordnungsmöglichkeiten. Die erste stellt einen Ball dar (Abbildung 7.2), wobei nun die Schwänze nach innen, die Köpfe nach außen zeigen. Man nennt einen solchen Ball Mizelle. Mizellen können in ihrem Inneren Fett einschließen und leisten die Hauptarbeit beim Waschen. Die zweite mögliche Art, wie sich Seifenmoleküle unter Wasser anordnen können, besteht aus einem Paar flacher Schichten, das als Doppelschicht bezeichnet wird.8 Auch in diesem Fall schauen die Köpfe nach außen und die Schwänze nach innen, wo sie vor Wasser geschützt sind (Abbildung 7.3). Problematisch bei dieser Anordnung ist, dass sie zu den Rändern offen ist, dort also Schwänze ins Wasser ragen. Diese Schwierigkeit kann überwunden werden, indem sich die Doppelschicht von selbst zu einer Hohlkugel schließt, die Liposom genannt wird (Abbildung 7.4). Liposome können wie Mizellen im Inneren Stoffe enthalten, die damit vor dem Wasser außen geschützt werden. Der Unterschied ist, dass Mizellen nur öllösliche Stoffe wie Fett enthalten können, während es bei den Liposomen auch wasserlösliche Stoffe sein können.
-160
A BBILDUNG 7.2: Seifenmoleküle, die unter Wasser als Ball (Mizelle) angeordnet sind.
A BBILDUNG 7.3: Seifenmoleküle, die unter Wasser in einer Doppelschicht (bilayer) angeordnet sind.
A BBILDUNG 7.4: Seifenmoleküle, die unter Wasser zu einem Liposom zusammengeschlossen sind. Liposome sind oft von konzentrischen Doppelschichten umgeben. Ein Liposom mit nur einer Doppelschicht wird Vesikel genannt, aber ich werde im Folgenden den gebräuchlicheren Begriff Liposom verwenden, der alle Typen abdeckt. -161
Die Membrane, die einst die ersten lebenden Zellen umschlossen, waren vermutlich Liposome, die sich spontan aus Lecithin zusammenschlössen, das unter den natürlichen Bedingungen, die damals auf der Erde herrschten, gebildet wurde.9 Derzeit besteht großes Interesse daran, solche Liposome einzusetzen, um Wirkstoffe an Stellen des Körpers zu befördern, wo sie heilend eingreifen können. Auf dem Weg dorthin wären diese so vor der zerstörerischen Wirkung von Enzymen geschützt. Man bestimmt das Ziel, indem man in die Außenwand eines Liposoms Moleküle zur Markierung einbaut, ohne dabei seine zweilagige Struktur zu stören. Um das zu bewerkstelligen, muss man die Kräfte verstehen, die das Liposom zusammenhalten, und man muss wissen, wie diese Kräfte durch fremde Moleküle gestört werden, die man in die Doppelschicht einbaut. Darüber hinaus muss man aber auch wissen, welche Rolle die Form der Seifenmoleküle beim Aufbau der verschiedenen Liposomstrukturen spielt. Diese beiden zuvor getrennt verlaufenen Forschungsrichtungen wurden in den späten 1970er Jahren in einer großartigen Synthese zusammengeführt.
-162
Bei der ersten Forschungsrichtung ging es um die Kräfte zwischen den Seifenmolekülen. Man wollte herausfinden, wie diese Kräfte bei einer Seifenblase, aber noch mehr bei einer größeren Klasse von Stoffen, die man Kolloide nennt, stabile Strukturen aufrechterhalten. Ich bin in den frühen 1960er Jahren durch Alexander E. Alexander, der überall als »Alex« bekannt war, mit den Kolloiden in Berührung gekommen. Alexander war mein Lieblingslehrer an der Universität, und er war so etwas wie ein Stachel im Fleisch der australischen Institutionen, die für Forschung und Lehre zuständig waren. Es verging kaum eine Woche ohne einen Leserbrief von »Alex« in einer Sydneyer Zeitung, in dem er mit deutlichen Worten das schändliche Verhalten der Kultusbürokratie und die mangelnde staatliche Unterstützung für die naturwissenschaftliche Bildung geißelte. Seine Kollegen runzelten die Stirn über solche Bemühungen, die Türen des akademischen Elfenbeinturms zu öffnen und die Wissenschaft zum Gegenstand öffentlicher Diskussio nen zu machen, aber ihm war das völlig einerlei. Er war glücklich in seiner eigenen Welt mit Kollegen, die mindestens so unkonventionell waren wie er. Als ich schließlich einige aus seinem Umkreis kennen lernte und mit ihnen arbeitete, wusste ich schon ein wenig über ihre persönlichen Vorlieben und Eigenheiten aus den Anekdoten, mit denen die Vorlesungen Alexanders gespickt waren. Er war der Ko-Autor eines maßgeblichen Standardlehrbuchs mit dem bescheidenen Titel Colloid Science10 und gewann die Herzen seiner Studenten mit der Erklärung, der 852-SeitenWälzer sei ein Buch, dass man eigentlich nicht hätte schreiben -163
müssen. Dabei ist es voll interessanter, wichtiger Informationen, so etwa dem Hinweis, dass das alt- und neugriechische Wort für Klebstoff und Leim ist. Heute definiert der Duden Kolloide als »fein verteilte Stoffe, Dispersionen mit Teilchen aus etwa 103 bis 109 Atomen, deren Größe gerade unterhalb der lichtmikroskopischen Sichtbarkeit bleibt und deutlich über den Molekülabmessungen von niedrigmolekularen Stoffen liegt«. Milch ist ein solches Kolloid: Sie stellt eine Dispersion oder Suspension von Kugeln aus Milchfett in Wasser dar. Bei Farbe sind Pigmentkörnchen fein in Öl oder Wasser verteilt, bei Zigarettenrauch schweben Ascheteilchen in der Luft. Sind die Ascheteilchen groß genug, um an ihrer Oberfläche Licht zu reflektieren, erscheint der Rauch weiß, sind sie kleiner und können das Licht nur streuen, erscheint er bläulich. Auch Blut ist ein Kolloid: Es ist eine Suspension von roten und weißen Blutkörperchen sowie einigen anderen lebenswichtigen Stoffen in Serum. Das Entscheidende bei einem Kolloid ist, dass die Teilchen sehr klein sind und damit ihre Gesamtfläche riesig ist. Die Oberfläche der Fettkügelchen in einem Liter homogenisierter Milch beträgt über 300m2 ! Die Eigenschaften eines Kolloids werden von den Kräften zwischen den Oberflächen der Teilchen bestimmt, den Oberflächenkräften, die auf geringe Entfernung wirken. Ihr Zusammenspiel aus Anziehung und Abstoßung bestimmt einen Großteil der Lebensprozesse, die Selbstorganisation von Molekülen eingeschlossen. Israelachvili weist im Vorwort zu seinem Buch Intermolecular and Surface Forces11 darauf hin, dass schon die alten Griechen mit nur zwei Kräften auskamen, um alle natürlichen Phänomene zu beschreiben: Liebe und Hass.12 Die Oberflächenkräfte sind im Wesentlichen die Wirkung der einlagigen Schicht von Molekülen an der Oberfläche der Teilchen. Normale rote Blutkörperchen stoßen beispielsweise ihre Nachbarn ab, weil ihre Oberfläche mit einer Schicht negativ geladener -164
Zuckermoleküle bedeckt ist. Bei den Fettkügelchen in der Milch ist es ähnlich, nur dass hier die Schutzhaut aus Molekülen von natürlichem Milcheiweiß besteht. Fehlt eine solche Schutzschicht mit abstoßenden Kräften, binden sich ähnliche Teilchen aufgrund einer elektromagnetischen Kraft aneinander, die Vander-Waals-Kraft genannt wird. Diese Kraft wächst stark an, wenn sich die Teilchen nur nahe genug kommen. Das kann zu Problemen führen: So setzt sich bei Milch eine Oberschicht aus Sahne ab, die auf der übrig bleibenden Molke schwimmt. Klumpen sich die roten Blutkörperchen zusammen, können sie in feinen Äderchen stecken bleiben und sie blockieren. Das geschieht bei Menschen, die unter Sichelzellenanämie leiden, einer »molekularen« Krank heit, bei der eine kleine Änderung im Aufbau des Hämoglobinmoleküls dessen Form verändert, was wiederum zu einer Deformation der roten Blutkörperchen führt. Zudem wird die Außenwand der Blutkörperchen etwas klebrig, sodass die Nachbarn nicht zurückgestoßen werden und vorübertreiben, sondern hängen bleiben. 13 Das passiert besonders in engen Windungen, wie sie in den Gelenken vorkommen. Dort wird dann der Blutfluss unterbrochen, was qualvolle Schmerzen zur Folge hat. Teilchen wie die Kügelchen aus Milchfett oder die roten Blutkörperchen werden sich nur dann nicht zusammenklumpen, wenn bei der Annäherung die abstoßenden Kräfte die anziehenden Vander-Waals-Kräfte übersteigen. Gibt es von Natur aus keine abstoßenden Kräfte, so kann man sie künstlich hinzufügen. Eine der häufigsten Methoden, um hydrophobe Teilchen in Wasser - zum Beispiel Schmutzteilchen in Badewasser - untereinander auf Distanz zu halten, ist die Zugabe von Seife. Die hydrophoben Schwänze der Seifenmoleküle verankern sich von selbst auf den Oberflächen der Teilchen und schützen damit beide - die Schmutzteilchen und sich selbst - vor dem umgebenden Wasser: Die elektrisch -165
geladenen Köpfe bilden eine schützende Außenhaut, die andere, ähnlich umhüllte Teilchen abstößt. So entsteht aus den Teilchen eine lockere Suspension, die leicht durch den Abfluss gespült werden kann und sich nicht an den Rändern der Wanne als klebrige Schicht ansammelt. Die Vorstellung, dass die Stabilität von Kolloiden durch das Gleichgewicht von anziehenden und abstoßenden Kräften bestimmt wird, wurde in den frühen 1940er Jahren unabhängig von zwei Forschergruppen entwickelt: von Boris Deryagin und Lev Landau in der Sowjetunion und von Evert J. Verwey und Jan Theodoor G. Overbeek in den Niederlanden. Beide Gruppen veröffentlichten ihre Ergebnisse nach dem Zweiten Weltkrieg, und nach einem kurzen Kampf um die Priorität der Entdeckungen wurde die Theorie ganz demokratisch DeryaginLandau-Verwey-Overbeek-Theorie genannt - kurz DLVO.14 Deryagin war über 70 Jahre in der sowjetischen Oberflächenforschung führend und machte eine Vielzahl wichtiger Entdeckungen, die oft fälschlicherweise »westlichen« Wissenschaftlern zugeschrieben wurden, da sowjetische Publikationen nur äußerst langsam ihren Weg in den Westen fanden. Als ich ihn bei seinem letzten großen Vortrag bei einer Tagung in Moskau 1992 erlebte, erhob er Anspruch darauf, das umstrittene Phänomen der »kalten Fusion« entdeckt zu haben, das er auf eine für Ingenieure typische Weise in Gang gesetzt hatte: Er ließ von seinen Studenten aus sicherer Entfernung mit einer Kalaschnikow auf die Versuchsanordnung schießen. Deryagin verließ die Sowjetunion nur selten, kam aber einmal im Alter von über 80 nach Australien. Er war noch so rüstig, dass er sich um zehn Uhr abends im Rotlichtviertel von Sydney absetzen ließ und dann erst um drei Uhr früh wieder auf der Matte stand - während seine Gastgeber wach geblieben waren und voll Sorge auf ihn gewartet hatten. Die holländischen Forscher Verwey und Overbeek wirkten bei weitem seriöser, als ich sie 1976 zum ersten Mal traf. -166
Großzüg opferten sie ihre Zeit und stellten jenem forschen Jungwissenschaftler aus Australien, der ich damals war, ihre Kenntnisse zur Verfügung. Overbeek bot sogar an, in Englisch statt in Holländisch zu reden, um es mir leichter zu machen. Ich war sehr beeindruckt, lehnte aber aus Höflichkeit ab. Ich wäre noch mehr beeindruckt gewesen, wenn ich damals schon gewusst hätte, dass er noch fünf weitere Sprachen sprach.
A BBILDUNG 7.5: Molekulare Struktur von Seifenfilmen mit einer abfließenden Zwischenschicht aus Wasser bei der Untersuchung durch reflektiertes Licht.
Die DLVO-Theorie war zunächst nichts weiter als eine Theorie: Es war an der Zeit, sie experimentell zu überprüfen. Seifenfilme schienen der ideale Versuchsgegenstand zu sein, da die abstoßenden Kräfte der geladenen Kopfgruppen der Moleküle bestimmen, wie dünn der Wasserfilm zwischen zwei solchen Schichten sein kann. 15 Insbesondere die holländische Gruppe führte zahlreiche Versuche mit Seifenfilmen durch, -167
wobei sie die letztlich noch erreichbare Filmdicke durch die Zugabe von verschiedenen Mengen Salz variierte. Nach der DLVO-Theorie sollte das Salz die abstoßenden Kräfte zwischen den gegenüberliegenden geladenen Kopfgruppen verringern und daher einen dünneren Wasserfilm dazwischen ermöglichen. Messungen der Filmdicke mithilfe der Reflexion von Licht zeigten, dass die Werte sehr nahe bei den von der Theorie vorhergesagten lagen (Abbildung 7.5). Die Untersuchung von Seifenfilmen lieferte schließlich eine Vielzahl von Informationen über die abstoßenden Kräfte der Kopfgruppen, trug aber nicht zur Lösung des Problems bei, warum einige Seifenmoleküle spontan dünne Filme bilden, während sich andere in Strukturen wie den Mizellen anordnen. 16 Als man später diese Frage klären konnte, stellte sich immerhin heraus, dass die abstoßenden Kräfte, die von den SeifenfilmEnthusiasten gemessen worden waren, eine Schlüsselrolle spielen. Eine der Schwierigkeiten ist, dass die Kraft, die einen Seifenfilm immer dünner zu machen versucht, nicht die VanderWaals-Kraft ist, sondern ein Ergebnis des hydrostatischen Drucks. Sie kommt erst dann zum Zuge, wenn die beiden Oberflächen weniger als etwa 10 nm voneinander entfernt sind was etwa 60 aneinander gereihten Wassermolekülen entspricht. In der Rege l sind Seifenfilme aber erheblich dicker, und es mussten daher zunächst Methoden entwickelt werden, um Kräfte auf so winzige Distanzen messen zu können. Man hat dazu ultraweiche Plättchen verwendet, die auf Federn montiert waren, welche sie gegen die Wirkung der auf kleinste Distanz wirkenden Anziehungskräfte auseinander drücken sollten. Die sowjetische Schule maß die Kräfte zwischen sich überkreuzenden Drähten, während die holländische Schule polierte Glaslinsen verwendete. Der Vorteil von Glas ist, dass der Experimentator hindurchsehen und mit reflektiertem Licht den Abstand der beiden Oberflächen messen kann. Der Nachteil ist, dass Glasoberflächen im Größenbereich von Atomen relativ -168
holprig sind. Draht ist glatter, aber man kann den Abstand zwischen den Drähten nicht direkt messen. Damit war die Bühne für eine heiße Diskussion bereitet, die dann auch tatsächlich auf einer Konferenz stattfand. Leider habe ich das Ereignis versäumt, aber die Nachbeben waren noch zu spüren, als ich zehn Jahre später auf diesem Gebiet zu arbeiten begann. Inzwischen hatte David Tabor in Cambridge eine neue Technik entwickelt, bei der man Glimmer verwendete, der einerseits durchsichtig ist, andererseits aber so gespalten werden kann, dass die Plättchen auch im atomaren Bereich »glatt« sind. Einige Doktoranden verfeinerten die Technik noch, und schließlich gelang Jacob Israelachvili17 der Durchbruch. Er vermochte nun, den Abstand zwischen den zwei Glimmeroberflächen bis auf die Größe eines Atoms genau festzulegen und zu messen. Später erzählte er mir gern, dass bei einem Vortrag über seine Ergebnisse auf einer Tagung in den USA ein Wissenschaftler der alten Schule unter den Zuhörern ganz still lauschte, um ihm danach klar zu machen, dass solche Messungen physikalisch unmöglich seien. Die ersten Messungen unternahm Israelachvili in Luft. Ich traf ihn, nachdem er nach Australien gegangen war und begonnen hatte, seine Technik zu verfeinern und ähnliche Messungen mit Wasser statt Luft zwischen den Grenzflächen durchzuführen, die er dann noch mit Seifen- und anderen Molekülen beschichtete. Dass wir uns kennen lernten, war reiner Zufall. Ich kam zu einem Vortrag, den Israelachvili über seine neue Technik hielt, und erkannte sehr schnell, dass sie die ideale Lösung für ein ganz anderes Problem darstellte, an dem ich gerade arbeitete. Ich sprach ihn nach dem Vortrag bei einem Kaffee wegen meiner Theorie an. Das Gespräch hatte Folgen: Die Richtung meiner Forschungsarbeit änderte sich entscheidend, und zwischen mir und Israelachvili begann eine mehrjährige Zusammenarbeit. In dieser Zeit fuhr ich alle paar Monate die 300km von -169
Sydney zu Israelachvilis Labor in Canberra, um mit ihm dort eine Woche lang intensiv zu experimentieren - manchmal bis zwei oder drei Uhr in der Frühe. Das Department of Applied Mathematics, an dem er angestellt war, lag in einem Holzhaus am Ufer des Lake Burley Griffin und wurde bald zu einem der bedeutendsten Forschungszentren der Welt für die Physik von Grenzflächen. Bei den Gesprächen in den Kaffeepausen schien es um alle nur denkbaren Aspekte dieses Gebiets zu gehen, wobei alte Fetischbegriffe in Frage gestellt wurden und eine Fülle neuer Ideen entstand. Das Department war von Barry Ninham gegründet worden, einem äußerst vielseitigen Mathematiker, der sich die Struktur von Grenzflächen als Untersuchungsgebiet gewählt hatte und zusammen mit J. Mahanty ein Buch über die Theorie der Vander-Waals-Kräfte herausgegeben hatte, das so umfassend und »endgültig« war, dass es noch immer das Standardwerk darstellt.18 Jetzt war Ninham auf der Suche nach einem neuen Thema. Israelachvili kam da gerade recht, als er uns seine Vorstellungen darlegte, in welch unterschiedlicher Weise - als Mizellen, Liposome und anderswie - sich Seifenmoleküle zusammenfügen. Er glaubte, dass das Geheimnis dieser Strukturen nicht nur in den Kräften zwischen den Molekülen verborgen ist, sondern auch mit der Form der beteiligten Moleküle zusammenhängt. Die Köpfe von Molekülen, die Schichten bilden, müssten nach dieser Vorstellung ungefähr den gleichen Querschnitt wie die Schwänze haben, denn nur so kann eine flache Schicht entstehen. Die anderen Moleküle dagegen, die sich zu Mizellen zusammenschließen, müssten dann eher große Köpfe haben, die ihren Platz besser an der Außenfläche einer Kugel finden (Abbildung 7.6).
-170
A BBILDUNG 7.6: Unterschiedliche Packungsstrategien oberflächenaktiver Moleküle.
-171
Die Vorstellung, dass Moleküle dreidimensionale Gebilde sind, geht auf Louis Pasteur 19 zurück, der dies aus der Tatsache ableitete, dass Lösungen von zwei verschiedenen, aber chemisch gleichen Salzen der Weinsäure die Polarisationsebene eines Lichtstrahls in zwei unterschiedliche Richtungen drehen. 20 Für Pasteur gab es nur eine Erklärung: Die Moleküle der beiden Salze waren zwar chemisch gleich zusammengesetzt, hatten aber unterschiedliche dreidimensionale Formen. 21 Pasteur hatte mit seiner Vermutung Recht. Aus seinen Beobachtungen ging die moderne Richtung der Stereochemie hervor, die sich mit den Formen der Moleküle befasst und untersucht, wie die Form das Verhalten eines Moleküls beeinflusst. Darum ging es auch bei meinem allerersten - und beinahe allerletzten - Forschungsprojekt. Ich wollte die Form der kleinen Sulfoxidmoleküle bestimmen, die in Benzol gelöst sind, einem, wie jeder weiß, höchst entflammbaren Lösungsmittel. Bei der Untersuchung wollte ich den so genannten Kerr-Effekt nutzen, der an die Ideen Pasteurs anknüpft, und aus der Drehung der Ebene eines Lichtstrahls auf die Struktur der Moleküle schließen. Um den Strahl genügend zu drehen, müssen die fraglichen Moleküle in einem starken elektrischen Feld ausgerichtet werden, das man erhält, indem man die Lösung unter eine Spannung von rund 10000 Volt setzt. Bei meiner Versuchsanordnung hätte ein Funke nur ein paar Zentimeter von meinem Auge entfernt eine Katastrophe ausgelöst. Um das zu vermeiden, musste dem Benzol gründlich alles restliche Wasser entzogen werden. Man erreicht das, indem man zum Benzol Natriummetall gibt. Zu meinem Unglück hatte ich nicht bemerkt, dass noch ein kleines Stückchen Natrium übrig geblieben war, als ich restliches Benzol in den Ausguss -172
schüttete (eine Untat, die heute natürlich streng verboten ist). Das Natrium reagierte aufs Heftigste mit dem Wasser in den Abflussrohren, eine Wasserstoffstichflamme schlug heraus, setzte wiederum das Benzol in Brand, die Laborwand wurde angekokelt, und es wäre beinahe zu einem jähen Ende meiner Karriere gekommen, die noch nicht einmal richtig begonnen hatte.22 Indirekte Methoden wie die Ausnützung des Kerr-Effekts wurden inzwischen weitgehend durch direkte Methoden wie die Röntgenkristallographie ersetzt. Sie ermöglicht es dem Experimentator, von allen Atomen, aus denen das Molekül zusammengesetzt ist, den Ort im Raum zu bestimmen. Mit diesem Verfahren, das bei allen Stoffe angewandt werden kann, die ein festes Kristallgitter bilden, wurde in den frühen 1950er Jahren die Spiralstruktur der DNA entdeckt. Inzwischen ist die Technik so weit verbessert worden, dass man mit ihr in Echtzeit Enzyme beobachten kann, wenn sie ihre Molekülbeute verschlingen und sie dann wieder in anderer Form ausspucken. Noch aufregender als die Röntgenkristallographie ist eine neue Technik, die Rastersondenmikroskopie, die es dem Forscher erlaubt, einzelne Moleküle zu sehen oder sie zumindest durch Abtasten wahrzunehmen. Die Technik ähnelt der eines Blinden, der mit seinem Stock den Weg vor sich abtastet. Der Stock registriert am Boden Hindernisse und Löcher und kann im Prinzip verwendet werden, um eine Reliefkarte der untersuchten Fläche herzustellen. Die neue Scan-Methode macht dasselbe im Größenbereich der Atome. Als Blindenstock dient in diesem Fall eine winzige Spitze, die auf einer ebenso winzigen Feder sitzt, deren jeweilige Dehnung die abgetastete Oberfläche kartiert. Das Untersuchungsgerät ist ein entzückendes kleines Instrument von der Größe eines Toasters und erlaubt die Betrachtung fast jeden Moleküls - von den relativ kleinen Seifenmolekülen bis zu riesigen biologischen Molekülen wie der DNA (Abbildung 7.7). -173
Für die ersten Untersuchungen der Form und Größe von Seifenmolekülen gab es derartige Techniken noch nicht, und man musste andere Wege beschreiten. Meist versuchte man, die Moleküle in einer einlagigen Schicht auf einer Wasseroberfläche zu verteilen. Die allererste Messung der Größe eines Moleküls wurde auf diese Weise durchgeführt. Sie gelang durch reinen Zufall und ist dem amerikanischen Naturwissenschaftler und Politiker Benjamin Franklin zu verdanken.
A BBILDUNG 7.7: Mit einem Rastersondenmikroskop angefertigtes Bild eines DNA-Moleküls. (Wiedergabe mit freundlicherer Erlaubnis meines Bristoler Kollegen Mervyn Miles, der eine weltweit anerkannte Autorität auf dem Gebiet der Abbildung biologischer Moleküle mit dieser Technik ist.)
Das Ganze begann mit einer Seereise im Jahre 1757. Franklin beobachtete, dass die Wellen hinter zwei Begleitschiffen viel glatter waren als hinter seinem eigenen. Er machte den Kapitän auf dieses bemerkenswerte Phänomen aufmerksam und schrieb später an einen Freund, was der Kapitän ihm dazu besserwisserisch gesagt hatte: »Ich nehme an, dass die Köche ihr Schmutzwasser durch die Speigatten abgelassen haben, und dadurch sind jetzt die Seitenwände dieser Schiffe eingeölt.« -174
Franklin hielt es für wahrscheinlicher, dass die Wellen durch das ins Wasser geschüttete Öl besänftigt wurden und nicht durch die eingefetteten Schiffswände, behielt aber seine Weisheit lieber für sich. In den darauf folgenden 17 Jahren überprüfte er seine Theorie immer wieder einmal, bis er dann in einem Teich im Londoner Clapham Common ein richtiges Experiment durchführte. Der Wind erzeugte kleine Wellen, und Franklin ging daran, einen Teelöffel Olivenöl auf dem Wasser zu verteilen. 23 Er schrieb darüber später an seinen Freund William Brownrigg: Obwohl es nur ein Teelöffel war, bewirkte das Öl doch, dass sich das Wasser auf einer Fläche von einigen Yard Seitenlänge sofort beruhigte. Die Ölschicht dehnte sich in erstaunlicher Weise aus und erreichte nach und nach die Leeseite des Teichs, wodurch dieser ganze Bereich - eine Fläche von vielleicht einem halben Acre - spiegelglatt wurde.24 Franklin dachte, er hätte eine Methode gefunden, um eine raue See zu besänftigen, und schlug das Verfahren auch noch vor, nachdem ein großangelegter Versuch in Spithead nichts zustande brachte als die erste vom Menschen erzeugte Ölpest. Was er aber wirklich gefunden hatte, war das erste Verfahren zur Messung der Größe von Molekülen. Franklin selbst war allerdings damals nicht klar, was er entdeckt hatte, er wusste nicht einmal, dass es Moleküle gab. Sein Experiment taucht aber trotzdem auch heute noch als Prüfungsfrage auf, wobei die Lösung der Aufgabe meistens »ein Teelöffel« lautet. Leider wissen wir nicht genau, wie groß Franklins Teelöffel war. Was wir wissen ist, dass sich ein Ölfilm, wie er ihn beschrieben hat, so la nge weiter ausbreitet, bis er nur noch aus einer einfachen Lage von Molekülen besteht. Die Ausbreitung wird dann gestoppt, weil die Moleküle des Films durch die Vander-WaalsKräfte zusammengehalten werden. Kennt man nun die ins -175
Wasser gekippte Ölmenge und die Fläche des Ölteppichs, so kann man dessen Dicke berechnen. 116 Jahre später wiederholte Lord Rayleigh Franklins Experiment in einer besonders großen Badewanne.25 Er bestimmte sorgfältig die Menge des Öls und brachte Kampfer auf der Wasseroberfläche aus, um die Grenze des Films deutlich zu markieren. Er schloss aus seinen Messungen, dass der Film - in modernen Einheiten - l,6nm dick war. Wenn man daraus die Größe von Franklins Teelöffel berechnet, kommt man auf 3 ml, was in der Tat einem Teelöffel aus der Georgianischen Zeit entspricht, wie ich selbst einen besitze. Der entscheidende Schritt, um Franklins und Rayleighs Experimente so zu verbessern, dass sie als wissenschaftliche Methode zur Bestimmung der Größe und Form von oberflächenaktiven Molekülen dienen konnten, gelang gleich im darauf folgenden Jahr Agnes Pockels, eine der wenigen Frauen, die damals in der Forschung tätig waren. 26 Sie entdeckte, dass ein Oberflächenfilm aus Molekülen mit einer beweglichen Barriere zusammengepresst werden kann. Erst 1935 wurde allerdings ein Messgerät auf dieser Basis gebaut. Es war eine Konstruktion, die sich der schon erwähnte Irving Langmuir zusammen mit seiner Kollegin Katherine Blodgett ausdachte. Heute wird weder der Name Pockels noch der Name Blodgett mit dem Messgerät verbunden: Es heißt Langmuir-Trog. 27 Langmuir ist für diese Namensgebung nicht verantwortlich, er war vielmehr einer der wenigen Forscher seiner Zeit, die weder auf Herkunft noch Geschlecht achteten, sondern sich mit jedem auf die gleiche Stufe stellten. Der Langmuir-Trog ist eine flache Schale, die bis zum Rand mit Wasser gefüllt ist. Auf die Wasseroberfläche wird eine verdünnte Lösung der zu untersuchenden oberflächenaktiven Moleküle aufgebracht. Dann wird die Schicht durch eine bewegliche Barriere zusammengeschoben und der Experimentator kann mit einer an einer Feder aufgehängten Platte messen, wie sich die -176
Oberflächenspannung während des Komprimierens verändert (Abbildung 7.8). Die Untersuchungen mit dem Langmuir-Trog liefern zwei wichtige Informationen. Die erste erhält man, da durch die Bewegung des Schiebers die Oberfläche verändert wird und man feststellen kann, wie dicht die Oberflächenmoleküle gepackt sind. Die Fläche wird so lange verkleinert, bis die Moleküle dicht an dicht liegen. Die Grenze hängt von der Form und der Größe der einzelnen Moleküle ab. Die »typische« Querschnittsfläche eines Seifenmoleküls beträgt etwa 0,25 nm2 . Die zweite Information erhält man aus der Veränderung der Oberflächenspannung, die man aus der Federkraft der Platte bestimmen kann, die in die Oberfläche hängt. Diese Kraft ist ein Maß für die Energie, die man aufwenden muss, um die Oberflächenmoleküle zusammenzupressen, und sagt damit etwas über die Kräfte zwischen den Molekülen aus. Zwischen geladenen oberflächenaktiven Molekülen wirken die Kräfte insgesamt abstoßend. Ist genügend Platz vorhanden, werden sich die Moleküle möglichst weit voneinander entfernen - wie die zerstrittenen Verwandten bei einer Hochzeitsfeier.28 Ich machte mit der Langmuir- Technik das erste Mal durch Alexander Bekanntschaft, der Spezialist für sie war. Er machte uns klar, dass der Trog selbst und das Wasser peinlich sauber sein müssen. Moderne Tröge sind mit Teflon® beschichtet, dem Polymermaterial, das man auch für Pfannen verwendet, in denen nichts anbrennen soll. Teflon® kann man relativ leicht sauber halten, aber früher musste man das Plastik- oder Metallmaterial des Trogs mit einem Schutzfilm überziehen, um es vor Verunreinigungen zu schützen. Alexander und seine Kollegen, die durch die Schule von Cambridge gegangen waren, benutzten billiges Paraffin, andere Forscher verfielen auf extremere Lösungen. Für seinen amerikanischen Kollegen James William McBain hatte »Alex« allerdings nur Spott übrig: Er hatte seine gesamte Apparatur mit Gold überzogen. -177
A BBILDUNG 7.8: Schematische Seitenansicht eines Langmuir-Trogs vor und nach der Kompression der molekularen Oberflächenschicht.
Die Versuche mit dem Trog klingen sehr einfach, sie sind es aber nicht, weil so wenig von dem Material auf die Wasseroberfläche ausgebracht werden muss, dass es für das bloße Auge völlig unsichtbar ist - eine sichtbare Schicht wäre viel zu dick. Der Trick besteht nicht in riesigen Lupen, wie man sie oft mit dem »klassischen« Forscher verbindet, sondern in der Auflösung des Materials in einer relativ großen Menge eines flüchtigen Lösungsmittels wie beispielsweise Äther. Dann muss man nur einen kleinen, sorgfältig gewogenen Tropfen auf die Wasseroberfläche geben. Der Äther verdunstet, und eine einlagige Molekülschicht des Materials bleibt zurück und bedeckt die Wasseroberfläche im Trog. 29 Mithilfe des Langmuir-Trogs konnte eine Vielzahl bisher offener Fragen zur Form und Packweise von Molekülen an Oberflächen gelöst werden. Eine der ersten Untersuchungen galt dem Cholesterin, das zu den wichtigsten Grundstoffen des -178
Lebens zählt.30 Cholesterin genießt heutzutage einen schlechten Ruf, weil es Ablagerungen in den Adern fördert, die den Blutfluss blockieren und einen Infarkt oder Schlaganfall verursachen können. Diese üblen Auswirkungen hat Cholesterin aber nur, wenn es im Übermaß vorhanden ist. Weit schlimmer sind die Auswirkungen von Cholesterinmangel: Er führt zum Tod. Die Form des Cholesterinmoleküls bestimmt, wie es sich in unserem Körper verhält. Als seinerzeit der Langmuir- Trog erfunden wurde, kannte man zwar schon die atomare Zusammensetzung des Cholesterins, es gab aber theoretisch zwei Möglichkeiten, wie die Atome im Molekül angeordnet sein konnten. Beide Formen, für die deutlich unterschiedliche Querschnittsflächen vorhergesagt wurden, fanden unter den Wissenschaftlern ihre Anhänger, die recht leicht irgendwelche Behauptungen aufstellen konnten, weil keine experimentelle Methode in Sicht war, die den Streit hätte entscheiden können. Der berühmte Oberflächenexperte Neil Kensington Adam31 hatte die Idee, diese Querschnittsflächen mit der neuen LangmuirTechnik zu bestimmen. Das erschien möglich, weil eine der beiden Strukturen flach war und sich daher die Moleküle auf der Wasseroberfläche wie senkrecht stehende Platten Seite an Seite anordnen könnten. Die andere Struktur sollte der Theorie nach eher dreidimensional sein, sodass ein einzelnes Molekül mehr Fläche für sich benötigen würde. Eine einzige Messung mit dem Trog genügte schon, um für Klarheit zu sorgen: Die erste Vermutung war richtig.32 Viele derartige Streitfälle, bei denen es um die Molekülform, die Molekülgröße und die Packungsdichte an Oberflächen ging, wurden mit der Langmuir-Technik entschieden. Leider waren die Wissenschaftler aber der Lösung des Geheimnisses, warum sich Seifenmoleküle spontan in drei verschiedenen Strukturen anordnen, keinen Schritt näher gekommen. Diese Frage war insbesondere für das Lecithin von großer Wichtigkeit, das zu den Hauptbestandteilen biologischer Zellmembrane gehört. Man -179
wusste, dass sich Lecithin spontan in Liposomen organisiert, wenn man es in Wasser schüttelt. Es bestand die aufregende Möglichkeit, dass sich auf diesem Weg vielleicht die ersten Zellmembrane in der »Ursuppe« gebildet haben könnten insbesondere, weil man schon zeigen konnte, dass Lecithin höchstwahrscheinlich zu den Zutaten dieser Suppe gehört hatte.33 Plötzlich versuchten alle - und auch ich - herauszubekommen, wie sich die Lecithinmoleküle zusammenschließen. Ich musste mich dem Problem auf Umwegen nähern, weil ich damals in einem staatlichen Labor für Lebensmitteluntersuchungen angestellt war und Experimente zur Entstehung des Lebens ein wenig außerhalb meines Aufgabengebiets lagen. Aber Lecithin gehört schließlich zu den Bestandteilen unserer Nahrung und wird oft eingesetzt, um in Substanzen wie Margarine das Wasser im ölartigen Netzwerk zu halten. Also beschäftigte ich mich mit der Frage, wie viel Wasser das Lecithin binden kann, wollte aber unter diesem Vorwand eigentlich etwas über Forschungsarbeiten erfahren, die sich mit den komplexen Strukturen befasst hatten, die das Lecithin bildet. Viele dieser Forschungsergebnisse hielten allerdings einer späteren Prüfung nicht stand, weil sie mit Lecithin durchgeführt worden waren, das nicht völlig rein war. Reines Lecithin war schwer zu bekommen, weswegen sich viele Wissenschaftler entschlossen, es mit anderen Materialien zu versuchen, die ebenfalls molekulare Doppelschichten ausbilden. Einer dieser anderen Wissenschaftler war Denis Haydon aus Cambridge. Er wählte für seine Versuche Monoglyceride, Moleküle die beim natürlichen Abbau von Ölen und Fetten während der Verdauung entstehen. Ich bin nie dazugekommen, Denis Haydon zu fragen, warum er sich gerade diese Stoffe herausgesucht hatte, aber im Nachhinein scheint es so, als hätte er eine Ahnung von der sich ankündigenden Revolution gehabt und daher oberflächenaktive Moleküle gewählt, deren Form dafür sorgte, dass sie sich fein -180
säuberlich in flachen Schichten anordneten. Er wusste aus Arbeiten eines Forscherteams, das mit dem Langmuir- Trog arbeitete und dessen Star die Nahrungsmittelexpertin Margaret Roberts, Tochter eines Kolonialwarenhändlers, war, dass ein bestimmtes Monoglycerid, das Glycerolmonooleat - kurz GMO -, gerade die richtigen Ausmaße haben musste. (Allerdings sollte Margaret Roberts' erste wissenschaftliche Arbeit auch ihre letzte sein: Sie heiratete einen Mann namens Denis Thatcher und beschloss, dass es aufregender und befriedigender sei, Politikerin zu werden.)34 Wie sich herausstellte, ist GMO ein idealer Stoff zur Herstellung künstlicher Doppelschichten. Haydon löste dazu GMO in Öl und strich die Lösung über ein Loch in einer teflonbeschichteten Platte, die einen kleinen Wassertank in zwei Hälften teilte. Das Öl floss zu den Begrenzungen ab und hinterließ einen Doppelfilm, dessen Struktur im Wesentlichen der glich, wie man sie bei natürlichen Membranen findet (Abbildung 7.9). Filme dieser Art werden als black lipid membranes, BLMs, bezeichnet, da sie so dünn sind, dass sie nur wenig Licht reflektieren und daher schwarz erscheinen. Die Grenzfläche, die das Reservoir darstellt, in welches das überflüssige Lösungsmittel abfließt, wird nach dem Belgier Josef Plateau (1801-1883) benannt.35 Plateau ist unter Grenzflächenexperten auch dafür berühmt, dass er die Gesetze für die Winkel zwischen den Flächen von Schaumbläschen aufgestellt hat, aber noch mehr dafür, dass er all seine Untersuchungen anstellte, nachdem er erblindet war, weil er zu lange in die Sonne geschaut hatte. Trotz dieses Unglücks sind seine Veröffentlichungen voll der schönsten Abbildungen und präzisen Diagramme, die er mithilfe eines (sehenden) Assistenten anfertigte.36
-181
A BBILDUNG 7.9: Schematische Darstellung einer Doppelschicht aus GMO.
Haydons Arbeiten über die BLMs liefern zahlreiche Aufschlüsse über die Selbstorganisation von Molekülen und insbesondere darüber, wie fremde Moleküle ihren Weg in Doppelschichten finden, ohne dabei die Gesamtstruktur zu stören. 37 Viele der Moleküle, die er untersuchte, waren Mittel zur Lokalanästhesie. Er fand heraus, dass ihre Wirkung darin besteht, dass sie die Doppelschichtstruktur verdicken. Membranmoleküle, die Stoffe von der einen zur anderen Seite transportieren sollen, können dann nicht mehr die volle Distanz überbrücken. 38 Zu den anderen Fragen, mit denen sich Haydon beschäftigte, gehörte das viel diskutierte Phänomen, warum die Schwänze von Seifenmolekülen lieber untereinander bleiben, als sich mit Wasser einzulassen. Dies betrifft auch die grundsätzliche Frage, warum sich Öl und Wasser nicht mischen. Er fand keine Antwort - und auch keiner der anderen Kollegen. Wir wissen eigentlich bis heute nicht richtig, warum Öl sich so gut wie nicht -182
in Wasser löst. Der Haken ist nicht etwa, dass sich die Moleküle nicht anziehen: Einzelne Öl- und Wassermoleküle können zusammen sehr glücklich sein. Der Grund ist eher, dass Wassermoleküle sich gern in flüchtigen, flatternden Reihenstrukturen anordnen. Ein einzelnes Ölmolekül, das in eine solche Struktur gerät, zwingt die nahen Wassermoleküle zu einer stabileren Anordnung und ist ungefähr so willkommen, wie ein Standesbeamter in einem flotten Dreiecksverhältnis.39 Immerhin konnte Haydon die Kraft messen, die Wasser und Öl auseinander treibt, indem er die Energie bestimmte, die aufgebracht werden muss, um die Kontaktfläche zwischen den Öl- und Wasseroberflächen zu vergrößern. Ergebnisse wie diese und Informationen über die abstoßenden Kräfte zwischen Kopfgruppen, die Form verschiedener Seifenmoleküle und die höchstmögliche Packungsdichte verschiedener hydrophober Schwänze wurden schließlich von Jacob Israelachvili, Barry Ninham und ihrem Kollegen John Mitchell in einer wunderschönen Synthese vereinigt, die eine Vorhersage erlaubt, welche Arten von Seifenmolekülen welche Strukturen ausbilden. 40
-183
Ich war an diesen Forschungsarbeiten besonders interessiert, weil ich gerade eine Zusammenfassung der Erkenntnisse über die Bildung von Mizellen verfasst hatte. Mir wurde dabei ziemlich klar, dass es für die meisten Seifenmoleküle keine Möglichkeit gibt, sich kugelförmig anzuordnen, da im Inneren der Kugel einfach kein Platz für die Schwänze wäre. Es gab eine Vielzahl von Vorschlägen, wie man dieses Dilemma lösen könnte, teils unter der Annahme reichlich verrückter Mizellenformen. Mein Ko-Autor David Oakenfull bevorzugte wie ich die einfachste Form: Mizellen in Gestalt langgezogener oder abgeplatteter Ellipsoide, also Gebilden, die wie Eier oder Smarties aussahen und im Inneren Platz für die Molekülschwänze hatten. 41 Noch bevor unser Bericht veröffentlicht wurde, arbeiteten Israelachvili, Ninham und Mitchell an ihrer Theorie, die unsere simplen Vorstellungen weit hinter sich ließ. Sie argumentierten, dass im Grunde nur Moleküle, die sich kugelförmig anordnen können, auch in der Lage sind, Mizellen zu bilden. Schon einige Zeit zuvor hatte der amerikanische Wissenschaftler Charles Tanford gezeigt, dass anders geformte Moleküle andere Anordnungen bilden würden. Israelachvili, Ninham und Mitchell verbesserten diese Theorie und entwickelten aus ihr ein kompliziertes quantitatives Modell, das ein außerordentlich einfaches Ergebnis lieferte. Die Art und Weise, in der sich Seifenmoleküle anordnen, ist danach nur von drei Dingen abhängig: der Länge L des Schwanzes, dem Molekülvolumen V und der »optimalen« Querschnittsfläche A der Kopfgruppe (mit anderen Worten: dem Raum, den die Kopfgruppe braucht, wenn sie sich mit ihresgleichen zusammentut). Ist V / (A L) kleiner als 1/3, bilden die Moleküle kugelförmige Mizellen, liegt es zwischen l/3 und 1/2, gleichen die Mizellen Ellipsoiden. Bei Werten zwischen 1/2 und l entstehen Doppelschichten oder -184
Liposome. Ist V / (A L) gar größer als l, bilden sich so genannte inverse Mizellen. Das Modell schlug groß ein und löste eine Fülle von Veröffentlichungen aus, in denen Wissenschaftler aus aller Welt ihre Ergebnisse auf die neue Theorie bezogen. Zu den Dingen, die das Modell erklären kann, gehören durchsichtige Mikroemulsionen, die, anders als »normale« Emulsionen wie Milch und Majonäse, für ewige Zeiten stabil bleiben. Für Wissenschaftler wie mich war diese Pille bitter zu schlucken, weil wir mit der Vorstellung aufgewachsen waren, dass Emulsionen, die ja Suspensionen von Tröpfchen der einen Flüssigkeit (z.B. Öl) in einer anderen Flüssigkeit (z.B. Wasser) darstellen, irgendwann »zusammenbrechen«, weil sich die leichteren Tröpfchen an der Oberfläche sammeln und dort verklumpen. Wir wussten, dass man diesen Prozess verzögern kann, indem man die Tröpfchen mit einer Schutzschicht aus oberflächenaktivem Material wie beispielsweise GMO oder Lactoglobulin überzieht, das die Milchfettkügelchen bedeckt, aber wir wussten auch, dass eine solche Maßnahme den Prozess nur aufhalten, aber nicht verhindern würde: Letztlich trennen sich Öl und Wasser doch, weil sich die Öltröpfchen zusammenballen. Und nun gab es ganz neue Emulsionen, die für immer und ewig stabil sein sollten! Von ihrer Existenz wusste man schon über 40 Jahre, aber eine Idee, wie sie ihre Stabilität erreichten, kam erst auf, nachdem von Ninham und anderen die Packungstheorie entwickelt worden war, die das Geheimnis mit der Form der beteiligten Moleküle erklärte. Will man eine Mikroemulsion herstellen, nimmt man zwei Molekülarten, deren Formen wie Schlüssel und Schloss ineinander passen, sodass alle Zwischenräume ausgefüllt sind. Das Ergebnis ist eine Emulsion mit Tröpfchen, die so winzig sind, dass die Mischung durchsichtig erscheint. Einige Mikroemulsionen enthalten nicht einmal mehr Tröpfchen. Die öligen und wässrigen Bestandteile wickeln sich zusammen und fädeln sich wieder auseinander, -185
folgen dabei verschlungenen Kurven und erzeugen einen Zustand, der bikontinuierliche Phase genannt wird. Die mathematische Theorie solcher Systeme erlaubte Barry und anderen das Design neuer Mikroemulsionen. Eines der Resultate dieser Entwicklung war, dass Ninham Experimentator wurde sehr zum Missfallen Israelachvilis.42 Ein weiteres Resultat war, dass seitdem eine Fülle neuer Waschmittel den Markt überschwemmt, die durchsichtig sind und ein Gel bilden. Wenn man sie schüttelt, werden sie wieder flüssiger und können dorthin befördert werden, wo man sie haben will. Eine Marktnische für solche Produkte stellt Haarshampoo dar, für das Seifen in Form von Mikroemulsionen geradezu genial sind.43 Zu dieser Zeit lebte ich auf der anderen Seite des Globus und nutzte ein Forschungsjahr, um mit Denis Haydon in Cambridge eine Idee weiterzuverfolgen, die ich zu den BLMs hatte. Mein Vorschlag war, sie durch Wasserdruck wie Ballone aufzuwölben, sodass sie in ähnlicher Weise aneinander gedrückt werden konnten, wie bei Israelachvilis Technik die Glimmerflächen. Ich wollte dann herausfinden, was passiert, wenn sich zwei Membrane berühren. Traurig, aber wahr: Das ganze Jahr verging, ohne dass ich zu einem Ergebnis kam. Es dauerte dann noch weitere drei Jahre, bis es mir gelang, BLMs »aufzublasen« und aufeinander zu pressen, und weitere zwei Jahre, bis ich zusammen mit Haydon die Ergebnisse veröffentlicht hatte.44 Unseren Ergebnissen nach stürmen die BLMs aufeinander los, wenn ihr Abstand unter etwa 30 nm liegt, um dann sofort eine neue ungewöhnliche Struktur herauszubilden, die man vom Zusammenschluss »normaler« biologischer Membrane nicht kennt. Aus diesem und einigen anderen Gründen entpuppten sich die BLMs als schlechte Modelle, und ich gab daher die Forschung in diese Richtung auf. Ich wechselte zu echten biologischen Zellen über, in denen von anderen Forschern in geringer Zahl Moleküle gefunden worden waren, die Lysophospholipide heißen und relativ große Köpfe -186
haben. Von daher konnte man annehmen, dass sie in Form von Mizellen auftreten. Heute glaubt man, dass diese Moleküle normalerweise in der Membran verstreut sind, sich aber zusammentun, wenn es darum geht, ein Loch zu öffnen und damit den ersten Schritt für den Zusammenschluss zweier Membrane zu tun - beispielsweise bei der Befruchtung. War die viele Arbeit, die ich in das Projekt mit Haydon gesteckt hatte, verloren? In gewissem Sinne schon, aber immerhin führte sie zu einer neuen Experimentiertechnik, die heute auf so unterschiedlichen Gebieten wie der Ölrückgewinnung und der Herstellung von Speiseeis Anwendung findet. Andererseits ist eine wissenschaftliche Anstrengung nie verlorene Mühe, solange die Fragen, um die es geht, nur wichtig genug sind. Es mag sein, dass die gefundenen Antworten nicht zur ursprünglichen Frage passen, aber sie können auch unvorhersehbare neue Wege eröffnen. Pasteur, Franklin und die vielen anderen, die mit Geduld und Ausdauer bestimmten Forschungsstrategien folgten, ging es so. Beharrlichkeit gehört zu den wertvollsten Eigenschaften, die ein Wissenschaftler haben kann. Ohne die Beharrlichkeit vieler Forscher, die oft in die richtige Richtung ging, oft aber auch Fällen gewidmet war, die aussichtslos schienen, hätte die »Schaumrevolution« nicht stattgefunden. Eigentlich hätte in der Wissenschaft überhaupt nichts stattgefunden.
-187
Ich bin einmal gebeten worden, im Anschluss an ein festliches Dinner bei einer wichtigen Konferenz in Philadelphia eine Rede über den Geschmack von Essen zu halten. Am Abend des Dinners fand ich heraus, dass die Rede im Jahr zuvor von einem Nobelpreisträger gehalten worden war und bei einer anderen Gelegenheit eine komplette indische Tanztruppe für Unterhaltung gesorgt hatte. Keine Frage, dass mir ziemlich die Puste wegblieb, als ich das erfuhr, aber zumindest wusste ich, dass ich die indische Truppe in der Popularität um Längen schlagen würde. Sie hatten sich so aufgestellt, dass der Weg zu den Toiletten blockiert war, und dann eine halbe Stunde länger getanzt als vorgesehen - und das, als der besonders gute Chardonnay bei der Mehrzahl der Anwesenden gerade seine harntreibende Wirkung zeigte. Der Präsident der Konferenz, der mich eingeladen hatte, bat mich um einen Vortrag, der »informativ, aber auch unterhaltsam« sein sollte. Mir war nicht ganz klar, was ich einem Publikum aus weltbekannten Experten sagen konnte, wo doch sogar auf der Speisekarte zu jedem Gericht eine detaillierte Analyse der Geschmackskombinationen abgedruckt war. Ich dachte, wenn ich vom Standpunkt des Essers und Genießers über Geschmack zu reden versuchte, würde das »Unterhaltsame« vor allem in meiner Unkenntnis bestehen. Ich glaubte einen Ausweg gefunden zu haben, indem ich das Essen vom Standpunkt des Physikers betrachtete und mich auf das Problem konzentrierte, wie Geschmack und Geruch des Essens wissenschaftlich gesehen zustande kommen. Für diese Aufgabe war ich einigermaßen gut qualifiziert, hatte ich doch 20 -188
Jahre als Physiker in einem staatlichen Forschungslabor gearbeitet und seither oft mit Meisterköchen und Ernährungswissenschaftlern zusammengearbeitet. Trotz allem gab es noch sehr viel, was ich nicht wusste und, wie ich bald merkte, auch sonst niemand wusste. Es war daher nötig, ein paar neue Ideen zu entwickeln. Inzwischen haben einige andere Naturwissenschaftler diese Ideen aufgegriffen oder unabhängig von mir entwickelt, was wieder einmal zeigt, dass Wissenschaft eine Angelegenheit aller ist und man nie weiß, wohin etwas führen wird, das man herausgefunden hat. Unterdessen habe ich mich noch oft mit dem Essen befasst - manchmal vom ernsthaften wissenschaftlichen Standpunkt aus, manchmal, um an diesem Thema zu zeigen, wie Wissenschaftler die Welt sehen. Einige dieser Geschichten werde ich in diesem Kapitel erzählen, das davon handelt, was beim Aufessen einer Mahlzeit passiert. Natürlich ist die Wissenschaft, die dabei zur Sprache kommt sehr ernst gemeint - auch wenn es nicht alle Geschichten sind.
-189
Ein Freund des großen französischen Schriftstellers und Feinschmeckers Jean Anthelme Brillat-Savarin hat erzählt, wie er einmal den berühmten Mann am frühen Nachmittag besuchte und zunächst eine Zeit lang warten musste. Schließlich erschien Brillat-Savarin und entschuldigte sich: »Ich war im Salon, um mein Diner zu genießen.« - »Wie bitte?« fragte der Gast, der wusste, dass Brillat-Savarin sein Diner immer in stilvoller Weise im Speisezimmer serviert bekam, »Sie essen im Salon?« »Mein Herr, ich muss Sie bitten zu beachten, dass ich nicht gesagt habe, ich habe im Salon gegessen! Ich habe dort mein Diner genossen. Gegessen habe ich schon vor einer Stunde.« Brillat-Savarin war einer der Ersten, der die kulinarische Kunst analysiert hat. Er fasste sein Leben, das sich vorwiegend an der Tafel abgespielt hatte, in einem Kompendium zusammen, das 1825 unter dem gewaltigen Titel Physiologie du goût, ou Méditations de gastronomie transcendante; ouvrage théorique, historique et à Vordre du jour dédié aux gastronomes Parisiens par un professeur, membre de plusieurs sociétés savantes1 veröffentlicht wurde und in dem Rezepte, Anekdoten und Beobachtungen vereint sind, die der Verfeinerung der Tafelfreuden dienen sollen. Auch heute folgen wir noch vielen Rezepten Brillat-Savarins, wenn auch oft nur im Prinzip und nicht in den praktischen Einzelheiten. Die Wissenschaft, die diesen Re zepten zugrunde liegt, beginnt man allerdings erst jetzt so langsam zu verstehen, und viele grundlegende Fragen sind noch immer unbeantwortet. Warum werden beispielsweise unsere Geschmacksempfindungen durch das Aussehen einer Mahlzeit beeinflusst? Wie wirken Geschmacksrichtung, Aroma, Duft, Geruch und andere Faktoren zusammen, um das zu erzeugen, was die Franzosen goût nennen und was man mit -190
flavour oder »Geschmack« nur ungenau übersetzen kann? In welcher Weise werden in einer Mahlzeit Geruchs- und Geschmacksstoffe freigesetzt, die in unserer Nase und auf der Zunge Rezeptoren ansprechen und den sinnlichen Gesamteindruck erzeugen? Wir wollen in diesem Kapitel eine Mahlzeit vom Beginn bis zum Ende mit physikalischem Blick begleiten und dabei die Fortschritte der Wissenschaft diskutieren, die den Vorgängen beim Wahrnehmen, Kauen und Hinunterschlucken von Essbarem gelten.
-191
Eine gutes Essen beginnt mit der Erwartung, ihr folgt die Erfüllung und schließlich die Befriedigung. Brillat-Savarin zählt zu den Ersten, die bemerkten, dass die Erwartung einen wichtigen Anteil am Genuss einer Mahlzeit hat. Er glaubte, dass die Erwartungshaltung oder Vorfreude, die durch das entsprechende Ambiente erzeugt wird, von besonderer Bedeutung ist und der Genuss einer Mahlzeit außer Haus erhöht wird, wenn »ein stilvoll eingerichteter Raum und adrette Kellner« ebenso vorhanden sind wie ein »ausgewählter Keller und eine exzellente Küche«. Er ging davon aus, dass jeder, der an einem üppigen Mahl in einem mit Spiegeln, Gemälden, Plastiken und Blumen geschmückten, von Wohlgerüchen durchzogenen, von hübschen Frauen verschönerten und mit Klängen von süßer Harmonie erfüllten Raum teilgenommen hat, dass es für denjenigen also nicht erst einer großen geistigen Anstrengung bedarf, um sich zu überzeugen, wie sehr alle Wissenschaften dazu herangezogen wurden, um die Genüsse des Geschmacks zu erhöhen und zu umrahmen. 2 Moderne Psychologen werden mit Brillat-Savarin übereinstimmen. Sie konnten zeigen, dass Erwartungen, die durch eine bestimmte Umgebung, die Beleuchtung, die anderen Beteiligten, das Aussehen, den Geruch und die Beschaffenheit der Gerichte und sogar die Qualität der Tischdecken erzeugt werden, mit zum Geschmack des Essens beitragen. Diese Wirkungen sind nicht nur auf Feinschmecker (und alle, die sich dafür halten) beschränkt. Einem Teenie kann auch ein Hamburger großartig schmecken, wenn er ihn mit seiner Clique verschlingt, während der Verzehr im Kreise der Familie vielleicht Ekel erregen würde. Ein Gericht in einem Restaurant -192
zergeht förmlich in den Mündern der Liebenden, während es im Hals stecken bleibt, wenn die inzwischen für immer Vereinten während des Essens über das Haushaltsgeld streiten. Bei der Wahrnehmung eines Geschmacks sind nicht nur alle Sinne beteiligt, auch Bewusstsein und Unterbewusstsein kommen zum Zug. Zunge und Nase senden an das Gehirn lediglich nüchterne Informationen über die Moleküle, die sie registriert haben. Erst das Gehirn verarbeitet diese Informationen zusammen mit vielen anderen Reizen und Wahrnehmungen und reagiert darauf mit einer Empfindung. Die »vielen anderen Reize und Wahrnehmungen« können den seltsamsten Quellen entstammen. Der italienische Schriftsteller Filippo Tommaso Marinetti berichtet in seiner Futuristischen Küche aus dem Jahr 1932 von einem Experiment, bei dem man die gleiche Mahlzeit einmal aß, während die Finger auf Samt ruhten, das andere Mal auf Sandpapier. Das Gericht wurde jeweils völlig anders wahrgenommen. Marinetti zog von Mailand über Paris nach Budapest von Tafel zu Tafel und lenkte die Augen aller auf sich, indem er bei seinem Kampf gegen die banale Pasta asciutta beispielsweise Gerichte zu sich nahm, die »rohes Fleisch, vom Klang der Trompete aufgeschlitzt« enthielten. Ein anderes Mahl bestand aus »zwei Minuten Erbsen in Öl und Essig. Dann sieben Kapern. Dann fünfundzwanzig Kirschen in Spiritus. Dann zwölf Bratkartoffeln. Dann eine Viertelstunde Schweigen, währenddessen die Münder fortfahren, das Leere zu kauen«. Die Futuristen waren gegen das »Praktische«: »Wir… verachten das Beispiel und die Mahnung der Tradition, weil wir um jeden Preis das Neue wollen, das alle für verrückt halten.«3 Das Ziel war der Schock. Die modernen Erben der Futuristen sind Meisterköche wie Heston Blumenthal, Besitzer des »Fat Duck« in Bray an der Themse.4 Er versucht, aus den Reaktionen des Gehirns immer neue Geschmacksvarianten zu komponieren, die vielleicht nicht schockieren, aber sicher überraschen sollen. -193
Gerüche setzten sich in der Regel aus Hunderten, ja Tausenden verschiedener chemischer Stoffe zusammen. Es gibt so gegensätzliche Gerüche wie die von Knoblauch und Kaffee, die trotzdem gemeinsame Hauptbestandteile haben. Blumenthal hat nun versucht, die beiden Stoffe in einer crème brùlée zusammenzubringen. 5 Die Mischung klingt schreckenerregend, aber sie scheint unser Wahrnehmungsvermögen zu täuschen: Es kann nicht entscheiden, ob es gerade Knoblauch oder Kaffee wahrnimmt und schwankt zwischen den beiden Extremen. Es kann beide jeweils für sich genießen, ist aber nicht in der Lage, sie zu »mischen«.6 Nun sind es nicht nur Gerüche, die unsere Wahrnehmung täuschen: Blumenthal hat einmal ein Gelee aus Roter Bete hergestellt, zu dem er Weinsäure gab - eine Substanz, die uns schon begegnet ist. Wie schon der Name sagt, gibt die Weinsäure dem Gelee einen sauren, weinartigen Geschmack, der zusammen mit dem Aussehen der Mischung dem Genießer vermittelt, er hätte ein Gelee aus Schwarzen Johannisbeeren vor Augen. Hatte man einer Versuchsperson zuvor gesagt, das sei Gelee aus Ro ter Bete, fand sie, es schmecke eklig. Wenn es hingegen als Johannisbeergelee deklariert wurde, schmeckte es plötzlich köstlich. Tatsächlich war es aber aus Roter Bete! Blumenthal gründet seine kulinarischen Künste hauptsächlich darauf, dass wir Überraschungen lieben - eine Annahme, die inzwischen durch wissenschaftliche Experimente unterstützt wurde.7 Überraschungen entstehen aus dem Widerspruch zwischen Erwartung und Erfahrung, wobei sich oft die Erwartung gegen alle Erfahrung als die stärkere Kraft erweist. Alles fängt mit dem Anblick an, den das Essen auf dem Teller bietet. Der Anblick kann sogar dafür entscheidend sein, ob man die Speisen überhaupt zu sich nimmt. Es gab Experimente, bei denen das Essen bei grünem oder gelbem Licht serviert wurde und niemand in der Lage war, auch nur einen Bissen zu schlucken. Man sollte ähnliche Versuche vielleicht mit dem -194
Flackerlicht des Fernsehers durchführen - die Ergebnisse könnten interessant sein. Selbst bei »normaler« Beleuchtung kann die äußerliche Beschaffenheit des Essens dramatische Auswirkungen auf das Essverhalten haben. Als ich in Australien an einem staatlichen Labor für Lebensmittelanalyse arbeitete, gehörte ich zu einer Gruppe von Testpersonen, deren Aufgabe es war, den Geschmack von fleischfreien Würsten aus Soja-Eiweiß zu beurteilen. Die Würste sahen völlig »echt« aus: knusprig braun gebraten, auf feinstem weißen Porzellan serviert, die Bestecke aus rostfreiem Stahl. Alles lief gut, bis wir mit Messer und Gabel an einem Wurstende ansetzten und die halbflüssige Pampe in der Pelle zum anderen Ende schwappte. Keiner der Geschmacksprüfer brachte es über sich, eine dieser »Würste« in den Mund zu nehmen. Aussehen und Beschaffenheit der Speisen auf einem Teller geben uns wichtige, wenn auch manchmal irreführende Hinweise auf das, was uns erwartet, wenn wir sie in den Mund befördern. Unsere starken Reaktionen auf diese Reize zeigen, wie tief sie in unsere Psyche eingebettet sind - vielleicht noch aus prähistorischen Zeiten, wo deutlich zwischen Essbarem und Gefährlichem unterschieden werden musste. Ein ganz starkes Signal, das von den meisten Tieren uns selbst eingeschlossen ausgewertet wird, ist der Geruch. Nichts geht über den Geruch einer frisch bereiteten Mahlzeit, daher gibt es auch nichts, was ihn ersetzen kann. Bei einem der Treffen in Erice, von denen ich berichtet habe, bereitete die französische Meisterköchin Anne-Marie DeGennes zwei Ratatouilles zu, von denen das eine mit frischem Thymian und Lorbeer gewürzt war, das andere mit Extrakten aus diesen Gewürzen. Das erste war ganz eindeutig besser, obwohl bei der Herstellung der Extrakte kein einziger Bestandteil der Gewürze verloren gegangen war. Der Unterschied lag vermutlich darin, dass einige Geruchskomponenten wirkungsvoller aus den -195
Krautern gelöst worden waren als andere, sodass das Gleichgewicht in der komplexen Mischung ein wenig verändert war. Viele Fragen sind noch offen, aber die Geschmacksexperten haben auch schon große Fortschritte gemacht.8 Ein Tropfen Hexanal, das frischen Früchten und Gemüsen die »grüne« Note gib t, kann auch bei gekochten Speisen diese Frische hervorzaubern. Manche mögen sich dagegen sträuben, dem Essen etwas »Chemisches« hinzuzufügen, aber die ganze Welt besteht aus Chemie, und Hexanal wird von den Pflanzen selbst erzeugt und zählt daher zu den natürlichen Bestandteilen unserer Ernährung. Warum sollte man es also nicht in reiner Form dazugeben, statt wie ein guter Koch eine Handvoll frisches Grün auf das Essen zu streuen - beispielsweise ein Püree aus frischen Spargelspitzen auf die Spargelsuppe -, um das Aroma zu verstärken? Viele Köche schwindeln auf diesem Gebiet - wenn man das als Schwindeln bezeichnen will. Am heimischen Herd geht es nicht anders zu. So gibt es den Trick, ein paar Kaffeebohnen auf die Herdplatte zu legen, die mit ihrem Duft die Instant-Brühe aufwerten. 9 Man hat sogar schon Experimente durchgeführt, bei denen Versuchspersonen, denen man die Augen verbunden hatte, heißes Wasser zu trinken bekamen, während eine Wolke von Kaffeeduft durchs Labor zog. Alle waren fest davon überzeugt, »echten« Bohnenkaffee zu trinken. Wir verbessern oft das Geschmacksspektrum eines Essens, indem wir es mit Bratensaft und Soße übergießen. Weil diese flüssig sind, geben sie ihr Aroma viel schneller ab als die von ihnen bedeckten Speisen und verhelfen damit zu einer Geschmacks- und Geruchserfahrung schon lange bevor der erste Bissen den Mund ereicht. Wir haben alle gelernt, Duft, Geschmack und Aussehen miteinander zu assoziieren, deshalb bevorzugen wir in der Heimat des Schweinebratens braune Soße. Die Verwendung von Soßen ist so selbstverständlich, dass man kaum noch Geheimnisse dabei vermutet. Das täuscht aber, -196
wie mir schnell klar wurde, als ich für eine Werbefirma die Physik der Bratensoße untersuchen sollte. Ich arbeite an solchen Projekten nur selten mit, und nur wenn ich annehmen kann, damit die öffentliche Aufmerksamkeit auf die Tatsache zu lenken, dass die Wissenschaft überall um uns herum zu Hause ist und sich nicht nur auf den medizinischen Fortschritt, die Zerstörung anderer Länder oder das Schicksal des Universums beschränkt. Das Soßenprojekt10 zog nun ganz gewiss die Aufmerksamkeit auf sich. Es ging so weit, dass ich von Marc Abrahams, der für die Verleihung des IgNobelpreises zuständig ist, eine E-Mail bekam, in der er mir die Möglichkeit eines zweiten Preises vor Augen hielt. Zu Beginn meiner Untersuchungen wollte ich nur bestimmen, wie viel Soße die verschiedenen Bestandteile eines klassischen Bratenmenüs aufnehmen können. Ich vermutete, dass Fleisch und Kartoffelbrei einiges aufsaugen würden, gebackene Kartoffeln, Erbsen und Bohnen sehr wenig. Es stellte sich heraus, dass ich völlig daneben lag. Bei meinen Experimenten half mir mein Kollege Peter Barham,11 der die Brat- und Kocharbeiten bei sich zu Hause in der Küche durchführte. Meine Frau Wendy hielt alles schriftlich fest und war Schiedsrichterin, wenn wir uns nicht einigen konnten. Unser Verfahren war einfach. Wir machten eine Liste der Bestandteile des traditionellen Bratens, wogen sie vor der Zubereitung, kochten oder brieten sie dann, wogen sie ein weiteres Mal und tunkten sie dann in die Soße, die uns die Werbeleute stellten. Dann wischten wir die überflüssige Tunke weg und wogen die vollgesogenen Teile. Glücklicherweise vermaßen wir auch die Größe der Bestandteile vor und nach der Zubereitung, womit wir einer Grundregel allen wissenschaftlichen Arbeitens folgten: Messe alles, was irgendwie wichtig sein könnte! Einige Gewichtsunterschiede betrugen nur Bruchteile eines Gramms. Es stellte sich schnell heraus, dass Barhams -197
Küchenwaage nicht genau genug war, wir besorgten uns also eine Spezialwaage, mit der sonst kleine Mengen von Chemikalien abgewogen wurden, entfernten von ihr die giftigeren Rückstände und fingen noch einmal an. Die erste Überraschung war, dass gebratenes Fleisch keine Soße aufnimmt - überhaupt keine! Die zweite Überraschung war, dass sich auch Kartoffelbrei nicht voll saugt - im Gegenteil: Er verliert an Gewicht, wenn man ihn mit Soße zusammenbringt. Es sollten noch mehr Überraschungen folgen: Erbsen und Bohnen saugen nämlich eine große Menge Soße auf. Das Gleiche gilt auch für angebratene Gemüse und Kartoffeln, bei denen es bis zu 30 Prozent ihres vorherigen Gewichts sind. Bei einigen Gemüsen, zum Beispiel bei der Pastinake,12 scheint die Soßenaufnahme davon abzuhängen, wie sie vor dem Kochen geschnitten werden. Und in einigen Fällen ist das Ergebnis davon abhängig, welches Ende man eintunkt. Wir fassten unsere Ergebnisse in einer Tabelle zusammen, der wir auch den traditionellen englischen Yorkshire Pudding hinzufügten, einen höchst porösen Teigkloß, der schier unglaubliche Mengen an Soße aufsaugt - und Brot, das ja viele Esser verwenden, um säuberlich die letzten Soßenreste aufzutunken. Popcorn war das poröseste Material, das wir uns vorstellen konnten, daher hatten wir auc h angenommen, dass es Soße am gierigsten aufsaugen würde. Es war auch so: Popcorn brachte es auf das Sechsfache des Eigengewichts. Wendy gab aber zu bedenken, dass Popcorn mit Soße grauenhaft schmeckt, und dass man ihm doch besser die mit Liebe gebackenen Yorkshire Puddings, die immerhin 90 Prozent ihres Eigengewichts aufnehmen, vorziehen sollte. Sie war ganz enttäuscht, dass wir die Puddings nach den Messungen in den Biomüll warfen. Schließlich musste mein Mitexperimentator neue backen, und das Popcorn fand keinen Eingang in unseren Abschlussbericht. Die Ergebnisse sind in Abbildung 8.1 dargestellt. -198
A BBILDUNG 8.1: Soßenaufnahme in Prozent des Gewichts nach der Zubereitung. Das Ergebnis für Bratenfleisch (keine Soßenaufnahme) ist nicht dargestellt. (Mit freundlicher Genehmigung der Redaktion von den Annuals of Improbable Research)
Wie konnte man diese Ergebnisse interpretieren? Als einfachste Erklärung konnten wir uns vorstellen, dass bei der Zubereitung der Speisen Wasser verloren geht und die entstandenen Hohlräume mit Soße aufgefüllt werden. Wir suchten nun nach einer Möglichkeit, diese Theorie zu beweisen. Da wir die Essensbestandteile vor und nach der Zubereitung gewogen hatten, konnten wir den Flüssigkeitsverlust leicht ausrechnen. Wenn er recht genau der Aufnahme von Soße entsprach, hatte unser Modell seinen Test bestanden oder wurde zumindest von den Ergebnissen sehr gut gestützt (Abbildung 8.2). Wie jeder Koch weiß, schrumpfen jedoch auch viele Essensbestandteile während der Zubereitung, womit der freigewordene Raum, den die Soße auffüllen könnte, reduziert wird. Wir mussten also noch einen Korrekturfaktor für den -199
Schrumpfungseffekt einbeziehen, den wir aus den gemessenen Größen der Teile bestimmen konnten. Nun erwies sich, wie gut es war, dass wir die entsprechenden Messungen vorgenommen hatten. Bei den meisten Speisen war die Schrumpfung gering, aber bei Fleisch schien sie fast vollständig den Wasserverlust wettzumachen, sodass für die Soße kein Platz mehr war. Damit war schon eines der Rätsel erklärt! Das andere Rätsel betraf die Bohnen und Erbsen - Gemüse, die während des Kochens nicht schrumpfen, sondern eher anschwellen. Bei genauerem Hinsehen fanden wir die Lösung: Die Außenhaut der Erbsen löst sich, und bei vielen Bohnen fällt das Innere aus der Hülse. In beiden Fällen entsteht viel Hohlraum, der sich füllt, wenn man die Gemüse eintunkt. Wieder war ein Geheimnis gelöst. Das dritte bezog sich auf den Kartoffelbrei. Diesmal gingen wir wie Hercule Poirot vor, und unsre kleinen grauen Zellen, unterstützt von einer angemessenen Menge Weins, erinnerten sich, dass in Milch zermantschte Kartoffeln ja eigentlich ziemlich gut mit Flüssigkeit gesättigt sein müssten und damit keinen weiteren Platz für Soße bieten. 13
A BBILDUNG 8.2: Soßenaufnahme in Prozent des Gewichts nach der Zubereitung. -200
Nachdem nun diese Probleme aus der Welt geschafft waren, konnten wir darangehen, für verschiedene Speisen den Flüssigkeitsverlust - um den Schrumpfungsfaktor korrigiert - mit der Soßenaufnahme zu vergleichen. Wenn unsere Theorie richtig war, müssten diese beiden Zahlen bei allen Speisen jeweils gleich sein. Wie Abbildung 8.2 zeigt, waren sie es auch mit einer Präzision, die jeden Experimentator entzücken musste. Unser Modell schien recht brauchbar zu sein, obwohl es noch Einiges gab, an dem wir uns die Zähne ausbeißen konnten. Warum brauchen beispielsweise gebackene Kartoffeln ganze zehn Minuten, um sich völlig mit Soße zu sättigen, während gebackene Pastinaken mit weniger als einer Minute auskommen? Warum nehmen Pastinaken, wenn man sie »quer« durchschneidet, nach dem Anbraten überhaupt keine Soße auf, während die längs geschnittenen auf 10 Prozent kommen? Warum nehmen angebratene Gemüse mehr Soße von der Seite her auf, die mit der Pfanne in Berührung stand? Diese Fragen waren aber für die Medien weniger interessant, die ansonsten sehr gespannt darauf waren, was die Wissenschaft über so etwas Simples wie Bratensoße zu sagen hatte, und erstaunt feststellten, dass ein Naturwissenschaftler eine »Soßengleichung« 14 aufgestellt hatte. Aber mich selbst interessierten die zusätzlichen Fragen, weil unbeantwortete Fragen Wissenschaftler immer interessieren. Der wissenschaftliche Mainstream befasste sich allerdings mit den Antworten so wenig wie mit Rumfords Beobachtungen an Apfelkuchen oder Franklins Erleuchtung, nachdem er die Wirkung des Abwassers der Schiffe auf den Wellengang beobachtet hatte. Ich konnte bestenfalls hoffen, dass meine Erkenntnisse für die Küche von Bedeutung wären - mit anderen Worten: für die Wissenschaft vom Essen. 15
-201
Der amerikanische Satiriker Ambrose Bierce definiert in seinem Werk Des Teufels Wörterbuch das Verb »essen« als »nacheinander (und mit Erfolg) die Verfahren der Nahrungszerkleinerung, -bespeichelung und - verschluckung durchführen«.16 Mit anderen Worten: Unter »essen« versteht man das Beißen und Kauen, das Vermischen der zerkauten Masse mit Speichel und das Schlucken des Resultats. Bei einer Tagung über Gastrowissenschaften wurde dieser gesamte Prozess in einem Röntgenvideo gezeigt, das sehr auf den Magen schlug: Ein schemenhafter Schädel (mit Brille) kaute rhythmisch einen Kloß aus Speisebrei und schluckte ihn schließlich hinunter (Abbildung 8.3).17 Glücklicherweise wird der Essvorgang nur wenigen von uns auf diese drastische Weise vor Augen geführt, es sei denn, unsere Mitesser essen mit offenem Mund. Wenn das Essen erst einmal im Mund verschwunden ist, zählen nur noch Geschmack und Geruch, aber nicht mehr das Aussehen des Breis. Der Produzent des Videos wollte zeigen, wie die Nahrungsaufnahme »normalerweise« vor sich geht. Eines seiner Ergebnisse war, dass wir asymmetrische Nahrungsbrocken so lange drehen, bis sie mit der längeren Seite parallel zu den Zähnen liegen, und dass sich der Brei vom linken Ende nicht mit dem vom rechten Ende vermischt. Wenn also der Geschmack an den beiden Enden verschieden ist, wie beispielsweise bei einem asymmetrisch belegten Toast mit Pastete links und Käse rechts, kommt es beim Kauen zu keiner Vermischung: Die Pastete bleibt links, der Käse rechts. Die Art und Weise, wie wir ein Gericht vorschneiden und auftragen, kann offensichtlich das geschmackliche Resultat beeinflussen - ein Punkt, dem - soweit ich weiß - bisher kaum Aufmerksamkeit gewidmet wurde. -202
A BBILDUNG 8.3: Röntgenbild eines Kopfs beim Kauen (aus einem Videofilm). (Wiedergabe mit freundlicher Erlaubnis von Jeff Palmer und Karen M. Hiimae.)
Das Kauen hat zwei wesentliche Ziele: Zunächst soll das Essen in Stücke zerlegt werden, die klein genug sind, um geschluckt werden zu können. Das zweite Ziel ist, den Geschmack, der von der Zunge registriert wird, und den Geruch, den das Innere der Nase wahrnimmt, freizusetzen. Beide Geschmack und Geruch - tragen zum sinnlichen Erlebnis bei. Beide fördern auch den Speichelfluss und machen dadurch den Speisebrei schluckbarer. Die Kräfte, die zum Zerkleinern der Nahrung von den Zähnen und der Zunge aufgebracht werden, sind sehr schwer in einem Modell darstellbar - viel schwerer als die Kräfte, die eine Rakete zum Mond befördern. Mit »Modell« meine ich hier einen Gleichungssatz, mit dem man einen Computer füttert, der den Gang der Dinge voraussagen kann - bei den Mondraketen ist das -203
schon viele Male geglückt. Der Begriff »Modell« kann auch eine ganz praktische Bedeutung haben. Die Nahrungsmittelindustrie untersucht mit einer Vielzahl real gebauter Modelle, wie wir essen. Die meisten dieser Apparaturen messen die physikalische Beschaffenheit von Nahrungsmitteln. Das reicht vom einfachen Maturo- oder Tenderometer18 für Erbsen bis zu komplizierten Geräten, die eine n kauenden Kiefer nachbilden. All diese Instrumente und Geräte sind so gut wie nutzlos, wenn es darum geht, die Beschaffenheit einer Speise oder das »Essgefühl« beim Kauen realer Speisen vorherzusagen. Physikalischmathematisch gesehen besteht das Problem darin, dass Kauen ein weitgehend »nichtlinearer« Prozess ist. Das heißt mit anderen Worten: Die Wirkung ist nicht proportional zur Ursache. Schon eine kleine Änderung der Art zu kauen kann große Auswirkungen auf das Ergebnis der Bemühungen haben. Beispielsweise kann ein Biss auf einen (nicht eingetunkten) Gingernut-Keks mit 4,99kg vergeblich sein: Der Keks bleibt ganz. Aber schon 5,00kg können genügen und das Gebäckstück in Trümmer legen. Selbst in einem Labor ist die Untersuchung nicht linearer Prozesse und vor allem die Übertragung der Ergebnisse auf reale Situationen schwierig. Das gilt insbesondere, wenn sich die Folgen eines Prozesses aufschaukeln, wie es beim Kauen der Fall ist. Das Zerkleinern der Nahrung ist dabei nur der allererste Schritt: Als Nächstes wird aus den Bruchstücken ein Kloß gebildet, bei dem man ebenfalls damit rechnen muss, dass die Scherkräfte, die von den Zähnen und der Zunge auf ihn ausgeübt werden, nichtlinear sind - der Kloß kann fester werden, wenn man ihn kaut, aber auch flüssiger. Diese Tatsache kannte schon Sir William Gladstone, der im 19. Jahrhundert viele Jahre britischer Premierminister war. Gladstone war ein sorgfältiger, geduldiger Mensch und empfahl, jeden Bissen 30mal zu kauen. Es hat sich herausgestellt, dass im -204
Verlauf von 30 Kaubewegungen der Bissen seine größte Verdichtung erreicht und damit signalisiert, dass es Zeit ist, ihn zu schlucken. Kaut man noch länger, verliert er wieder an Zusammenhalt und zerfällt schließlich. Ein weiteres Problem bei der Analyse des Bissens ist der Speichel, der dazu beiträgt, dass man harte Nahrungsbestandteile leichter zerkleinern kann. Denselben Effekt haben Soßen, weil Flüssigkeiten Risse in festen Oberflächen ausweiten und zuvor spröde Teile leichter zu biegen und zu brechen erlauben. Insgesamt gesehen wissen wir weit weniger über die Vorgänge beim Kauen als über das Geschehen im Inneren von Sternen. Immerhin wissen wir Eines: Kauen dient nicht nur dazu, die Nahrung zu zerkleinern, sondern auch dazu, den Geschmack freizusetzen. Auf diesem Gebiet werden derzeit große Fortschritte gemacht, insbesondere weiß man schon viel über das, was passiert, wenn die Geschmacks- und Duftmoleküle Zunge und Nase erreichen.
-205
Die Moleküle, die während des Kauprozesses aus dem Bissen freigesetzt werden, lösen drei Wahrnehmungen aus: Geschmack, Geruch und - überraschenderweise - Schmerz. Die Geschmackswahrnehmung findet ziemlich eindeutig auf Zunge und Gaumen statt, die fünf Grundarten von Geschmack unterscheiden können: bitter, süß, salzig, sauer und »umami«, was man mit »fleisch- oder fleischbrühenartig« umschreiben kann. Als bitter empfindet man einen Geschmack, weil sich die Moleküle, die ihn erzeugen, an bestimmte Proteine binden, die Rezeptoren genannt werden und in der Zellmembran der Geschmackszellen sitzen. 30 bis 80 Geschmackszellen sind zu Geschmacksknospen angeordnet, die wiederum in Gruppen von 3 bis 15 zusammenstehen und die kleinen, sichtbaren Papillen bilden. Wenn sich ein Molekül an einen Rezeptor bindet - oft, weil das Molekül seiner Form wegen wie ein Schlüssel ins Schloss passt -, sendet das Rezeptorprotein von diesem Ereignis eine chemische Botschaft in das Zellinnere. Von dort geht wiederum ein elektrisches Signal zum Gehirn, das »Oh! Bitter!« registriert. Bitterer Geschmack soll uns vor bestimmten Speisen warnen, da diese oft giftig sind - bittere Mandeln enthalten beispielsweise Spuren von Amygdalin, durch dessen Abbau Blausäure entstehen kann. Andererseits ist es überraschend, dass einige unserer Lieblingsspeisen wie Bier und Schokolade ihre Beliebtheit dem Bittersein verdanken. Es gibt dafür keine richtige Erklärung, es ist aber bemerkenswert, dass die meisten der begehrten bitteren Nahrungsmittel eine pharmakologische Wirkung haben. Für die Geschmacksrichtung »bitter« gibt es etwa fünfzig verschiedene Rezeptoren. Fehlt einer dieser Rezeptoren, wird die Person »blind« gegenüber diesem -206
Bestandteil von »bitter«. Etwa ein Viertel der Menschheit ist aus genetischen Gründen gegenüber dem Bitterstoff Phenylthiocarbamid - kurz PTC - »blind«, den die anderen drei Viertel als unglaublich bitter empfinden. Ein anderes Viertel der Bevölkerung (meist Frauen) scheint »bitter« schon in feinsten Spuren wahrzunehmen. Bei diesen Menschen sind die Papillen in engen Clustern angeordnet und von einer einzigartigen Ringstruktur umgeben, deren Funktion unbekannt ist. Die Geschmacksknospen für »bitter« sind über die ganze Zunge verteilt, aber im hinteren Teil stärker konzentriert. Die Geschmacksknospen, die auf süß« reagieren, liegen dagegen vorwiegend nahe der Zungenspitze, was nicht weiter überraschend ist, weil dieser Teil der Zunge zuerst mit der Lactose der Muttermilch in Berührung kommt, einer der süßesten Zuckerarten. 19 »Süß-Blindheit« ist fast unbekannt, vielleicht weil es überlebenswichtig ist, Süße wahrzunehmen. Ein weiterer Geschmack, der auf Rezeptoren beruht, ist der umstrittene Umami-Geschmack, der als fleisch- oder fleischbrühenartig beschrieben wird und beim Essen einen letzten Kick erzeugt. Er wird durch Mononatriumglutamat (oder kurz Natriumglutamat, auf der Speisekarte steht es als E 621) ausgelöst, das der »Chinese« um die Ecke als Geschmacksverstärker in seine Gerichte mischt. Glutamat kommt in vielen Nahrungsmitteln - beispielsweise Tomaten und Parmesan - von Natur aus vor. Im Parmesan besteht es aus sichtbaren weißen Kristallen, die man mit Wasser auswaschen kann - der so behandelte Käse schmeckt fad.20 »Umami« wird von den anderen Geschmacksarten unterschieden, weil man auf der Zunge spezielle Rezeptoren für Glutamat entdeckt hat. Man ist sich aber noch keineswegs einig, ob das genannte Mononatriumglutamat oder andere Stoffe, die auch an diesen Rezeptoren andocken, für sich einen eigenen »Geschmack« haben. Vielleicht ist auch der Versuch, das Phänomen zu erklären, Geschmackssache. Auf die beiden anderen -207
Geschmacksarten - »salzig« und »sauer« - sprechen andere Rezeptoren an, die auf der gesamten Zunge verteilt sind. Die verschiedenen Geschmacksrichtungen können sich untereinander auf überraschende Weise beeinflussen. Einen dieser Effekte löst die berühmte Prise Salz in süßen Gerichten aus: Sie verstärkt die Wirkung, weswegen ein wenig Salz zu allen Rezepten für Butterkekse gehört. Salz kann auch auf die Bitterkeit Einfluss nehmen. Ich habe einmal an einer Weinprobe teilgenommen, bei der wir gebeten wurden, die Bitterkeit durch das Tannin im Rotwein abzuschätzen. Wir bekamen dann salzige Chips zu essen und sollten danach in einem zweiten Durchgang den Test wiederholen. Die Bitterkeit des Weins war eindeutig reduziert, was wohl mit ein Grund ist, dass man zu Rotwein gern »pikante« Häppchen reicht. Bittere Speisen können die entsprechenden Rezeptoren so sehr betäuben, dass sie später nicht mehr auf Bitterkeit ansprechen. Erfahrene Küchenchefs vermeiden daher entsprechende Speisefolgen. Trinkt man beispielsweise Tonic und isst danach ein Stück Bitterschokolade, so hat man den Eindruck, der Mund sei mit einer Masse angefüllt, die nach Wachs schmeckt und sich auch so anfühlt. Es gibt auch nachgewiesene Beziehungen zwischen der Vorliebe für Süßes und der Neigung zu Alkohol. Beide Stoffe scheinen die gleichen Reizleitungen zum Gehirn zu aktivieren. Umgekehrt kann auch die Abneigung gegen Süßigkeiten mit der Ablehnung von Alkohol Hand in Hand gehen - wobei man, soweit ich weiß, diesen Effekt nur bei Mäusen festgestellt hat. Ist die Entstehung der Geschmacksempfindung schon kompliziert genug, so gilt dies noch mehr für die Wahrnehmung von Gerüchen, bei denen an die 3 000 verschiedene Rezeptoren zu berücksichtigen sind. 2 000 der Rezeptoren sind beim Menschen aktiv, die meisten von ihnen sind bei allen vorhanden, aber die genauen Kombinationen sind bei jedem Menschen verschieden. Selbst bei den wenigen Gerüchen, die bis jetzt -208
genauer untersucht wurden, gibt es welche, die nur von 10 Prozent der Menschen wahrgenommen werden können, während es andere gibt, für die 99 Prozent der Bevölkerung die entscheidenden Rezeptoren haben. Etwa 20, 30 Gerüche liegen zwischen diesen beiden Extremen. Daraus kann man schließen, dass jeder vo n uns ein wenig (oder vielleicht auch sehr) unterschiedliche Empfindungen hat, wenn er den Duft eines Bratens riecht. Ein schönes Beispiel dafür ist der berühmte Trüffel, den Rossini als den »Mozart der Pilze« bezeichnet hat. 40 Prozent der Bevölkerung sind für den typischen Trüffelgeruch blind und taub, von dem die Gourmets so begeistert sind. Dazu kommt, dass bei denen, die den Geruch wahrnehmen können, die Empfindung von »sinnlicher Erregung« bis zu völliger Ablehnung reicht.21 Der Geruch ist meist für die sinnliche Gesamtwahrnehmung eines Essens entscheidender als der Geschmack. Das können Sie selbst feststellen, indem Sie einen Apfel und eine Zwiebel in gleich große Würfel zerschneiden und jemanden bitten, Ihnen die Stücke in zufälliger Reihenfolge in den Mund zu stecken, während Sie sich die Nase zuhalten und die Augen schließen. Ohne den Geruch und den Anblick kann fast niemand Apfel und Zwiebel auseinander halten, obwohl ihre Beschaffenheit ziemlich unterschiedlich ist. Auch über den Geruch allein kann man nicht immer zwischen zwei verschiedenen Nahrungsmitteln unterscheiden - Beispiele dafür sind Schweizer Käse und Honig. Ein Geruch kann uns auf zweierlei Weise erreichen. Die erste Möglichkeit ist, dass er von außen kommt - beispielsweise, wenn wir zum ersten Mal den Braten riechen. Im zweiten Fall erreichen die Geruchsstoffe, die Nase vom Rachenraum her, nachdem wir den Bissen schon im Mund haben. Gerüche, die von außen kommen, sind weit wirkungsvoller, wenn wir schnuppern, aber erst vor kurzem hat ein Wissenschaftlerteam unter Andy Taylor von der University of Nottingham herausgefunden, warum das so ist: Durch das Schnuppern -209
werden nicht etwa mehr Geruchsstoffe aufgenommen, sie streichen vielmehr mit schneller wechselnder Intensität an den Rezeptoren vorbei. Eine intensive Geruchswahrnehmung wird weniger durch die Konzentration des Duftstoffes als durch deren starke Änderung bewirkt. Derselbe Effekt stellt sich auch beim Riechen aus dem Rachenraum ein. Dieser Vorgang konnte nur durch eine raffinierte technologische Apparatur enthüllt werden, die Taylor und seine Mitarbeiter entwickelt und »MSNose«22 oder - etwas mehr spacey - »NoseSpace« genannt haben. Mit ihr kann man die Düfte analysieren, die während des Kauens den Nasenraum vom Rachen her erreichen und ihre Konzentration in Echtzeit messen (Abbildung 8.4). Dazu wird - ganz schmerzfrei - ein Tubus in die Nase eingeführt, der bei jedem Atemzug Proben nimmt. Das sind nicht gerade ideale Bedingungen für ein kulinarisches Vergnügen, aber für wissenschaftliche Zwecke lohnt sich die Mühe. Bei der Untersuchung der Auswirkung des Eintunkens auf die Freisetzung von Geruchsund Geschmacksstoffen bei Keksen hat mir das Gerät beispielsweise nützliche Dienste geleistet. Es handelte sich dabei um ein Projekt, das ich im Anschluss an die Eintunkuntersuchung durchführen konnte. Wir wollten die Hypothese testen, nach der das Eintunken den Geschmack des Kekses verbessert, weil die Flüssigkeit in der Lage ist, Geruchsstoffe aus dem festen Geäst des Kekses herauszulösen. Wir nahmen an, dass heißer Tee die beste Wirkung hätte, weil er die flüchtigen aromatischen Stoffe freisetzen würde. Der Vollständigkeit halber testeten wir aber auch kalten Tee, heißen und kalten Kakao, heiße und kalte Milch und sogar Orangensaft. Wie sich herausstellte, war es eine gute Idee, so viele Getränke mit einzubeziehen. Rob Linforth, der mir beim Einsatz der MSNose half, war gerade ohne Arbeit gewesen, als er per Zufall auf das Team von Taylor traf. Er wurde eingestellt und war nun für die Technik zuständig. Linforth fiel durch seinen gewaltigen, ellenlangen -210
roten Bart auf, der symmetrisch geteilt war, damit man sehen konnte, dass er höchst selten eine Krawatte trug. Zur Freude der Werbeleute, die das Projekt unterstützten, war er äußerst fotogen. Linforth selbst war der Einzige, der anderer Meinung war: Seine Fähigkeiten als Wissenschaftler wurden nur von seiner Abneigung gegen Kameras übertroffen, insbesondere wenn sie den reibungslosen Ablauf im Labor durcheinander brachten.
A BBILDUNG 8.4: MSNose. Moleküle von Geruchsstoffen erreichen die Riechschleimhaut, wo die Geruchsempfindung stattfindet, aus dem hinteren Rachenraum. Die MSNose nimmt von jedem Atemzug Proben und analysiert die Geruchsmoleküle, die im hinteren Teil des Nasenraums angekommen sind.
Es gab nur wenig Gelegenheit, die MSNose zwischen den »ernsthaften« wissenschaftlichen Untersuchungen zu nutzen, aber durch Linforths Geschick hatten wir Erfolg: Ein Experiment, für das wir Wochen angesetzt hatten, erledigten wir an einem einzigen Tag wenn auch etwas abgespeckt. Linforth opferte uns diesen Tag, wobei ich der Meinung bin, dass mein Opfer mindestens ebenso groß war: Immerhin hatte ich 140 Kekse eingetunkt und gegessen und dabei einen Tubus aus rostfreiem Stahl in der Nase. Ich kaute gena u nach Vorschrift, -211
während mein Kollege diverse Knöpfe drückte, die Messungen registrierte und sie analysierte. Die Ergebnisse waren höchst überraschend. Es zeigte sich, dass heißer Tee auf die Konzentration der aus dem Keks befreiten Geruchsmoleküle und den Anteil, der den Nasenhintergrund erreicht, keinen Einfluss hat. Wir fanden später den Grund heraus: Die Geruchsmoleküle werden sofort die Kehle hinuntergespült, bevor sie auch nur eine Chance haben, in die Nase zu gelangen. Die Getränke, die bessere Wirkung zeigen, sind kalte Milch und in noch stärkerem Maße kalter Kakao. Im Nachhinein war es leicht, eine Erklärung zu finden: Die meisten Geruchsmoleküle lösen sich leicht in Fett und öl, aber nicht in Wasser - wie der schon erwähnte oft fade Geschmack fettfreier Gerichte zeigt. Milch enthält Fettkügelchen, die aus dem Keks Aromastoffe absorbieren, die Zunge bedecken und lange in der Mundhöhle bleiben, während man den Keks isst. Diese Fettkügelchen geben nun langsam die absorbierten Duftstoffe ab, selbst wenn der eigentliche Keks schon längst in der Kehle verschwunden ist. Aus Milch gekochter Kakao ist nach dieser Theorie noch effektiver, da er fettreiche Körnchen aus Kakaomasse enthält, die ebenfalls Geruchsstoffe aus dem Keks absorbieren. Auch diese Körnchen bleiben in der Mundhöhle kleben, wovon man sich leicht durch den Blick in den Mund eines Kindes überzeugen kann, das gerade mit Kakao abgefüllt worden ist. Leider konnten wir dieser Hypothese nicht weiter nachgehen, weil unser Testgerät wieder für andere Arbeiten gebraucht wurde. Aber auf jeden Fall schienen die Ergebnisse Sinn zu machen. Die Medien stürzten sich förmlich auf uns und wollten Fotos schießen sehr zum Missfallen Linforths. Einer dieser Berichte es war eine Live-Sendung für das Frühstücksfernsehen von CBS - zeigte ganz nebenbei, wie global Wissenschaft heutzutage betrieben wird: Der Kollege vom Nachbarlabor erzählte, er habe mich am Morgen zuvor in -212
seinem New Yorker Hotelzimmer vom Bett aus gesehen. Mit der MSNose konnten wir unerwartete Einzelheiten aufdecken, was die Wahrnehmung und Interpretation von Geruchsstoffen betrifft. Es stellte sich zum Beispiel heraus, dass viele der Geruchsstoffe, die wir beim Essen einer Tomate wahrnehmen, erst erzeugt werden, wenn die Tomate zerschnitten oder zerbissen wird. Dabei werden Zellen zerstört, die Zellinhalte vermischen sich, reagieren chemisch miteinander und bilden Moleküle, die in der unberührten Tomate noch gar nicht vorhanden sind. Ein weiterer Erfolg der MSNose betrifft die Auswirkungen der Süße auf die Wahrnehmung von Pfefferminzgeschmack. Wohl jeder hat schon einmal festgestellt, dass Pfefferminzkaugummi im Laufe des Kauens langsam seinen Geschmack verliert. Professionelle Kauer wissen, dass man den Geschmack auffrischen kann, indem man einen Schluck eines süßen Getränks zu sich nimmt. Die Experimente mit der MSNose haben gezeigt, dass die Konzentration von Minzaroma in der Nase während des gesamten Kauvorgangs konstant bleibt. Es scheint, dass die Nase sich mehr und mehr an die Gegenwart des Minzaromas gewöhnt und immer weniger darauf reagiert. Zucker wirkt zwar nicht direkt auf die Nase, regt aber das Gehirn an, wieder auf die Signale zu achten, die immer noch Minzaroma aus dem Nasenraum nach »oben« melden: ein besonders deutliches Beispiel fü r die Wirkung einer Sinneswahrnehmung auf eine andere! Es gibt noch weitere Beispiele. So kann Menthol, ein aktiver Bestandteil vieler Minzbonbons, unsere Wahrnehmung von warm und kalt beeinflussen. Warmes Wasser, in dem Menthol gelöst ist, fühlt sich im Mund wärmer an als reines Wasser derselben Temperatur, kaltes Wasser mit Menthol dagegen kälter.23 Einige »reine« Geruchsstoffe wie das Pinen (Fichtennadelgeruch) und das Cadinen (im Wacholder, einem wichtigen Bestandteil von Gin) können sogar Schmerz -213
verursachen. Sie wirken auf den Trigeminus-Nerv, der auch schmerzt, wenn die Nebenhöhlen verstopft sind. Wenn wir Pinene, Cadinene oder kleine Mengen bestimmter anderer Gerüche einatmen, wird der Trigeminus aktiviert. Wie genaue Experimente gezeigt haben, kann man merkwürdigerweise bei diesem Effekt nicht lokalisieren, durch welches Nasenloch der Geruchsstoff kommt. Es ist weniger schwer herauszufinden, von wo der Schmerz auf der Zunge herkommt, wenn wir Chilischoten essen. Die Schärfe der Chilis kommt von einer Familie geschmack- und geruchloser chemischer Bestandteile, die Capsaicinoide24 genannt werden und in den Bereichen der Schote enthalten sind, wo die Samen produziert werden. Diese Moleküle docken in Mundhöhle, Nase, Kehle und Magen sehr fest an die Oberfläche der Zellen des Trigeminus an, dessen Aufgabe normalerweise darin besteht, das Gehirn durch das Anzeigen von Schmerz vor Verletzungen zu warnen. Die angedockten CapsaicinoidMoleküle bringen nun die Zellen dazu, eine Warnmeldung abzuschicken, selbst wenn überhaupt nichts verletzt ist. Genau darauf wartet der Chilisüchtige. Einer noch nicht bewiesenen Theorie nach reagiert das Gehirn auf die Warnung mit der Ausschüttung von Endorphinen, die natürliche Antischmerzmittel sind und als »Glückshormone« ein Gefühl von Euphorie und Schmerzlosigkeit hervorrufen - derselbe Prozess, der bei einem Rennläufer das runner's high, den ultimativen Höhepunkt, hervorruft. Eine andere Theorie, die ebenso wenig bewiesen ist, beschreibt die magische Anziehung von Chili als gutartige Form von Masochismus. Danach hätte der Chiligenuss etwas von dem Nervenkitzel einer Achterbahnfahrt, wo man das Gefühl von Angst durchleben kann, dabei aber sicher ist, dass man bestens aufgehoben ist und am Ende alles gut wird.
-214
Ein Molekül kann seine Wirkung - sei es nun Geschmack, Geruch oder Schmerz - nur entfalten, wenn es aus der Speise entkommt und die Rezeptoren oder andere Andockplätze in Mund und Nase erreicht. Wie läuft dieser Prozess ab? Diese Frage ist ganz offensichtlich für die Gastronomie von größter Bedeutung. Ich hatte sie mir als Hauptthema meines Vortrags in Philadelphia ausgesucht, aber erstaunlicherweise wurde sie noch nicht so oft gestellt. Als ich dazu etwas in der Literatur suchte, stellte sich heraus, dass die wenigen Hypothesen experimentelle Tests nicht bestehen konnten. Man nahm allgemein an, dass die Geschmacks- und Geruchsmoleküle aus dem Speisekloß austreten und dann von Luftströmen, wie sie durch die Atmung entstehen, von rückwärts in die Nasenhöhle getragen werden. Das Problem bei dieser Vorstellung schien mir zu sein, dass der Speisekloß in der Regel eine ziemlich wässrige Angelegenheit ist, während die fraglichen Moleküle meist nur in Ölen oder Fetten gelöst sind, die in Tröpfchen- oder Teilchenform in ihm verteilt sind. Ich wies meine Zuhörer darauf hin, dass die Moleküle damit vor zwei Problemen stehen: zum einen, an die Tröpfchenoberfläche zu gelangen, und zum ändern, durch die Wasserbarriere hindurch die freie Luft über dem Speisekloß zu erreic hen. Über das erste Problem hatte ich bereits einige Informationen durch Experimente, die ich zusammen mit Fritz Blank in Erice durchgeführt hatte. Wir hatten dort versucht, auf zwei unterschiedliche Weisen Majonäse herzustellen: Einmal hatten wir sie sanft gerührt - das andere Mal heftig geschlagen, um möglichst winzige Öltröpfchen zu erhalten. Der Geschmack der zweiten Majonäse kam bei den Testessern weit besser an. Der Grund war einmal, dass die Tröpfchen kleiner waren, und daher -215
die Moleküle weniger Zeit benötigten, um an deren Oberfläche zu gelangen, zum anderen war die Gesamtoberfläche der Tröpfchen, durch die Moleküle ins Freie entkommen konnten, weit größer. Wenn ich an das Experiment in Erice denke, hatte William Gladstone mit seiner Regel, jeden Bissen 30mal zu kauen, wahrscheinlich genau das Richtige erraten. Durch das Kauen werden die öligen Bestandteile im Nahrungsbrei in immer winzigere Tröpfchen zerkleinert, wodurch den Geschmacksstoffen das Entkommen erleichtert wird. Es bleibt noch genügend für sie zu tun: Sie müssen den weiten Weg durch ausgedehnte Wassermengen bewältigen. Mir war nicht klar, wie ihnen das gelingt, bis ich mich an einige Versuche erinnerte, die ich Jahre zuvor in einem ganz anderen Zusammenhang gemacht hatte. Damals ging es um das Herauswaschen von Mineralien im Bergbau, wobei zunächst das Gestein zerkleinert und in einen Bottich mit Wasser und Seife gegeben wird. Dann erzeugt man Schaum, dessen Blasen die erwünschten Mineralpartikel aufnehmen und an die Oberfläche des Behälters tragen, während unerwünschte Stoffe, wie beispielsweise Quarz, zurückbleiben. Ich sollte damals herausfinden, warum die Stoffe so unterschiedlich auf die Seifenblasen reagieren. Es stellte sich heraus, dass die Oberflächen der begehrten Mineralstückchen wie Öl Wasser abstießen, also hydrophob waren. Wenn nun eine Blase herankam, brach der Wasserfilm zwischen ihr und dem Teilchen bei einer Dicke von ungefähr l ì m zusammen, und die Blase konnte sich auf der festen Oberfläche festsetzen. 25 Könnte der Wasserfilm, der ein Öltröpfchen des Speisebreis von der Luft abschneidet, in gleicher Weise zerreißen, wenn es bis auf einen Mikrometer an die Oberfläche kommt? Wäre dann das Tröpfchen samt seinem Gepäck, den Duftmolekülen, in die Freiheit entlassen? Mit diesen dramatischen Fragen wandte ich mich an meine Zuhörer. Der Wasserfilm besteht natürlich nicht nur aus Wasser: Er ist -216
voller Salze, Proteine und Kohlehydrate aus den Speisen und voller Kohlehydrate aus dem Speichel. Die Anwesenheit dieser Stoffe hat sicher Einfluss darauf, ob der Wasserfilm reißt oder nicht. Aber niemand weiß es - nicht zuletzt, weil es, soweit mir bekannt ist, noch niemand untersucht hat. Ich spekulierte dann vor meinem Publikum, von dem ein Teil noch aß, dass die Geruchsstoffe in Klumpen freiwerden, also jeweils der Inhalt ganzer Tröpfchen, wenn diese nahe genug an die Oberfläche des Bissens geraten und der Wasserfilm zerreißt (Abbildung 8.5). Duftmoleküle können dann sehr schnell aus den Tröpfchen diffundieren und sorgen für eine regelrechte Duftlawine in der Nase - nach Taylor und seinem Team genau das, was den vollen Effekt erzielt. Als ich diese Hypothese vorstellte, fingen die noch Essenden an, immer heftiger zu kauen. Gary Beauchamp, der mich eingeladen hatte, wies nach meinem Vortrag darauf hin, dass der von mir vorgetragene Mechanismus neue Möglichkeiten eröffnet. So könnte es schließlich sein, dass nicht die herausdiffundierten Moleküle, sondern die Tröpfchen selbst vom Atemstrom in den Nasenraum getragen werden und dort als ein Aerosol ankommen. 26 Sie würden dann nicht nur die flüchtigen sondern auch die nicht flüchtigen Bestandteile mitbringen, die ansonsten die Nase gar nicht erreichen könnten, aber auf diese Weise mit zur Gesamtempfindung des Geschmacks beitragen. Ein Modell wie das soeben vorgestellte stellt nur einen ersten Schritt im wissenschaftlichen Arbeitsprozess dar. Das Bild, das es wiedergibt, sieht überzeugend aus, aber es gab schon viele Modelle, die noch weit plausibler waren und sich später als falsch herausstellten. Das reicht von Aristoteles' Annahme, dass sich Objekte nur bewegen, wenn sie von einer Kraft gezogen oder geschoben werden, bis zu der erwähnten Vorstellung, ein Atom hätte die Struktur eines Plumpuddings. An all diese Modelle hat man seinerzeit geglaubt, weil man mit ihnen viele Beobachtungen einleuchtend erklären konnte, bis dann weitere -217
Versuche schließlich bewiesen, dass sie falsch waren.
A BBILDUNG 8.5: Freisetzung von Geruchs- und Geschmacksmolekülen aus dem Speisekloß.
Vieles an spekulativer Wissenschaft, wie sie uns heute in den Medien dargeboten wird, besteht aus nichts als Modellvorstellungen, die einen bestimmten Teil der bekannten Fakten »erklären«. Keine angesehene wissenschaftliche Zeitschrift würde diese Modelle veröffentlichen, bevor der Autor sich nicht bemüht hätte, sie zu überprüfen - in der Regel durch Vergleich der Modellvorhersagen mit der Wirklichkeit. Menschen, die nicht in der Forschung zu Hause sind, denken oft, dass Modelle wie das Lichtmodell, das Einstein in seiner Speziellen Relativitätstheorie präsentiert hat, das letzte Ziel der Wissenschaft und der höchste Ausdruck wissenschaftlichen Denkens sind. Um ein Modell aufzustellen, ist in der Regel aber nicht der große Wurf eines Genies nötig - es genügt ein wenig Vorstellungskraft. Sie kann aus früheren Erfahrungen gespeist -218
werden, aus der Einsicht in die Dinge, ja selbst aus Erinnerungen an einen Traum. In einigen wenigen Fällen mag ein Modell auch wirklich Ausdruck von Genialität sein. Wie dem auch sei: Der wahre Wert eines Modells erweist sich immer erst, wenn es harte Tests durchlaufen hat. Ohne diese Überprüfung ist es wertlos, so überzeugend und plausibel es auch seinem Erfinder und anderen erscheinen mag. Auch die Relativitätstheorie wäre wertlos, wenn sich nicht im Laufe der Zeit ihre Vorhersagen als richtig erwiesen hätten. Auf einem viel niedrigeren Niveau gilt das auch für meine Vorstellung von der Freisetzung der Geruchsstoffe: Sie ist nur dann von Wert, wenn sie sich im Experiment als richtig herausstellt. Ich hätte beispielsweise den Speisekloß umrühren und im Raum um ihn herum nach einem Aerosol von Öltröpfchen suchen können, um mein Modell der Freisetzung von Geruchsstoffen zu testen. Ich hätte auch einen Luftstrom über dem gekneteten Bissen von der MSNose aufsaugen lassen können, um dann zu untersuchen, ob die Geruchsstoffe als Welle ankommen. Leider habe ich bis jetzt weder das eine noch das andere getan, und ohne eine solche Bewährungsprobe blieb mein Modell was es war: eben nur ein Modell. Nachdem ich auch nicht dazu gekommen war, meine Theorie weiter auszufeilen und zu veröffentlichen, war es kein Wunder, dass ich sechs Monate später, als ich ihre Grundzüge auf einer Konferenz über Ernährung vorstellte, prompt - wenn auch nicht ganz ernst gemeint - angegriffen wurde. Man hielt mir vor, ich hätte bei einem der anderen Teilnehmer »abgeschrieben«, der, wie sich herausstellte, ganz ähnliche Vorstellungen völlig unabhängig von mir entwickelt hatte. So etwas passiert in der Wissenschaft häufig, weshalb auch eine »lineare« Geschichte des Fortschritts, bei der eine Entdeckung zur nächsten führt, irreführend ist. In jede Entdeckung ist eine große Anzahl Wissenschaftler verwickelt, und den meisten Mitgliedern der scientific community ist - zumindest auf einer unterschwelligen -219
Ebene - klar, welche großen Fragen zur Diskussion stehen, und sie werden ihre Gedanken darauf verschwenden, wie die Antworten aussehen könnten. Meine Vorstellung von der Freisetzung der Geruchsstoffe habe ich nun zur öffentlichen Diskussion freigegeben - wie es mit jeder wissenschaftlichen Erkenntnis geschehen sollte. Man kann nun nach Belieben über sie verfügen, kann über sie nachdenken, sie testen, sie auseinander nehmen und sie als Ansatz hernehmen, um darauf weitere Arbeiten aufzubauen. Ob ich das eine oder andere davon selbst machen werde, hängt - wie der Mord in einem Krimi - vom Motiv und von der Gelegenheit ab. Selbst wenn sich das Modell als richtig erweist, ist es vielleicht im Gesamtrahmen der Gastronomie zu unwichtig. Wie die Anordnung der Mahlzeit auf dem Teller ist das Modell nur der erste Schritt: Jetzt muss gekaut, geschluckt und verdaut werden.
-220
Als ich einmal gebeten wurde, vor einer Fachgruppe von Schülern über ein naturwissenschaftliches Thema meiner Wahl zu reden, schlug ich »Sex und Physik«1 vor, worüber ich gerade einen Artikel geschrieben hatte.2 Ich war dann doch etwas erstaunt, als der Organisator der Fachgruppe ja sagte. Es stellte sich später heraus, dass mehr Zuhörer zu der Veranstaltung gekommen waren als je zuvor und dass es mehr Lehrer als Schüler waren. 3 Selbst die älteren Schüler hatten nur erstaunlich vage Vorstellungen von den physikalischen Aspekten sexueller Betätigungen. Der Höhepunkt war für mich, als gegen Ende meines Vortrags ein ernst schauender Jüngling eine »sehr private« Frage stellte: »Stimmt es«, hauchte er verschwörerisch, »dass es ›Peng‹ macht, wenn das Mädchen noch Jungfrau ist?« Ich weiß nicht, wie er zu dieser seltsamen Vermutung kam, aber das war schließlich noch harmlos. Andere Formen von Un und Halbwissen unter Teenagern können schwerwiegendere Folgen haben. Eine Untersuchung britischer Allgemeinärzte vom April 2001 zeigte, dass Jugendliche ernsthaft glauben, man könne die Spermien abtöten, indem man vor dem Liebesakt eine Armbanduhr mit »radioaktivem« Ziffernblatt über den Penis schnallt. Wieder andere Teenies glauben, dass man eine Schwangerschaft verhindert, indem man sich während des Verkehrs auf ein Telefonbuch stellt, weil dann auf irgendeine Weise die Schwerkraft auf die Spermien wirkt.4 Dieser Glaube geht im Übrigen bis auf den Vorsokratiker Parmenides zurück, der annahm, dass das Geschlecht eines Kindes davon abhängt, an welcher Stelle der Gebärmutter es empfangen wird: »Auf der -221
rechten Seite die Knaben, auf der linken die Mädchen.« Wenn ein Knabe erwünscht war, sollte sich demnach die Frau beim Zeugungsakt auf die rechte Seite legen, damit die Spermien an den richtigen Platz gelangten. 5 Dieser Irrglaube wurde auch in einem seltsamen Machwerk für Hebammen mit dem Titel Aristotle's Complete Masterpiece verbreitet, das eine Mischung aus Wahrheiten und Lügen darstellt und im 17. Jahrhundert erschien. 6 Es war in der englisch sprechenden Welt bis zum Ende des 19. Jahrhunderts die am weitesten verbreitete Informationsquelle. Man weiß nicht viel über die Entstehung dieses Werks, auf jeden Fall geht nur sehr wenig auf Aristoteles zurück. Lange Zeit stand es in England seiner drastischen Abbildungen wegen auf dem Index. Als ich mir ein antiquarisches Exemplar kaufte, fand ich zwischen den Seiten einen Zeitungsausschnitt aus den 1930er Jahren, auf dem ein Leser fragte: »Wo kann ich Aristotle's Complete Masterpiece kaufen und was könnte es kosten?« Die Antwort war ein Musterbeispiel an Pragmatismus: »Aristotle's Complete Masterpiece kann man nirgends kaufen. Es dürfte 3 sh. 6 p. kosten«. Sexualität und alles, was damit zu tun hat, gilt selbst heute noch unter Naturwissenschaftlern als ein etwas dubioses Thema, sofern es nicht im strikt medizinischen Sinne behandelt wird. Mir wurde das klar, als ich zu einem Vortrag bei einer naturwissenschaftlichen Gesellschaft eingeladen wurde und wieder das Thema »Sex und Physik« wählte.7 Die meisten Zuhörer schienen sich über meinen Vortrag zu freuen, aber einer der leitenden Herrn der Gesellschaft saß mit finsterer Miene im Auditorium und zeigte wachsende Missbilligung. Es stellte sich heraus, dass er den Titel meines Vortrags, den ich ihm durchgegeben hatte, gründlich missverstanden hatte: Er meinte, ich wolle über die Rolle der Frauen in der Physik sprechen. Ich hatte mich hingegen mit den physikalischen Problemen befasst, die Spermien bei der Hetzjagd auf die Eizelle zu bewältigen -222
haben: tauchen, durch Tunnel schlüpfe n, surfen und sogar synchronschwimmen. In jeder Phase - vom raketengetriebenen Start bis zum Elektrozaun, der sie vor dem Ziel erwartet - ist das Rennen der Samenzellen ein Musterbeispiel dafür, wie sehr die Physik mit unserer Realität zu tun hat. Gewinner ist, wer die Physik mit der größten Meisterschaft beherrscht. Die Chancen für eine einzelne Samenzelle, die Siegespalme zu gewinnen, sind nicht viel größer, als den Jackpot im Lotto einzusacken aber der Gewinn ist unermesslich: das Leben selbst.
-223
Säugetiere wie der Mensch schießen die Spermatozoen wie eine Rakete von einer Startrampe auf den ersten Abschnitt ihrer Reise. Ein Mensch mit durchschnittlichem Sachverstand glaubt, dass die Startrampe aufgerichtet und steif sein muss, damit sie ihre Funktion erfüllen kann, aber es gibt immer jemand, der meint, anders sein zu müssen. Ein solcher Rebell, ein Vorläufer der heutigen sanften New-Age-Männer, war ein exzentrischer Australier, der in den 1930ern beschloss, dass eine Erektion eine unnötige Kraftanstrengung sei, wenn es darum geht, die Spermien ins Innere der Partnerin zu befördern. Männer mit Feingefühl sollten sich darauf beschränken, der Frau zu erlauben, das schlaffe Glied in sich hineinzuziehen. Es genügte ihm nicht, diese verdienstvolle Technik in seinem ganz privaten Bereich zu praktizieren, er bestand vielmehr darauf, sie jeden Sonntag öffentlich in der Sydney Domain - dem Gegenstück zum Londoner Speaker's Corner - zu propagieren. Bei dem prüden Klima, das damals herrschte, war das nichts weniger als pornographisch. So wurde der arme Mann prompt an jedem Wochenende abgeführt und eingesperrt, am Montag bestraft und dann wieder freigelassen, um es am nächsten Sonntag aufs Neue zu versuchen. Vielleicht waren die Polizisten, die ihn festnahmen, darüber erschrocken, was passieren könnte, wenn ihren Frauen Derartiges zu Ohren käme und sie die Botschaft ernst nähmen. Wie dem auch sei: Die Argumente dieses Mannes sind in Vergessenheit geraten und die Startrampe wird wie eh und je ausgefahren und in aufgerichtetem, steifem Zustand benützt. Die Erektion gehört - physikalisch gesehen - zur Hydrostatik, einem Zweig der Physik, der sich mit dem Druck von Flüssigkeiten und dem Einsatz dieses Drucks an der richtigen -224
Stelle befasst. In diesem Fall geht es um den Blutdruck, der vom Herzen erzeugt wird, um das Blut durch die Arterien zu pumpen und über die Venen wieder zurückfließen zu lassen. 8 Im Penis liegen die Arterien quer zu den Venen. Hormone, die bei sexueller Erregung ausgeschüttet werden, bringen die glatte Muskulatur der Arterienwände zum Erschlaffen. 9 Die Arterien erweitern sich daraufhin, drücken auf die Venen und verhindern, dass das einfließende Blut den Penis wieder verlässt. Die daraus folgende Erektion wird also vom hydrostatischen Druck aufrechterhalten. Man erhält den gleichen Effekt, wenn man Wasser unter Druck in einen leeren Schlauch fließen lässt, der am Ende verschlossen ist und zuvor geringelt am Boden liegt. Kann der Druck nicht aufrechterhalten werden, spricht man von Impotenz, einem Leiden, unter dem Gerüchten nach auch Heinrich VIII. während seiner Beziehung zu Anna von Kleve litt. Wie mir Freunde unter den Medizinern versicherten, kann man heutzutage Impotenz fast immer heilen. Im 19. Jahrhundert versuchte man die »Heilung« mit einem Bambusrohr, das über den Penis geschoben wurde - eine für alle Beteiligten höchst unbequeme Methode. Heute ist alles einfacher: Man legt für kurze Zeit eine kleine Vakuumpumpe an und bewirkt damit eine »passive« Erektion. 10 Bei den meisten Männern reicht die Libido als treibende Kraft aus, um eine Erektion zu bewirken. Es gibt jedoch Menschen, die nie zu befriedigen sind und daher nach Wegen suchen, die Libido durch Aphrodisiaka anzuheizen. So traurig es für diese Menschen auch sein mag: Es gibt überhaupt keine echten Aphrodisiaka - unser Be wusstsein ausgenommen. 11 Das hat Menschen beiderlei Geschlechts nicht gehindert, Kutteln, Rhabarber und Teile von Schlangen zu sich zu nehmen, um eine höhere sexuelle Befriedigung zu erlangen. Nach der altüberlieferten »Signaturlehre« glaubt man an die Wirkung dieser und anderer seltsamer Stoffe, weil sie dem entsprechenden Organ ähneln, also entweder dem Penis (wie -225
Spargel oder die Ginsengwurzel) oder der Scheide (wie Austern).12 Einige so gena nnte Aphrodisiaka reizen die empfindlichen Schleimhäute. Zu ihnen gehört die Brennnessel, die der römische Geschichtsschreiber Plinius der Ältere zum Einreiben des Penis von Bullen empfahl, die nicht mehr die volle Leistung brachten. 13 Der am besten bekannte Reizstoff ist das Cantharidin, das in der Spanischen Fliege enthalten ist, einem Blasenkäfer der Art Cantharis oder Mylabris. Cantharidin, das früher von einigen Pharmafirmen als Aphrodisiakum angeboten wurde, ordnet man inzwischen als Gift ein. Schon 3 mg wirken toxisch, 30mg führen zum Tod durch Nierenversagen. Zu den Nebenwirkungen zählen Mundtrockenheit, Schmerzen in den Verdauungswegen und Blut im Urin. Die Reizwirkung des Stoffes erhöht nicht die Libido, aber die richtige Dosis kann eine Erektion erzeugen. Es gibt einen berühmten Fall aus dem 19. Jahrhundert, als einige Bataillone französischer Truppen in Nordafrika über Magenbeschwerden und Dauererektionen klagten. Es stellte sich heraus, dass auf ihrem Speiseplan die Schenkel von Fröschen aus der Umgebung standen, die sich wiederum von den dort heimischen Blasenkäfern ernährt hatten. 14 Die britische Antwort auf Cantharidin war Kakao. In den frühen 1950er Jahren ging der Kakaoverkauf steil in die Höhe, als das Gerücht auftauchte, das Getränk würde die Libido verstärken. Der New Statesman veranstaltete 1953 einen Wettbewerb um das beste Gedicht über diesen Mythos. Das Siegesgedicht mit dem Titel »Cupid's Nightcap« war von einem Autor mit dem vielsagenden Namen Stanley J. Sharpless und lautete: Halb zehn. Zeit fürs Abendessen. »Kakao, Liebling?« - »Na klar, mein Lieber.« -226
Heien hält's für ziemlich lecker, Johnny trinkt es nun statt Bier: Er weist den braunen Trank zurück. Hubby zwinkert: »Wer ist fürs Bett?« »Gleich ist's so weit«, sagt Heien sanft, schickt einen Hauch von Röte nach. Sie sind über das Geheimnis einer Liebe gestolpert, die nie aufhört. Atemlos neben den zerwühlten Laken. Kakao rast durch ihre Adern. 15 Man nahm von Kakao wie von vielen anderen Aphrodisiaka an, dass er auf beide Geschlechter in gleicher Weise wirkt. Nun gibt es tatsächlich eine solche Substanz - allerdings wirkt sie negativ: der Alkohol. Er erweitert die Blutgefäße und beseitigt möglicherweise Hemmungen, bringt aber unglücklicherweise beim Mann zum Einsturz, was lange halten sollte. Im Englischen wird daher auch der schlaff herabhängende Penis gern brewer's droop genannt. Bei vielen Frauen führt Alkohol zu Trockenheit in der Scheide und anderen Beschwerden. Man kennt bis heute keinen Stoff, der die Libido anheizt, aber es gibt einige wenige Präparate, die eine Erektion erzeugen und aufrechterhalten können, wenn das der Libido nicht mehr gelingt. Eines der ersten dieser Präparate war Papavarin, dessen Wirkung in eindrucksvoller Weise von dem Psychiater Charles Brindley bei einer Tagung der British Andrology Society demonstriert wurde. Brindley hatte einen Sinn für Showeffekte und begann seinen Vortrag, indem er die Hosen herunterließ, sich eine Spritze mit dem Mittel in den Oberschenkel setzte und die Wirkung demonstrierte, die während seines über eine Stunde dauernden Vortrags anhielt. Es ist schwer, die genaue Dosis dieses Mittels zu finden, und es gab Fälle, wo Männer ihren Kurzurlaub abbrechen mussten und schmerzgeplagt mit derselben Erektion wieder zu Hause ankamen, mit der sie vier Tage zuvor abgereist waren. Die Vorstellung, sich als Vorspiel -227
zum Liebesakt zunächst eine Spritze zu setzen, ist zudem nicht jedermanns Sache. Die meisten ziehen ein »Anregungsmittel« vor, das man schlucken kann. Mehr als irgendeine aphrodisiakische Wirkung ist dies der Hauptvorteil von Viagra, dessen Wirkstoff Sildenafilzitrat selbst welkende Blumen wieder aufrichten kann. 16 Viagra war von der Pharmafirma Pfizer ursprünglich als Mittel zur Behandlung von Angina entwickelt worden. Wenn man einem Bericht glaubt, wurde seine dramatische Wirkung auf die Steifheit des Penis nur entdeckt, nachdem sich jemand darüber gewundert hatte, dass alle männlichen Teilnehmer an einer Versuchsreihe nach deren Abschluss die übrig gebliebenen Pillen nicht zurückgaben. Viagra wurde 1998 von der US Food and Drug Administration (FDA) als Medikament zur Behandlung von Impotenz zugelassen und hat inzwischen große Beliebtheit erlangt. So stand in einem französischen Restaurant eine »Rinds-Piccata in Viagra-Soße mit Feigenessig und Krautern« auf der Speisekarte. Der Erfinder dieses Gerichts, Jean- Louis Galland, sagte, er wolle damit seine Gäste glücklich machen - insbesondere Großväter und ihre Gattinnen. Zum Pech für Galland und seine Gäste waren die amtlichen Stellen der Meinung, er würde unerlaubterweise Medikamente verkaufen, und beendeten das Experiment.
-228
Muskelspasmen im erigierten Penis schießen schließlich die Spermien auf ihre Bahn. 17 Das Ejakulat hat vor diesem Ereignis einen Prozess durchlaufen, der dem von Benzin ähnelt, das bei seinem Weg durch die Pumpe mit Additiven angereichert wird, bis dann am Zapfhahn das fertige Gemisch zur Verfügung steht. Die Produktion von Spermien findet in den Hodenkanälchen statt. Die Zellen werden dann durch die Nebenhoden geschleust, wo sie ihre Beweglichkeit erhalten. Dann führt der Weg in einer Lösung von Salzen und Proteinen durch den Samenleiter an die Abschussrampe. Die Lösung, in der sie transportiert werden, wird aus der Samenblase mit einer alkalischen gelblichen Flüssigkeit angereichert, die 80 Prozent des Spermaplasmas ausmacht. Diese Flüssigkeit, zu der noch die Sekrete der Prostata kommen, enthält Hormone, Enzyme und Nährstoffe, deren Funktion in vielen Fällen noch unbekannt ist. Das Ejakulat, das schließlich hinauskatapultiert wird, enthält um die 200 bis 400 Millionen zappelnder Spermien. Die Chancen, dass eines von ihnen eine Eizelle erreicht, sind immerhin so groß, dass ein Paar eine 90prozentige Erfolgschance hat, wenn es sich zwölf Monate lang redlich bemüht. Die Chance einer einzelnen Samenzelle, das Rennen zu gewinnen, ist allerdings, wie schon erwähnt, geringer als die auf den Hauptgewinn im Lotto.
A BBILDUNG 9.1: Hindernisparcours für die Spermien aus physikalischer Sicht.
-229
Menschliche Samenzellen sind etwa 60 ì m lang und haben einen abgeflachten keilförmigen Kopf, der einem winzigen Surfbrett gleicht.18 Sie müssen das Tausendfache ihrer Länge zurücklegen, um ein Ei zu erreichen - das entspricht beim Menschen einer Strecke von 1500m (Abbildung 9.1). Zunächst gilt es, der Samenflüssigkeit zu entkommen, durch die sie an den Start der Rennstrecke transportiert wurden. Sie ist der Gesundheit der in ihr gefangenen Spermien abträglich und tötet sie, wenn sie sich nicht innerhalb von 20 Minuten befreit haben. Der Samen sammelt sich vor der Öffnung des Gebärmutterhalses als kleine Pfütze mit einem Volumen von etwa 3 ml.19 Aus geometrischen Gründen kann man abschätzen, dass der weiteste Weg, den eine Samenzelle bis an die Oberfläche dieser Pfütze zurücklegen muss, rund 9mm beträgt. Die meisten der Zellen schaffen in wässrigen Flüssigkeiten 3 mm je Minute, das heißt, sie erreichen die Oberfläche in etwa 3 Minuten. Zum Pech der erwartungsvollen Spermien gerinnt die Samenflüssigkeit, die den Penis noch flüssig durchläuft, sofort nach ihrem Austritt zu einem Gel, aus dem es nur für die glücklichsten und kräftigsten Samenzellen ein Entrinnen gibt.20 Liegen die Samenzellen nah beieinander, schwimmen sie manchmal »synchron«. Das ist ein hydrodynamischer Effekt, der zustande kommt, weil die »Bugwelle«, die von einer schwimmenden Samenzelle ausgeht, die Bewegungen der Nachbarzellen beeinflusst und schließlich alle in Gleichtakt bringt. Dieses Phänomen gilt als Maß für die Qualität von Bullensamen. Die Natur hat sich regelrecht gegen die Samenzellen verschworen und es so eingerichtet, dass die Aufgabe nicht zu leicht wird: Diejenigen, denen die Flucht aus der Samenflüssigkeit gelungen ist, stehen sofort vor einem neuen Hindernis: einer Säule aus Schleim, die den Gebärmutterhals auch Zervix genannt - ausfüllt, der Scheide und Gebärmutter verbindet und sich zwischen äußerem und innerem Muttermund -230
erstreckt. Die Beschaffenheit des Schleims wird durch die zwei Hormone Progesteron und Östrogen beeinflusst. Durch das Progesteron wird der Schleim dickflüssiger, während das Östrogen dazu führt, dass er Wasser aufnimmt und dünnflüssiger wird. Das Verhältnis zwischen den beiden Hormonen - und damit auch die Beschaffenheit des Schleims verändert sich während des Monatszyklus. In den Tagen um die Mitte des Zyklus ist es für die Samenzellen leichter, in den Schleim zu gelangen, aber einige wenige finden immer einen Weg. Es gibt eine Vielzahl von Tests für die »Güte« des Schleims, das heißt dafür, wie schwer oder leicht es für Samenzellen ist, ihn zu durchqueren. Der einfachste Test ist der Billings- Test, der bei der »natürlichen« Familienplanung eingesetzt wird. Dazu nimmt man (Mann oder Frau) ein wenig des Schleims zwischen Zeigefinger und Daumen und bestimmt, wie weit die Finger auseinandergezogen werden können, bevor der Schleimfaden reißt. Je länger er hält, umso »besser« sind die Chancen »besser« für den Fall, dass eine Befruchtung erwünscht ist. Die Dehnbarkeit oder »Spinnbarkeit« des Fadens scheint eng mit der Konzentration von Wasser im Schleim verbunden zu sein und ist leicht ohne irgendwelche Apparaturen zu bestimmen. In Tabelle 9.1 sind Zahlen angegeben, die von der WMO bestimmt wurden. TABELLE 9.1 Dehnungslängen des Schleims im Gebärmutterhals
Dehnungslänge in cm
Bewertung
1 1-4 5-8 ›9
0 (schlechteste Qualität) 1 2 3 (beste Qualität)
Ist ein Mikroskop zur Verfügung, kann man auch die -231
farnartigen Kristalle21 untersuchen, die sich bilden, wenn man ein Schleimtröpfchen auf einer Glasplatte trocknen lässt. Je mehr Arme die dabei entstehenden federartigen Kristalle aufweisen, umso »besser« ist der Schleim.
A BBILDUNG 9.2: Samen und Schleim aus dem Gebärmutterhals zwischen einem Objektträger und einem Deckglas.
Der umfassendste Test reproduziert die Anfangsschritte des Befruchtungsvorga ngs in vitro - im wörtlichen Sinne: unter Glas. Dazu werden dünne Filme von Samen und Schleim zwischen einen Objektträger und ein Deckglas gegeben, wobei der frische Samen durch Kapillarkräfte angezogen wird wie der Tee vom eingetunkten Keks (Abbildung 9.2). Das Verfahren wurde mir von Eileen McLaughlin, einer Expertin für Fruchtbarkeit und Befruchtung vom St. Michael's Hospital in Bristol vorgeführt. Zu meiner Überraschung bildeten sich an der Grenzfläche zwischen Samen und Schleim Einbuchtungen (oder, vom Schleim aus gesehen, Höcker), sobald die beiden Massen in Berührung kamen (Abbildung 9.3). Ich erfuhr, dass die Samenzellen durch die Spitzen dieser Einbuchtungen in den Schleim gelangen. Mich faszinierten aber eigentlich die Einbuchtungen selbst, und ich fragte mich, wie es zu dieser Form kommt und warum die Samenzellen gerade an den Spitzen die Grenze überschreiten.
-232
A BBILDUNG 9.3: Grenzfläche zwischen Samen und Schleim mit der Ausbildung von Einbuchtungen.
Obwohl Grenzflächen zwischen zwei Flüssigkeiten zu meinem Spezialgebiet gehören, hatte ich bisher Einbuchtungen wie diese nur ein einziges Mal gesehen: als ich ein Öltröpfchen in eine Eiweißlösung gegeben hatte. Weil sich immer mehr Eiweißmoleküle auf der Tröpfchenoberfläche sammeln wollen, wird der seitliche Druck zur Verdrängung der Nachbarn so groß, dass sich die zuvor glatte Oberfläche in Falten legt.22 Aber der jetzige Fall war vermutlich anders. Es schien, als ob ein Bestandteil des Samens mit einem Bestandteil des Schleims chemisch reagieren würde, wobei ein Oberflächenfilm entstand, der sich sofort einfaltete. Offensichtlich ist dieser Oberflächenfilm wichtig, er könnte beispielsweise einen Schutzwall gegen das Eindringen der Samenzellen darstellen. -233
Um darüber mehr herauszufinden, wollte ich wissen, was passiert, wenn man statt Samen Wasser verwendet. Zu meiner großen Überraschung bildeten sich die gleichen Einbuchtungen. Was immer sich hier abspielte: Es hatte nichts mit der Chemie des Samens zu tun. Ich vermutete, dass sich die Eiweißmoleküle des Schleims an der Grenzfläche aus Wasser und Schleim in der gleichen Weise sammeln, wie seinerzeit das Eiweiß an der Oberfläche meines Öltröpfchens. Das macht Sinn, da physikalisch gesehen die Spitzen der Einbuchtungen die Schwachstellen der Struktur darstellen und daher von einer zappelnden Samenzelle am leichtesten durchbrochen werden können. Meine Erfahrung sagte mir, dass sich Eiweiß auch an einer Grenzfläche des Schleims zur Luft ansammeln wird, wenn es dies an der Grenze zu Wasser tut. Der zuvor glatte Eiweißfilm würde sich dann in Falten legen, sobald er mit Wasser in Berührung kommt. Ich ging der Sache auf den Grund und wurde tatsächlich belohnt: Mein wissenschaftlicher Instinkt hatte mir den richtigen Weg gewiesen (Abbildung 9.4). Bei den Falten, die sich schließlich mit Wasser (oder Samen) füllen, ist die Wahrscheinlichkeit groß, dass sie an den Spitzen reißen und den Zugang zum dahinter liegenden Schleim freigeben. Um in ihn einzudringen, muss die Samenzelle einen Druck ausüben, der größer ist als der Druck, den ihr der Schleim entgegensetzt. Die Fließ- oder Streckspannung von gelartigen Substanzen entspricht ungefähr dem Druck, bei dem das Gel nachgibt, und wird in Pascal gemessen, wobei l Pascal der Krafteinwirkung von 1 Newton pro Quadratmeter entspricht. Um einen Vergleich zu haben: Ein dünnes Taschenbuch übt auf den Tisch einen Druck von etwa 100 Pascal aus, der Druck der Atmosphäre beträgt in Meereshöhe etwas über 100 000 Pascal, der in einem Autoreifen etwa 200 000 Pascal. 23
-234
A BBILDUNG 9.4: Einbuchtungen, die sich an der Oberfläche des Samens bilden, wenn er mit dem Schleim in Berührung kommt.
Die Fließspannung im Gebärmutterhals beträgt in der Mitte des Zyklus etwa 60 Pascal, was ein typischer Wert für Gele ist, die zwar ihre Form behalten, aber doch leicht zu verarbeiten sind. Die Natur hat sich beim Design des Zervixschleims viel Mühe gegeben. Bei einer Fließspannung von 60 Pascal kann eine Samenzelle, die schneller als 2 mm/Min schwimmt, den Schleim durchqueren. Sowohl vor als auch nach der Mitte des Zyklus steigt die Fließspannung rapide an, sodass der Schleim einen sehr wirkungsvollen, wenn auch nicht völlig sicheren Schutz vor einer Schwangerschaft darstellt. Das letzte Wort darüber, ob eine Samenzelle in den Schleim eindringen kann, spricht aber die Frau: Man hat inzwischen einen Zusammenhang zwischen der Zahl der Samenzellen im Zervixschleim und dem Spaß, den der Frau das Liebesspiel gemacht hat, entdeckt.24 Möglicherweise hängt das mit dem Orgasmus zusammen - es gibt Hinweise darauf, dass während des Orgasmus der Frau die Samenzellen regelrecht eingesaugt werden -, aber es scheinen auch noch viele weitere Faktoren eine Rolle spielen. Die Feuchtigkeit der Scheide gehört dazu, aber das wäre natürlich wieder ein physikalischer Faktor, sodass vielleicht wirklich die Physik das letzte Wort spricht.
-235
Ist erst einmal eine Samenzelle in den Schleim eingedrungen, folgen ihr andere nach. Sie paddeln dann nicht mehr wild umher wie zuvor, sondern folgen nun dem Anführer. Sind gleich zu Anfang mehrere Samenzellen an verschiedenen Stellen eingedrungen, so schwimmen ganze Kolonnen mit unterschiedlichen Geschwindigkeiten hinter den Ersten her. Der Schleimtypus, in dem eine solche Massenbewegung vorkommt, gilt als der »beste«, da er sehr vielen Samenzellen eine ordentliche Chance gibt, nach den 30mm Schleimstrecke die Gebärmutter zu erreichen. 25 Wie können die Spermien überhaupt in der gelartigen Masse schwimmen? Es wäre sicher unmöglich, wenn die Schwimmbewegungen der Spermien vorwärts und rückwärts völlig gleich wären etwa wie bei einem Ruderboot, wenn man die Ruder unter Wasser wieder nach vorn holt oder wie bei einem Schwimmer, der seine Arme völlig steif hält. Jede Bewegung nach vorn würde durch eine gegenläufige Be wegung zunichte gemacht, die unsere Samenzelle wieder zurücktreibt (Abbildung 9.5). Ich fragte Eileen McLaughlin, wie es die Samenzellen schaffen, aber sie meinte nur, das sei immer noch in der Diskussion. Es gibt Forscher, die den Grund in der Feinstruktur des Schleims vermuten, in dem es lange fadenförmige Moleküle gibt, die Mucopolysaccharide heißen. Sie bilden Bündel von 0,5 ì m Durchmesser - das ist ein Fünftel des Durchmessers des Spermienkopfs - und machen dadurch wassergefüllte Kanäle frei, durch die sich die Spermien zwängen können. 26 Andere glauben, dass sich der Schleim selbst bewegt. Wieder andere gehen davon aus, dass die Geißelschläge der Samenzellen zu einer Resonanz mit der natürlichen Frequenz der Mucopolysaccharide führen - in der Weise, wie eine -236
marschierende Kolonne eine Brücke in Schwingung versetzen kann -, und dass die dabei entstehenden rhythmischen Wellen die Samenzellen im Schleim vorantragen. 27 Und dann gibt es noch die Theorie, dass rhythmische Schlagbewegungen der Kinozilien, der kleinen Härchen längs des Gebärmutterhalses, Wellen erzeugen, die das Wandern der Spermien fördern. 28
A BBILDUNG 9.5: Das Problem, in einem zähen Medium schwimmend voranzukommen, wenn die Bewegungen der Arme vorwärts und rückwärts gleich sind. LINKS: Startposition. MITTE: Der Körper bewegt sich nach vorn, wenn sich die Arme nach rückwärts bewegen. RECHTS: Der Körper gelangt zur Ausgangslage zurück, wenn sich die Arme wieder vorwärts bewegen. Man kann das Problem teilweise vermeiden, indem man den Impuls nach vorn verstärkt, also die Arme schnell zurück bewegt und dann langsam wieder nach vorn. Beherrscht die Viskosität das Geschehen, versagt diese Taktik allerdings .
Jede dieser Erklärungen hatte etwas für sich, aber keine überzeugte mich ganz, weil niemand berücksichtigt hatte, wie sich große, fadenförmige Moleküle in einer Lösung wirklich verhalten. Von meiner Arbeit in der Nahrungsmittelforschung hatte ich einige Erfahrung auf diesem Gebiet, weil ich untersuchen musste, wie sich Gele verfestigen. Die meisten Gele und geleeartigen Substanzen bestehen aus Gelatine, deren Moleküle lang und dünn sind und sich in heißem Wasser frei -237
bewegen. Kühlt das Wasser ab, bilden die Moleküle ein dreidimensionales Netz, das an den Stellen, wo sich zufällig Molekülfäden überkreuzen, durch schwache Verbindungen zusammengehalten wird. Wird das weiche Gel in diesem Zustand umgerührt, wird es sofort wieder flüssiger. Das Umrühren zerstört die schwachen Verbindungen und ordnet die langen Gelatinemoleküle längs der Strömungslinien an, sodass sie leichter aneinander vorbeigleiten können. 29 Ich wusste, dass der Zervixschleim wie Johannisbeergelee aus einer Lösung langer Moleküle besteht und in ähnlicher Weise beim Umrühren dünnflüssiger wird. Wenn der paddelnde Schwanz der Samenzelle den Schleim umrührt, hinterlässt er eine Bahn mit flüssigerem Schleim. Die nachfolgenden Samenzellen profitieren also davon, wenn sie hinter dem Anführer herschwimmen. Das würde das Schwimmen in Kolonnen erklären, aber immer noch nicht, warum die führende Samenzelle durch den Schleim schwimmen kann. Eines Morgens rückte ich im Kaffeeraum des Instituts mit diesem Problem heraus. Meine neue Doktorandin Rachel Owen las gerade ihre E-Mails und reagierte nicht. Ein paar Stunden später gab sie mir aber ohne jeden Kommentar den Reprint eines Artikels aus dem Jahr 1977, in dem alles stand, was ich wissen wollte. Es handelte sich um den Text eines Vortrags von E. M. Purcell über die Vorgänge bei niedrigen »Reynoldszahlen«, mit anderen Worten: das Leben in einer Welt, in der die Viskosität alle Bewegungen beherrscht.30 Organismen wie die Samenzellen können unter solchen Bedingungen schwimmen, indem sie die Geißel wie ein flexibles Ruder oder eine Peitsche verwenden. Damit wird das Problem vermieden, das ein Schwimmer mit starren Armen hätte. Ist der Arm flexibel, so kann ihm der Schwimmer in der zweiten Hälfte des Bewegungszyklus ein anderes Profil verleihen als in der ersten. Mikroorganismen wie die Alge Chlamydomonas setzen ihre -238
zwei flexiblen Geißeln auf diese Weise beim »Brustschwimmen« ein (Abbildung 9.6). Die menschlichen Spermien gehen etwas anders vor. Sie schlagen mit ihrer Geißel, die von einem molekularen Motor angetrieben wird, von Seite zu Seite. Der Trick funktioniert, weil sich die Geißel so biegt, als ob sie ständig eine zweidimensionale Welle durchlaufen würde. Purcell konnte zeigen, dass der Schwanz die viskose Dämpfung in unglaublich geschickter Weise dazu benützt, um sich nach vorn zu arbeiten, obwohl sie stets gegen die Bewegung gerichtet ist - was ähnlich verblüffend ist wie die Tatsache, dass ein Segelboot gegen den Wind vorankommt. Eine vollständigere Erklärung wird in Abbildung 9.7 versucht. Das Diagramm mag zwar wie viele wissenschaftliche Diagramme - etwas kompliziert aussehen, aber wenn man der Erklärung Schritt für Schritt folgt, ist es relativ verständlich. 31
A BBILDUNG 9.6: Schwimmbewegungen der Alge Chlamydomonas.
Eine schnelle menschliche Samenzelle benötigt 10-15 Minuten, um den Gebärmutterhals zu durchschwimmen. Einige wenige gelangen in einem »Schnelltransport« sogar in 2 Minuten ans Ziel. Niemand weiß, wie dieser Prozess funktioniert, aber die Samenzellen, die sich auf ihn einlassen, sind nicht so glücklich dran, wie man meinen könnte: Sie sind zu früh am Ziel, da die Zeit, in der sich ihre langsameren Kollegen im Gebärmutterhals abmühen, auch für bestimmte -239
chemische Veränderungen nötig ist, die das Eindringen in die Eizelle und die Befruchtung erst ermöglichen.
A BBILDUNG 9.7: Wirkung der viskosen Dämpfung auf eine Geißel. Die Geißel ist als gewellte Kurve dargestellt. Der Abschnitt, der mit einem ausgefüllten Rechteck markiert ist, bewegt sich mit der Geschwindigkeit v nach oben, der mit dem leeren Rechteck markierte nach unten. Wie wir wissen, kann jede Geschwindigkeit in zwei Komponenten zerlegt werden eine parallel zum Geißelabschnitt, eine senkrecht dazu. In ähnlicher Weise kann man die Diagonalbewegung eines Springers auf dem Schachbrett in zwei zueinander senkrechte Bewegungen zerlegen, beispielsweise in zwei Felder nach rechts, ein Feld nach oben. Die beiden Komponenten sind jeweils mit Vpar und Vsenkr bezeichnet, die beiden Komponenten der Kraft F der viskosen Dämpfung, die diesen Bewegungen entgegen gerichtet sind, sind entsprechend mit F par und Fsenkr bezeichnet. Und nun der Trick: Wir bilden aus Fpar und Fsenkr die Gesamtkraft F und zerlegen sie wieder, aber nun in eine Komponente Fhoriz parallel zur horizontalen Bewegungsachse und eine Komponente Fvert senkrecht dazu. Fvert wirkt nach unten, F. nach vorn.Nun wenden wir die gleiche Methode auf den mit dem leeren Rechteck markierten Abschnitt an, wo Fvert nach oben wirkt und die Bewegung nach unten im zuerst betrachteten Abschnitt aufhebt. Fhoriz wirkt aber wieder nach vorn und addiert sich zur Vorwärtsbewegung des zuvor betrachteten Abschnitts, der mit dem ausgefüllten Rechteck markiert ist. Ergebnis des Prozesses: Die viskose Dämpfung bewegt die Samenzelle nach vorn.
-240
A BBILDUNG 9.8: Befruchtung eines Eies. Das stark vereinfachte Bild gibt nur die wichtigsten Schritte wieder. Auch die Darstellung der Eizelle ist stark vereinfacht. In Wirklichkeit ist sie von einer Zellwolke umgeben, dem so genannten Eihügel. Dessen Zellen sondern eine Hülle aus Hyaluronsäure ab, die dem Gleitmittel in den Gelenken ähnelt.
Sind die Samenzellen in der Gebärmutter32 angelangt, stehen sie vor weiteren Problemen. Das erste gleicht dem, das Surfer von den Stränden vor Sydney kennen: Das Wasser ist voller Haie. Für die Samenzellen sind die »Haie« weiße Blutkörperchen, die das Immunsystem produziert, um körperfremde Zellen und andere Stoffe, die als »fremd« erkannt werden, aufzufressen. Man kann sich kaum etwas Fremderes vorstellen, als eine Samenzelle in der Gebärmutter, und jede kann sich glücklich schätzen, die es bis zum Eingang einer der beiden Eileiter schafft. Von den paar hundert Millionen, die an den Start gegangen waren, sind nur noch einige hundert übrig. Die meisten konnten die Gebärmutter durchqueren, indem sie auf Gebärmutterwellen gesurft sind, die durch die Prostagladine in der Samenflüssigkeit ausgelöst werden. Die Wellen scheinen sowohl in Richtung Eileiter als auch Gebärmutterhals zu gehen, sodass es wichtig ist, die richtige zu wählen. Einmal in einem Eileiter angelangt, drängeln sich die Samenzellen um die besten -241
Plä tze wie Halbwüchsige an den Straßenecken und warten auf die Ankunft des Eis. Wenn es kommt, hat es Makeup aufgetragen: eine dicke Geleeschicht, die von den Samenzellen alles abverlangt, wenn sie darauf aus sind, sie durchdringen zu wollen (Abbildung 9.8).33 Der Vorgang, an dem Enzyme beteiligt sind und bei dem biochemische und strukturelle Veränderungen stattfinden, ist ziemlich kompliziert. Grob gesagt läuft die Befruchtung so ab: Die Samenzelle muss zunächst den so genannten Eihügel durchdringen, der jede Eizelle umgibt, wobei sie mit einer Kombination aus mechanischem Bohren und chemischem Auflösen arbeitet. Hat sie den Durchbruch geschafft, trifft sie auf eine feste Schicht, die Zona pellucida, wo der Schild der Samenzelle in einem komplizierten Prozess, der Akrosomreaktion genannt wird, verloren geht. Jetzt muss sich die Samenzelle mehr oder weniger nackt und bloß durch die Zona kämpfen. Sie wendet dabei wieder ihre asymmetrische Schwanzbewegung an, um mit dem nun kahlen Kopf vor und zurück zu stoßen. Dadurch bringt sie genügend Kraft auf, um schließlich die einzelnen Molekülbindungen zu durchtrennen und sich den Weg frei zu hebeln und zu graben. Schließlich gelangt die Samenzelle an eine Lücke, die »perivitelliner Raum« genannt wird, und ihre dünne Haut tritt mit der Membranhülle der Eizelle in Kontakt. Die beiden Membrane vereinigen sich, und die gesamte Samenzelle wird mitsamt ihrem Kopf, der die DNA enthält, von der Eizelle verschlungen. Der Sieger verhält sich wie einer der alten Rittersleut', der alle Burggräben überwunden hat und schließlich in die Kammer gelangt ist, wo die Braut auf ihn wartet: Er trifft Vorsichtsmaßnahmen und dreht von innen den Schlüssel der Kammer zu. Es wird Kalzium freigesetzt, das die Membranhaut der Eizelle unwiderruflich so verändert, dass keine weitere Samenzelle eindringen kann - während der Sieger seine DNA -242
mit der des Kerns der Eizelle vereinigt.34 Ein neues Leben hat seinen Anfang genommen. Vielleicht sind hier nur die Mechanismen der Darwinschen Evolution am Werk und bestimmen, dass die Samenzelle, die sich als größte physikalische Expertin erweist, die besten Chancen hat, dieses neue Leben in Gang zu setzen.
-243
Ich habe versucht, etwas davon zu vermitteln, was man unter Wissenschaft versteht und was es bedeutet, ein Wissenschaftler zu sein, der sich der Aufgabe gewidmet hat, einen kleinen Bereich der Welt zu erforschen. Wie jeder, der eine befriedigende und lohnende Arbeit leistet, haben auch Wissenschaftler Spaß an ihrem Beruf, aber zu den Aufregungen und dem Vergnügen tritt noch ein realistisches Gefühl für Sinn und Zweck. Wie die Geschichten in diesem Buch gezeigt haben, kann es immer vorkommen, dass selbst die Antwort auf die banalste Frage zu neuen Einsichten in die Natur unserer Welt führt. Ein Wissenschaftler lebt von solchen Momenten. Wer mit Wissenschaft nichts zu tun hat, hält einen Forscher vielleicht für ein einsames Genie, das in der dünnen Luft von Gipfeln zu Hause ist, die all die anderen nie erklimmen können. Für einige wenige mag das stimmen, so wie es auf einige wenige Musiker, Maler und Dichter zutrifft. Zum Glück ist es für die vielen anderen - mich eingeschlossen - durchaus möglich, nützliche Beiträge zur Wissenschaft zu leisten, ohne ein Genie sein zu müssen. Das liegt daran, dass Wissenschaft ein Gemeinschaftswerk ist, zu dem Menschen mit ganz unterschiedlichen Fähigkeiten ihren Beitrag leisten. Dazu gehören welche, die zwei geschickte Hände haben, aber auch zwanghafte Sammler und systematische Anhäufer von Fakten, -244
beharrliche Sucher von Antworten auf lästige Fragen und andere mit einem »Händchen« für Tiere, Steine, Pflanzen und vieles andere mehr. Sie alle spielen eine Rolle in dem Stück. Allen gemeinsam sollte sein, dass sie offen für Kritik sind - und sei es mit zusammengebissenen Zähnen. Wir teilen unsere Ergebnisse und Theorien mit allen, indem wir sie veröffentlichen - was manchmal zu noch mehr Kritik führt, aber auch das Gespür für die wichtigen Fragen schärft. Eine Veröffentlichung in einer angesehenen Fachzeitschrift stellt eine Informationsquelle dar, die bereits die Kritik der Gutachter passiert hat und zu neuen Erkenntnissen anregen kann. Ohne dieses öffentliche Forum gäbe es jenen großen Fundus nicht, aus dem man schöpfen kann - und letztlich keine Wissenschaft. Was würde es ausmachen, wenn es keine Wissenschaft mehr gäbe? Zunächst würde es mich und meine Kollegen betreffen, denn wir verdienen mit ihr unseren Lebensunterhalt. Mich würde es ganz persönlich treffen, denn ohne moderne Antibiotika wäre ich schon tot. Diese und andere »praktische« und nützliche Dinge für unser Leben und unseren Lebensstil werden oft als Hauptgrund angegeben, wenn es darum geht, die Wissenschaft zu fördern und in sie zu investieren: Man kann schließlich auch nicht leugnen, dass es uns aufgrund des wissenschaftlichen Fortschritts in vielen Bereichen immer besser geht. Das reicht weit über die Biomedizin und die Kommunikationstechnik hinaus, die derzeit die Schlagzeilen bestimmen. Selbst die Regale unserer Supermärkte wären relativ leer, wenn die Forschung uns nicht gezeigt hätte, wie man den Zerfallsprozess von pflanzlichen und tierischen Produkten beherrschen kann. In den Augen vieler Menschen werden diese praktischen Vorteile aber von praktischen Problemen mehr als genug ausgeglichen. Was nützen schon ein längeres Leben und volle Ladenregale, wenn dieses Leben von der Atombombe oder einem künstlich erzeugten tödlichen Virus bedroht wird? Einige, -245
die sich mit solchen Problemen konfrontiert sehen, vertreten den extremen Standpunkt, dass man die Forschung auf bestimmten Gebieten schon früher hätte stoppen sollen oder dass wir zumindest jetzt die letzte Chance nutzen müssen, damit wir nicht noch weiter in die Katastrophe schlittern. Andere glauben, dass es das Beste (und vielleicht einzig Mögliche) für die Menschheit sei, weiterzumachen und zu versuchen, die Welt noch besser zu verstehen und Wege zu finden, die Wissenschaft für gute statt für schlimme Zwecke zu nutzen. Für die Mehrheit der Menschen stellt es einen guten Kompromiss dar, den Fortschritt der Wissenschaft weiter zu fördern, aber die Anwendung zu steuern. Wenn man davon ausgeht, dass die menschliche Neugier nicht unterdrückt werden kann, sollte man ihrer Ansicht nach wenigstens versuchen, diese Neugier in die »richtigen«, friedlichen Bahnen zu lenken. Zum Pech für alle, die nur das allgemeine Wohlergehen, Frieden und Zusammenarbeit im Sinn haben, muss man leider sagen, dass dieser Wunsch nicht in Erfüllung gehen wird. Selbst wenn man jegliche direkte Kriegsforschung einstellen würde, wäre damit nicht viel gewonnen, da man schlechthin nicht sagen kann, worauf ein Fortschritt in der Wissenschaft hinauslaufen wird. Dazu kann man ein eindringliches Beispiel aus dem Jahr 1939 anführen. Kurz vor dem Ausbruch des Zweiten Weltkrieges veröffentlichten zwei deutsche Naturwissenschaftler, Lise Meitner und Otto Robert Frisch, in der britischen Zeitschrift Nature den notwendigen Schlüssel zur Entwicklung der Atombombe.1 Aber erst nachdem amerikanische und britische Wissenschaftler darüber nachdachten, wie sich eine Bombe verwirklichen lassen könnte, erlangten diese Forschungsergebnisse praktische Bedeutung. Wären diese Konsequenzen von vornherein klar gewesen, hätten die beiden Deutschen ihre Erkenntnisse vielleicht nicht so offen vor aller Welt präsentiert. Die Folgen einer wissenschaftlicher Entdeckung sind oft nicht -246
abzuschätzen - selbst nicht für den Entdecker. Mit der ersten künstlichen Kernreaktion durch Rutherford und der ersten Kernspaltung durch Hahn und Straßmann waren die ersten Schritte auf dem Weg zur Bombe gemacht. Rutherford dämpfte seinerzeit die Hoffnungen: »Die Aussichten, aus den Atomen durch künstlich erzeugte Veränderungen nutzbringende Energie gewinnen zu können, sind nicht Erfolg versprechend.«2 Er interessierte sich nicht für praktische Nutzanwendungen, sondern wollte Kernreaktionen durchführen, um in das Innere der Kerne »sehen« zu können und dadurch etwas mehr über den Stoff zu erfahren, aus dem wir und das gesamte Universum bestehen. Zu den technologischen Folgen der Kernspaltung gehört nicht nur die Bombe, sondern auch die Kernenergie (deren Nutzen allerdings von vielen angezweifelt wird), neue Methoden zur Diagnose und Heilung von Krankheiten und eine tiefere Einsicht in die »wahre« Natur und den Ursprung unserer Welt. Vielleicht gelingt es in der Zukunft, »saubere« Energie durch die Kernfusion zu gewinnen und Wege zu finden, ferne Sterne zu erreichen und die Menschheit dorthin zu evakuieren, wenn eines fernen Tages der Fusionsreaktor der Sonne vom Netz geht. Wer kann also beurteilen, ob die Entdeckungen der Kernphysiker der »ersten Stunde« letztlich »gut« oder »böse« waren? Ich glaube nicht, dass die von Neugier getriebene wissenschaftliche Forschung von vornherein nach diesen Kriterien beurteilt werden kann. Sicher kann man manchmal die Motive einzelner Forscher danach bewerten, aber generell ist es äußerst schwer, die Antwort auf eine grundlegende Frage vorauszuahnen, geschweige denn, welche weiteren Folgen sich aus der Antwort ergeben können. Daher halte ich eine rein ethische Beurteilung des Fragens und Handelns der Forscher für unangemessen. Solche Kriterien sollten erst dann zum Zug kommen, wenn es um die Folgen geht, die ohnehin nicht Sache der Wissenschaft allein sind, sondern die gesamte Gesellschaft -247
betreffen. Man sollte also alles daran setzen, die Folgen des wissenschaftlichen Fortschritts zu kontrollieren, nicht aber den Fortschrittsprozess selbst.3 Das macht natürlich die Verantwortung der Wissenschaftler nicht geringer, verweist aber darauf, wie wichtig es ist, die richtigen Ansatzpunkte und Bereiche zu suchen, in denen die Verantwortung wahrgenommen werden soll. Voraussetzung dafür ist, dass die wissenschaftlichen Erkenntnisse mit der übrigen Gesellschaft geteilt werden, sodass die Politiker sachkundige Entscheidungen treffen können. Mehr können Wissenschaftler vielleicht nicht tun - aber das sollten sie wenigstens tun. Zu den wichtigsten Dingen, die Allgemeingut werden müssen, gehört eine Vorstellung von der Arbeitsweise der Wissenschaft. Ich hoffe, dass ich mit diesem Buch einen Beitrag dazu liefern konnte. Die Tatsache, dass wir nicht voraussagen können, auf welche Fragen wir nur belanglose (oder gar keine) Antworten bekommen und welche Fragen zu bedeutenden Erkenntnissen führen, hat zur Folge, dass wir mit vielen unterschiedlichen Ansätzen an die bestehenden Probleme herangehen müssen, um aus einer Fülle von Resultaten die wenigen bedeutenden auswählen zu können. Das ähnelt ein wenig dem Dilemma mit der genetischen Vielfalt in der Natur. Eine wissenschaftliche Monokultur, in der alle an den gleichen Themen arbeiten, die ihnen von den Politikern, Wirtschaftsbossen oder Technokraten vorgegeben wurden, wird nur magere Ergebnisse vorweisen können und verdient kaum noch den Namen Wissenschaft. Leider scheinen aber die Dinge darauf hinauszulaufen. Die Richtung der Forschung wird weitgehend von den Gremien kontrolliert, die Mittel für bestimmte Projekte zur Verfügung stellen. Der Druck durch die Geldgeber - vorwiegend der Staat und die Wirtschaft führt immer mehr dazu, dass nur noch Projekte unterstützt werden, die mit ziemlicher Sicherheit »nützliche« Ergebnisse versprechen. Zwangsläufig stürzt sich -248
die Forschung dann nur noch auf Probleme, deren Lösungen man schon kennt oder schon vor Augen hat - eine Situation, in der es eigentlich gar nicht mehr nötig ist, weitere Forschung zu betreiben. Fragen mit offenem Ausgang, wie sie für die Grundlagenforschung charakteristisch sind, werden an den Rand gedrängt und schließlich ganz aufgegeben, was zur Folge hat, dass die »Diversität« der Forschung täglich geringer wird. Die geschilderte Forschungsstrategie mag ihre Berechtigung haben, wenn es um Antworten auf ganz spezifische Fragen geht, die voraussehbare Fortschritte für technologische Anwendungen bringen werden. Wie ich an vielen Beispielen in diesem Buch gezeigt habe, sind jedoch die meisten wichtigen Anwendungen des wissenschaftlichen Fortschritts überhaupt nicht mit der ursprünglichen Fragestellung verknüpft. Der Biochemiker Hans Kornberg hat einmal eine Liste der zehn bedeutendsten »Fortschritte« aufgestellt, die von der Medizin im 20. Jahrhundert errungen wurden. Sieben der zehn erwuchsen aus Forschungsarbeiten, die nichts mit der späteren Anwendung zu tun hatten. Die treibende Kraft der Grundlagenforschung kommt aus der Überzeugung des einzelnen Wissenschaftlers, dass eine Frage wichtig und einer Untersuchung wert ist. Viele Fragen stellen sich als unwichtig heraus - aber erst im Nachhinein. Wir können also nichts Besseres tun, als die wissenschaftliche Vielfalt zu fördern. Jeder Versuch, schon im Vorhinein nur Fragen auszuwählen, die »garantiert« einer Untersuchung wert sind, kann das Ergebnis nur verschlechtern. Die Vielfalt der Möglichkeiten verlangt nach Verantwortung, die aber nicht nur eine Angelegenheit des Wissenschaftlers ist, sondern der Gemeinschaft, der er angehört. Heutzutage wird Wissenschaft allzu oft in einem abgesonderten gesellschaftlichen Bereich betrieben, was dazu führt, dass in den anderen Bereichen ihr gegenüber ein Gefühl von Misstrauen und Machtlosigkeit entsteht. Es ist unsere Aufgabe als -249
Wissenschaftler, nach außen zu gehen und öffentlich zu machen, was Wissenschaft ist, was sie kann - und was sie nicht kann. Ich hoffe, dass ich mit diesem Buch wenigstens ein wenig den Weg in diese Richtung geebnet habe.
-250
Julius Robert Mayer soll auf recht merkwürdige Weise zu seinem Energiekonzept angeregt worden sein: durch den Anblick eines Pferdes, das schwitzend eine schwere Last einen Berg hinaufziehen musste. Er kam auf den Gedanken, dass das Pferd nicht deshalb schweißbedeckt war, weil es sich vorwärts bewegte, sondern wegen der körperlichen Arbeit, die es leisten musste, um sich zu bewegen. Er machte damit aus der Frage einer Beziehung von Wärme und Bewegung eine Frage nach der Beziehung von Wärme und der Arbeit, die nötig ist, um die Bewegung zu bewirken. Nach der Umformulierung der Frage zog er drei weitreichende Schlüsse. Der erste war, dass bei der Verwendung von Wärme zum Antrieb einer Maschine (z.B. einer Dampfmaschine) und umgekehrt bei der Arbeit, die man leistet, um etwas zu erwärmen (z.B. wenn wir uns die Hände reiben), beide - Arbeit und Wärme - geradewegs ineinander übergeführt werden: Aus Wärme wird Arbeit, aus Arbeit wird Wärme. Diese Idee war schon bemerkenswert genug, aber Mayer ging noch weiter und schloss, dass es für die Transformation von Wärme in Arbeit (und umgekehrt) ein festes Verhältnis geben müsse. Andernfalls, so folgerte er, könnte man aus einer kleinen Portion Wärme beliebig viel Arbeit gewinnen: Man musste einfach aus der anfangs erzeugten Arbeit wieder -251
Wärme gewinnen und hätte dann mehr als die, mit der alles begonnen hat. Solche Prozesse gibt es aber nicht sonst könnten wir eine Boeing 747 zum Fliegen bringen, indem wir ein Streichholz anzünden. Es gibt einfach nichts geschenkt (und im Schwabenland, wo Mayer herstammt, schon gar nicht). Mayer versuchte seine Überlegungen zu beweisen, indem er 1842 ein Experiment in einer Papierfabrik durchfü hrte: Er maß die Erwärmung in einem riesigen Kessel, in dem Papierbrei von einem Rührlöffel umgewälzt wurde, den ein im Kreis herumlaufendes Pferd antrieb. So konnte er das Verhältnis der Erwärmung zur mechanischen Arbeit bestimmen, die das Pferd leistete: das so genannte Wärmeäquivalent.1 Mayers Experimente waren sehr grob und werden heute in den Lehrbüchern nicht mehr angeführt, obwohl er der Erste war, der sich einen solchen Versuch überlegte und ihn durchführte. Den Ruhm heimste stattdessen ein englischer Brauer namens James Prescott Joule ein, der wenig später ein Schaufelrad einsetzte, das durch ein langsam fallendes Gewicht angetrieben wurde und Wasser in einem Behälter in Bewegung versetzte. Joule stellte fest, dass die Wassertemperatur um das Doppelte anstieg, wenn sich das Gewicht um die doppelte Höhe senkte. Grob gesprochen: Die doppelte mechanische Arbeit führte zur doppelten Erwärmung.2 Joule verdient die Ehre für die ersten Experimente, die genau genug waren und die Gelehrtenwelt überzeugten, weil sie jederzeit wiederholt werden konnten. Was allerdings Mayers dritte und wichtigste Erkenntnis betrifft, kann man seinen Prioritätsanspruch kaum zurückweisen: Mayer hatte die Idee, dass man mechanische Arbeit und Wärme nicht nur ineinander verwandeln könne, sondern dass beide nur unterschiedliche Formen ein und derselben »Sache« sind - einer Größe, die später »Energie« genannt wurde. Was Mayer damit ausdrückte, wurde später als Energieerhaltungssatz bekannt und zählt zu den Eckpfeilern der modernen Naturwissenschaft. Und doch wurde -252
Mayer zunächst nicht mit dieser Entdeckung verbunden, er hatte nämlich einen großen Makel: Er war ein Außenseiter. Einige der führenden Naturwissenschaftler der damaligen Zeit verteidigten ihn und erkannten seine Pionierleistung an, andere aber, insbesondere der britische Mathematiker und Physiker Peter Guthrie Tait, hatten für Mayers reichlich metaphysischen Stil der Beweisführung nur Hohn und Verachtung übrig, schmähten ihn als Ausländer und behaupteten, er »unterminiere die Methoden der experimentellen Naturwissenschaft«. Selbst sein Landsmann Hermann Helmholtz, der zunächst die neuen Ideen unterstützt hatte, machte sich später über seine »PseudoBeweise« lustig. Nach so viel Kritik von allen Seiten bekam Mayer Depressionen und wollte sich umbringen. Vor den Augen seiner Frau sprang er 1850 aus dem Fenster seines Hauses zehn Meter in die Tiefe. Glücklicherweise misslang der Versuch: Er überlebte - und überlebte auch die Zwangsjacken der Göppinger Irrenanstalt des Dr. Landerer, wohin er gebracht wurde, weil er dauernd von einer »großen Entdeckung« faselte. Nach der Entlassung wurde seine Pioniertat schließlich anerkannt, wenn auch seine Experimente nicht alle von der Richtigkeit seiner bemerkenswerten Idee zu überzeugen vermochten. Mayer war ein Mann der Ideen, Joule setzte mehr auf die Praxis. Er wollte die Theorie mit harten Fakten konfrontieren und beweisen, dass die erzeugte Wärme direkt proportional zur mechanischen Arbeit ist. Wenn das stimmte, würden alle weiteren Schlüsse, die Mayer gezogen hatte, daraus folgen. Zunächst musste Joule definieren, was eigentlich »mechanische Arbeit« bedeutet. Mayer war an diesem Punkt sehr vage geblieben. Offensichtlich leisten wir mechanische Arbeit, wenn wir einen Gegenstand bewegen, indem wir ihn schieben oder ziehen - mit anderen Worten: indem wir Kraft anwenden. Es war wohl reine Intuition, als Joule annahm, dass die Arbeit, um einen Gegenstand zu bewegen, nur von zwei Größen abhängt: zum einen von der Kraft, die wir aufwenden, -253
und zum anderen von der Wegstrecke, die wir den Gegenstand bewegen. 3 Je weiter wir ein Auto schieben, dessen Motor streikt, und je fester wir zupacken müssen, umso mehr Arbeit leisten wir. Mathematisch ausgedrückt gilt: »Arbeit = Kraft x Weg« eine Definition, die unmittelbar einleuchtet. Diese intuitive Vorstellung von »Arbeit« liegt fast der gesamten modernen Physik zugrunde - so beziehen sich alle Messungen der »Energie« darauf, welche Arbeit sie leisten kann. Wenn man heute »Energie« für den Grundstoff des Universums hält, ist also eine genaue Definition von »Arbeit« entscheidend. Joules so einfach erscheinende intuitive Wahl hat sich als brauchbar erwiesen. Mit ihr erhält man ein in sich geschlossenes, widerspruchsfreies Bild, das auch gegenwärtig noch unsere Vorstellungen bestimmt. Ich finde es höchst bemerkenswert, dass die gesamte heutige Physik bei all der Strenge, die in ihr gilt, eine ganz intuitiv entstandene Definition zu ihrer Grundlage hat. Joule verstand es, seine Hypothese durch das erwähnte Schaufelradexperiment praktisch zu belegen. Kurz nach dem Experiment heiratete er und ging mit seiner Frau auf Hochzeitsreise zu den berühmten Wasserfällen im Tal von Chamonix in den Schweizer Alpen. Man kann sich den Kummer seiner Frau vorstellen, als sie entdecken musste, dass ihr Gatte heimlich ein Thermometer in den Honeymoon mitgenommen hatte. Er wollte damit die Temperatur im Wasserfall bei verschiedenen Fallhöhen messen. Ihr Kummer wurde nur noch von seinem übertroffen, als er feststellte, dass ein möglicher Temperatureffekt im Wasser nicht messbar war, da die kalte Umgebungsluft jede Erwärmung sofort wegtransportierte. Mayers Erkenntnis ist inzwischen in dem Sinne erweitert worden, dass alle denkbaren Formen von Energie ineinander umgewandelt werden können. Alle Energieformen können beispielsweise in Wärme verwandelt und beim Kochen und -254
Backen verwendet werden. Der letzte Schritt gelang dann Einstein, als er zeigen konnte, dass selbst Materie eine Energieform darstellt, die in einem Kernkraftwerk (oder in einer Atombombe) direkt zu Wärme wird. Mayers Gedanke ist inzwischen als erster von drei »Hauptsätzen der Thermodynamik« formuliert worden. Dieser wohlbekannte (wenn auch nicht immer richtig verstandene) Satz besagt, dass Energie weder erzeugt noch zerstört werden kann. Der zweite Hauptsatz drückt aus, dass nur am absoluten Nullpunkt die verschiedenen Formen von Energie zu 100 Prozent in Arbeit verwandelt werden können, während sonst immer ein Teil zu Wärme wird. Der dritte Hauptsatz stellt schließlich fest, dass man den absoluten Nullpunkt nie ganz erreichen kann. Es ist wie beim Glücksspiel: Man kann letztlich nicht gewinnen - aber man kann auch nicht aufhören.
-255
Der Einfluss, den die Temperatur auf die Moleküle von Nahrungsmitteln hat, hängt von der Art der Moleküle ab. Man kann dabei vier Haupttypen unterscheiden, deren Struktur in Abbildung Anh. 2 dargestellt ist: Wasser, Fette, Kohlehydrate und Eiweiße (oder Proteine). Vom Standpunkt des Küchenchefs aus gesehen hat die Natur einen Fehlgriff getan, als sie Wasser zur universellen flüssigen Basis unserer Existenz bestimmte, denn was die gute Küche betrifft, ist Wasser wenig aufregend. Es mag ja sein, dass es lebenswichtig ist, aber gastronomisch gesehen ist es nicht nur ein Unglück, dass sein Geschmack langweilig ist, sondern auch, dass es bei einer Temperatur siedet, bei der kaum interessante Gärungsprozesse ablaufen. Angenehm an dieser hohen Siedetemperatur ist immerhin, dass man kochendes Wasser in der Küche häufig als sichere und wirkungsvolle Methode zur Übertragung von Wärme einsetzen kann. Anfangs erreichen nur die Moleküle an der Oberfläche eines Gerichts im Kochtopf 100 °C. Das Geheimnis bei der Verwendung von kochendem Wasser besteht darin, die Kochzeit so einzurichten, dass sich das Innere des Kochguts nur auf eine Idealtemperatur aufheizt, die meist deutlich unter 100°C liegt. Auch das Wasser in den Nahrungsmitteln selbst trägt oft zu erwünschten Veränderungen bei. Wenn wir beispiels weise Reis, Nudeln oder Kartoffeln kochen, dient das Wasser nicht nur als Transportmittel für die Wärme, sondern verändert auch die Struktur und den Wohlgeschmack des Kochguts. Benötigt man höhere Temperaturen als 100°C, muss man für den Wärmetransport auf Fette und Öle zurückgreifen. Sie stellen zugleich wichtige Bestandteile vieler Nahrungsmittel dar, weil die meisten Geschmacksrichtungen, die wir beim Essen -256
wahrnehmen, an ölartige Bestandteile gebunden sind - was auch der Grund ist, warum fettarme Diätkost so »blass« schmeckt. Wird Fett oder Öl verdaut, so wird doppelt soviel Energie frei, wie bei der gleichen Menge an Kohlehydraten.
Abbildung Anhang 2.: Computerdarstellungen der verschiedenen Typen von Molekülen, die für die Ernährung eine Rolle spielen. Die Atome sind als Kugeln wiedergegeben, die chemischen Bindungen als Stäbchen zwischen den Atomen. Die Darstellungen zeigen die Form und die Komplexität der verschiedenen Molekültypen. a) Wasser: Das Wassermolekül besteht aus nur drei Atomen: einem Sauerstoffatom in der Mitte, das mit zwei Wasserstoffatomen verbunden ist. b) Fette: Fette verfügen über drei Fettsäuren, das sind Kohlenwasserstoffketten, die aus Kohlenstoffatomen bestehen, an die jeweils Wasserstoffatome gebunden sind. Die drei Ketten hängen an einem Glycerolmolekül (links im Bild), das die Kopfgruppe bildet. Fettmoleküle bestehen in der Regel aus einigen hundert Atomen. Bei dem abgebildeten Fettmolekül handelt es sich um ein ungesättigtes Fett, was bedeutet, dass in mindestens einer der Ketten eine Valenz frei ist und die Kette gekrümmt ist, wie wenn man ihr in den Magen getreten hätte. Das hier abgebildete Molekül ist doppelt-ungesättigt. c) Kohlehydrate: Kohlehydrate sind aus kleinen Zuckermolekülen wie Glucose zusammengesetzt. Glucose -257
besteht aus einem Ring von fünf Kohlenstoffatomen und einem Sauerstoffatom, an die außen Gruppen aus Sauerstoff- und Wasserstoffatomen angedockt sind. Insgesamt sind es 24 Atome. Die meisten Kohlehydrate - wie die Stärke von Kartoffeln oder Getreide - bestehen aus vielen solchen Ringen, die in einer Linie verbunden sind und Tausende von Atomen enthalten können. d) Eiweisse: Auch Eiweiße wie das Albumin des Hühnereis, das hier gezeigt wird, können Tausende von Atomen enthalten. Sie sind zu Ketten verbunden, die Spiralen, Flächen oder wie zufällig durcheinander geschüttelte Haufen bilden können. Die Struktur eines solchen Durcheinanders wird deutlicher, wenn man sich auf die Ketten und nicht auf die Lage der einzelnen Atome konzentriert. Hier sind vier Albumin moleküle räumlich dargestellt.
Öl ist Fett in geschmolzenem, flüssigem Zustand. Zwischen den Ölen, die man als Schmiermittel im Auto einsetzt und den Ölen in der Küche gibt es einen großen Unterschied: An den Ölmolekülen der Nahrung hängen drei Ketten aus Kohlenstoffatomen, Schmierölmoleküle haben nur eine. Die Bauweise dieser Ketten ist für das Verhalten des Öls oder Fetts bei der Erwärmung verantwortlich. Ist die Temperatur tief genug, liegen die Ketten Seite an Seite und können einen festen Kristall bilden. Fettmoleküle mit geraden Ketten -»gesättigte« Fette - sind dicht gepackt, vibrieren nur wenig um ihren Platz im Kristallgitter und benötigen relativ viel Energie zum Trennen der Ketten. Fettmoleküle mit gewundenen Ketten »ungesättigte« Fette - sind weniger fest gepackt, leichter