Angewandte Mathematik: Body and Soul
K. Eriksson · D. Estep · C. Johnson
Angewandte Mathematik: Body and Soul [BAND 3]
Analysis in mehreren Dimensionen
Übersetzt von Josef Schüle Mit 170 Abbildungen
123
Donald Estep
Kenneth Eriksson Claes Johnson Chalmers University of Technology Department of Mathematics 41296 Göteborg, Sweden e-mail: kenneth|
[email protected]
Colorado State University Department of Mathematics Fort Collins, CO 80523-1874, USA e-mail:
[email protected]
Übersetzer: Josef Schüle Technische Universität Braunschweig Rechenzentrum Hans-Sommer-Str. 65 38106 Braunschweig email:
[email protected]
Englische Originalausgabe erschienen bei Springer Heidelberg, 2003.
Mathematics Subject Classification (2000): 15-01, 34-01, 49-01, 65-01, 70-01, 76-01
ISBN 3-540-24340-2 Springer Berlin Heidelberg New York Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Satz: Josef Schüle, Braunschweig Druckdatenerstellung und Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: design & production, Heidelberg Gedruckt auf säurefreiem Papier
SPIN 11335283
46/3142/YL - 5 4 3 2 1 0
Den Studierenden der Chemieingenieurwissenschaften an der Chalmers Universit¨at zwischen 1998–2002, die mit Begeisterung an der Entwicklung des Reformprojekts, das zu diesem Buch gef¨uhrt hat, teilgenommen haben.
Vorwort
Ich gebe zu, dass alles und jedes in seinem Zustand verharrt, solange es keinen Grund zur Ver¨ anderung gibt. (Leibniz)
Die Notwendigkeit fu ¨r eine Reform der Mathematikausbildung Die Ausbildung in Mathematik muss nun, da wir in ein neues Jahrtau¨ send schreiten, reformiert werden. Diese Uberzeugung teilen wir mit einer schnell wachsenden Zahl von Forschern und Lehrern sowohl der Mathematik als auch natur- und ingenieurwissenschaftlicher Disziplinen, die auf mathematischen Modellen aufbauen. Dies hat nat¨ urlich seine Ursache in der Revolution der elektronischen Datenverarbeitung, die grundlegend die M¨ oglichkeiten f¨ ur den Einsatz mathematischer und rechnergest¨ utzter Techniken in der Modellbildung, Simulation und der Steuerung realer Vorg¨ange ver¨ andert hat. Neue Produkte k¨ onnen mit Hilfe von Computersimulationen in Zeitspannen und zu Kosten entwickelt und getestet werden, die um Gr¨ oßenordnungen kleiner sind als mit traditionellen Methoden, die auf ausgedehnten Laborversuchen, Berechnungen von Hand und Versuchszyklen basieren. Von zentraler Bedeutung f¨ ur die neuen Simulationstechniken sind die neuen Disziplinen des so genannten Computational Mathematical Modeling (CMM) wie die rechnergest¨ utzte Mechanik, Physik, Str¨omungsmechanik, Elektromagnetik und Chemie. Sie alle beruhen auf der Kombination von
VIII
Vorwort
L¨ osungen von Differentialgleichungen auf Rechnern und geometrischer Modellierung/Computer Aided Design (CAD). Rechnergest¨ utzte Modellierung er¨ offnet auch neue revolution¨ are Anwendungen in der Biologie, Medizin, ¨ den Okowissenschaften, Wirtschaftswissenschaften und auf Finanzm¨arkten. Die Ausbildung in Mathematik legt die Grundlage f¨ ur die natur- und ingenieurwissenschaftliche Ausbildung an Hochschulen und Universit¨aten, da diese Disziplinen weitgehend auf mathematischen Modellen aufbauen. Das Niveau und die Qualit¨ at der mathematischen Ausbildung bestimmt daher maßgeblich das Ausbildungsniveau im Ganzen. Die neuen CMM/CAD Techniken u ¨ berschreiten die Grenze zwischen traditionellen Ingenieurwissenschaften und Schulen und erzwingen die Modernisierung der Ausbildung in den Ingenieurwissenschaften in Inhalt und Form sowohl bei den Grundlagen als auch bei weiterf¨ uhrenden Studien.
Unser Reformprogramm Unser Reformprogramm begann vor etwa 20 Jahren in Kursen in CMM f¨ ur fortgeschrittene Studierende. Es hat u ¨ber die Jahre erfolgreich die Grundlagenausbildung in Infinitesimalrechnung und linearer Algebra beeinflusst. Unser Ziel wurde der Aufbau eines vollst¨ andigen Lehrangebots f¨ ur die mathematische Ausbildung in natur- und ingenieurwissenschaftlichen Disziplinen, angefangen bei Studierenden in den Anfangssemestern bis hin zu Graduierten. Bis jetzt umfasst unser Programm folgende B¨ ucher: 1. Computational Differential Equations, (CDE) 2. Angewandte Mathematik: Body & Soul I–III, (AM I–III) 3. Applied Mathematics: Body & Soul IV–, (AM IV–). Das vorliegende Buch AM I–III behandelt in drei B¨anden I–III die Grundlagen der Infinitesimalrechnung und der linearen Algebra. AM IV– erscheint ab 2003 als Fortsetzungsreihe, die speziellen Anwendungsbereichen gewidmet ist, wie Dynamical Systems (IV), Fluid Mechanics (V), Solid Mechanics (VI) und Electromagnetics (VII). Das 1996 erschienene Buch CDE kann als erste Version des Gesamtprojekts Applied Mathematics: Body & Soul angesehen werden. Außerdem beinhaltet unser Lehrangebot verschiedene Software (gesammelt im mathematischen Labor) und erg¨ anzendes Material mit schrittweisen Einf¨ uhrungen f¨ ur Selbststudien, Aufgaben mit L¨osungen und Projekten. Die Website dieses Buches erm¨ oglicht freien Zugang dazu. Unser Ehrgeiz besteht darin eine “Box“ mit einem Satz von B¨ uchern, Software und Zusatzmaterial anzubieten, die als Grundlage f¨ ur ein vollst¨andiges Studium,
Vorwort
IX
angefangen bei den ersten Semestern bis zu graduierten Studien, in angewandter Mathematik in natur- und ingenieurwissenschaftlichen Disziplinen dienen kann. Nat¨ urlich hoffen wir, dass dieses Projekt durch st¨andig neu hinzugef¨ ugtes Material schrittweise erg¨ anzt wird. Basierend auf AM I–III haben wir seit Ende 1999 das Studium in angewandter Mathematik f¨ ur angehende Chemieingenieure beginnend mit Erstsemesterstudierenden an der Chalmers Universit¨at angeboten und Teile des Materials von AM IV– in Studieng¨ angen f¨ ur fortgeschrittene Studierende und frisch Graduierte eingesetzt.
Schwerpunkte des Lehrangebots: Das Angebot basiert auf einer Synthese von Mathematik, Datenverarbeitung und Anwendung. Das Lehrangebot basiert auf neuer Literatur und gibt damit von Anfang an eine einheitliche Darstellung, die auf konstruktiven mathematischen Methoden unter Einbeziehung von Berechnungsmethoden f¨ ur Differentialgleichungen basiert. Das Lehrangebot enth¨ alt als integrierten Bestandteil Software unterschiedlicher Komplexit¨ at. Die Studierenden erarbeiten sich fundierte F¨ahigkeiten, um in Matlab Berechnungsmethoden umzusetzen und Anwendungen und Software zu entwickeln. Die Synthese von Mathematik und Datenverarbeitung er¨offnet Anwendungen f¨ ur die Ausbildung in Mathematik und legt die Grundlage f¨ ur den effektiven Gebrauch moderner mathematischer Methoden in der Mechanik, Physik, Chemie und angewandten Disziplinen. Die Synthese, die auf praktischer Mathematik aufbaut, setzt Synergien frei, die es schon in einem fr¨ uhen Stadium der Ausbildung erlauben, komplexe Zusammenh¨ ange zu untersuchen, wie etwa Grundlagenmodelle mechanischer Systeme, W¨armeleitung, Wellenausbreitung, Elastizit¨ at, Str¨ omungen, Elektromagnetismus, Diffusionsprozesse, molekulare Dynamik sowie auch damit zusammenh¨angende Multi-Physics Probleme. Das Lehrangebot erh¨ oht die Motivation der Studierenden dadurch, dass bereits von Anfang an mathematische Methoden auf interessante und wichtige praktische Probleme angewendet werden. Schwerpunkte k¨ onnen auf Probleml¨ osungen, Projektarbeit und Pr¨asentationen gelegt werden.
X
Vorwort
Das Lehrangebot vermittelt theoretische und rechnergest¨ utzte Werkzeuge und baut Vertrauen auf. Das Lehrangebot enth¨ alt einen Großteil des traditionellen Materials aus Grundlagenkursen in Analysis und linearer Algebra. Das Lehrangebot schließt vieles ein, das ansonsten oft in traditionellen Programmen vernachl¨ assigt wird, wie konstruktive Beweise aller grundlegenden S¨ atze in Analysis und linearer Algebra und fortgeschrittener Themen sowie nicht lineare Systeme algebraischer Gleichungen bzw. Differentialgleichungen. Studierenden soll ein tiefes Verst¨ andnis grundlegender mathematischer Konzepte, wie das der reellen Zahlen, Cauchy-Folgen, LipschitzStetigkeit und konstruktiver Werkzeuge f¨ ur die L¨osung algebraischer Gleichungen bzw. Differentialgleichungen, zusammen mit der Anwendung dieser Werkzeuge in fortgeschrittenen Anwendungen wie etwa der molekularen Dynamik, vermittelt werden. Das Lehrangebot l¨ asst sich mit unterschiedlicher Schwerpunktssetzung sowohl in mathematischer Analysis als auch in elektronischer Datenverarbeitung umsetzen, ohne dabei den gemeinsamen Kern zu verlieren.
AM I–III in Kurzfassung Allgemein formuliert, enth¨ alt AM I–III eine Synthese der Infinitesimalrechnung, linearer Algebra, Berechnungsmethoden und eine Vielzahl von Anwendungen. Rechnergest¨ utzte/praktische Methoden werden verst¨arkt behandelt mit dem doppelten Ziel, die Mathematik sowohl verst¨andlich als auch benutzbar zu machen. Unser Ehrgeiz liegt darin, Studierende fr¨ uh (verglichen zur traditionellen Ausbildung) mit fortgeschrittenen mathematischen Konzepten (wie Lipschitz-Stetigkeit, Cauchy-Folgen, kontrahierende Operatoren, Anfangswertprobleme f¨ ur Differentialgleichungssysteme) und fortgeschrittenen Anwendungen wie Lagrange-Mechanik, Vielteilchen-Systeme, Bev¨ olkerungsmodelle, Elastizit¨at und Stromkreise bekannt zu machen, wobei die Herangehensweise auf praktische/rechnergest¨ utzte Methoden aufbaut. Die Idee dahinter ist es, Studierende sowohl mit fortgeschrittenen mathematischen Konzepten als auch mit modernen Berechnungsmethoden vertraut zu machen und ihnen so eine Vielzahl von M¨oglichkeiten zu er¨offnen, um Mathematik auf reale Probleme anzuwenden. Das steht im Widerspruch zur traditionellen Ausbildung, bei der normalerweise der Schwerpunkt auf analytische Techniken innerhalb eines eher eingeschr¨ankten konzeptionellen Gebildes gelegt wird. So leiten wir Studierende bereits im zweiten
Vorwort
XI
Halbjahr dazu an (in Matlab) einen eigenen L¨oser f¨ ur allgemeine Systeme gew¨ ohnlicher Differentialgleichungen auf gesundem mathematischen Boden zu schreiben (hohes Verst¨ andnis und Kenntnisse in Datenverarbeitung), wohingegen traditionelle Ausbildung sich oft zur selben Zeit darauf konzentriert, Studierende Kniffe und Techniken der symbolischen Integration zu vermitteln. Solche Kniffe bringen wir Studierenden auch bei, aber unser Ziel ist eigentlich ein anderes.
Praktische Mathematik: Body & Soul ¨ In unserer Arbeit kamen wir zu der Uberzeugung, dass praktische Gesichtspunkte der Infinitesimalrechnung und der linearen Algebra st¨arker betont werden m¨ ussen. Nat¨ urlich h¨ angen praktische und rechnergest¨ utzte Mathematik eng zusammen und die Entwicklungen in der Datenverarbeitung haben die rechnergest¨ utzte Mathematik in den letzten Jahren stark vorangetrieben. Zwei Gesichtspunkte gilt es bei der mathematischen Modellierung zu ber¨ ucksichtigen: Den symbolischen Aspekt und den praktisch numerischen. Dies reflektiert die Dualit¨ at zwischen infinit und finit bzw. zwischen kontinuierlich und diskret. Diese beiden Gesichtspunkte waren bei der Entwicklung einer modernen Wissenschaft, angefangen bei der Entwicklung der Infinitesimalrechnung in den Arbeiten von Euler, Lagrange und Gauss bis hin zu den Arbeiten von von Neumann zu unserer Zeit vollst¨andig miteinander verwoben. So findet sich beispielsweise in Laplaces grandiosem f¨ unfb¨ andigen Werk M´ecanique C´eleste eine symbolische Berechnung eines mathematischen Modells der Gravitation in Form der Laplace-Gleichung zusammen mit ausf¨ uhrlichen numerischen Berechnungen zur Planetenbewegung in unserem Sonnensystem. Beginnend mit der Suche nach einer exakten und strengen Formulierung der Infinitesimalrechnung im 19. Jahrhundert begannen sich jedoch symbolische und praktische Gesichtspunkte schrittweise zu trennen. Die Trennung beschleunigte sich mit der Erfindung elektronischer Rechenmaschinen ab 1940. Danach wurden praktische Aspekte in die neuen Disziplinen numerische Analysis und Informatik verbannt und haupts¨achlich außerhalb mathematischer Institute weiterentwickelt. Als ungl¨ uckliches Ergebnis zeigt sich heute, dass symbolische reine Mathematik und praktische numerische Mathematik weit voneinander entfernte Disziplinen sind und kaum zusammen gelehrt werden. Typischerweise treffen Studierende zuerst auf die Infinitesimalrechnung in ihrer reinen symbolischen Form und erst viel sp¨ ater, meist in anderem Zusammenhang, auf ihre rechnerische Seite. Dieser Vorgehensweise fehlt jegliche gesunde wissenschaftliche Motivation und sie verursacht schwere Probleme in Vorlesungen der Physik, Mechanik und angewandten Wissenschaften, die auf mathematischen Modellen beruhen.
XII
Vorwort
Durch eine fr¨ uhe Synthese von praktischer und reiner Mathematik er¨offnen sich neue M¨ oglichkeiten, die sich in der Synthese von Body & Soul widerspiegelt: Studierende k¨ onnen mit Hilfe rechnergest¨ utzter Verfahren bereits zu Beginn der Infinitesimalrechnung mit nicht-linearen Differentialgleichungssystemen und damit einer F¨ ulle von Anwendungen vertraut gemacht werden. Als weitere Konsequenz werden die Grundlagen der Infinitesimalrechnung, mit ihrer Vorstellung zu reellen Zahlen, Cauchy-Folgen, Konvergenz, Fixpunkt-Iterationen, kontrahierenden Operatoren, aus dem Schrank mathematischer Skurrilit¨ aten in das echte Leben mit praktischen Erfahrungen verschoben. Mit einem Schlag l¨asst sich die mathematische Ausbildung damit sowohl tiefer als auch breiter und anspruchsvoller gestalten. Diese Idee liegt dem vorliegenden Buch zugrunde, das im Sinne eines Standardlehrbuchs f¨ ur Ingenieure alle grundlegenden S¨atze der Infinitesimalrechnung zusammen mit deren Beweisen enth¨alt, die normalerweise nur in Spezialkursen gelehrt werden, zusammen mit fortgeschrittenen Anwendungen wie nicht-lineare Differentialgleichungssysteme. Wir haben festgestellt, dass dieses scheinbar Unm¨ ogliche u ¨ berraschend gut vermittelt werden kann. Zugegeben, dies ist kaum zu glauben ohne es selbst zu erfahren. Wir hoffen, dass die Leserin/der Leser sich dazu ermutigt f¨ uhlt.
Lipschitz-Stetigkeit und Cauchy-Folgen Die u ¨ blichen Definitionen der Grundbegriffe Stetigkeit und Ableitung, die in den meisten modernen B¨ uchern u ¨ ber Infinitesimalrechnung zu finden sind, basieren auf Grenzwerten: Eine reellwertige Funktion f (x) einer reellen x) ist. f (x) heißt Variablen x heißt stetig in x ¯, wenn limx→¯x f (x) = f (¯ ableitbar in x¯ mit der Ableitung f (¯ x), wenn lim
x→¯ x
f (x) − f (¯ x) x−x ¯
existiert und gleich f (¯ x) ist. Wir gebrauchen daf¨ ur andere Definitionen, die ohne den st¨ orenden Grenzwert auskommen: Eine reellwertige Funktion f (x) heißt Lipschitz-stetig auf einem Intervall [a, b] mit der Lipschitz-Konstanten ur alle x, x¯ ∈ [a, b] Lf , falls f¨ ¯| |f (x) − f (¯ x)| ≤ Lf |x − x gilt. Ferner heißt f (x) bei uns ableitbar in x ¯ mit der Ableitung f (¯ x), wenn eine Konstante Kf (¯ x) existiert, so dass f¨ ur alle x in der N¨ahe von x¯ x)(x − x ¯)| ≤ Kf (¯ x)|x − x ¯|2 |f (x) − f (¯ x) − f (¯ gilt. Somit sind unsere Anforderungen an die Stetigkeit und Differenzierbarkeit strenger als u ¨ blich; genauer gesagt, wir verlangen quantitative Gr¨oßen
Vorwort
XIII
Lf und Kf (¯ x), wohingegen die u ¨ blichen Definitionen mit Grenzwerten rein qualitativ arbeiten. Mit diesen strengeren Definitionen vermeiden wir pathologische F¨alle, die Studierende nur verwirren k¨ onnen (besonders am Anfang). Und, wie ausgef¨ uhrt, vermeiden wir so den (schwierigen) Begriff des Grenzwerts, wo in der Tat keine Grenzwertbildung stattfindet. Somit geben wir Studierenden keine Definitionen der Stetigkeit und Differenzierbarkeit, die nahe legen, dass die Variable x stets gegen x ¯ strebt, d.h. stets ein (merkw¨ urdiger) Grenzprozess stattfindet. Tats¨ achlich bedeutet Stetigkeit doch, dass die Differenz f (x) − f (¯ x) klein ist, wenn x − x¯ klein ist und Differenzierbarkeit bedeutet, dass f (x) lokal nahezu linear ist. Und um dies auszudr¨ ucken, brauchen wir nicht irgendeine Grenzwertbildung zu bem¨ uhen. Diese Beispiele verdeutlichen unsere Philosophie, die Infinitesimalrechnung quantitativ zu formulieren, statt, wie sonst u ¨blich, rein qualitativ. Und wir glauben, dass dies sowohl dem Verst¨andnis als auch der Exaktheit hilft und dass der Preis, der f¨ ur diese Vorteile zu bezahlen ist, es wert ist bezahlt zu werden, zumal die verloren gegangene allgemeine G¨ ultigkeit nur einige pathologische F¨ alle von geringerem Interesse beinhaltet. Wir k¨onnen unsere Definitionen nat¨ urlich lockern, zum Beispiel zur H¨older-Stetigkeit, ohne deswegen die quantitative Formulierung aufzugeben, so dass die Ausnahmen noch pathologischer werden. Die u uhen ¨ blichen Definitionen der Stetigkeit und Differenzierbarkeit bem¨ sich um gr¨ oßtm¨ogliche Allgemeinheit, eine der Tugenden der reinen Mathematik, die jedoch pathologische Nebenwirkungen hat. Bei einer praktisch orientierten Herangehensweise wird die praktische Welt ins Interesse gestellt und maximale Verallgemeinerungen sind an sich nicht so wichtig. Nat¨ urlich werden auch bei uns Grenzwertbildungen behandelt, aber nur in F¨ allen, in denen der Grenzwert als solches zentral ist. Hervorzuheben ist dabei die Definition einer reellen Zahl als Grenzwert einer Cauchy-Folge rationaler Zahlen und die L¨ osung einer algebraischen Gleichung oder Differentialgleichung als Grenzwert einer Cauchy-Folge von N¨aherungsl¨osungen. Cauchy-Folgen spielen bei uns somit eine zentrale Rolle. Aber wir suchen nach einer konstruktiven Ann¨ aherung mit m¨oglichst praktischem Bezug, um Cauchy-Folgen zu erzeugen. In Standardwerken zur Infinitesimalrechnung werden Cauchy-Folgen und Lipschitz-Stetigkeit im Glauben, dass diese Begriffe zu kompliziert f¨ ur Anf¨ anger seien, nicht behandelt, wohingegen der Begriff der reelle Zahlen undefiniert bleibt (offensichtlich glaubt man, dass ein Anf¨anger mit diesem Begriff von Kindesbeinen an vertraut sei, so dass sich jegliche Diskussion er¨ ubrige). Im Gegensatz dazu spielen diese Begriffe von Anfang an eine entscheidende Rolle in unserer praktisch orientierten Herangehensweise. Im Besonderen legen wir erh¨ ohten Wert auf die grundlegenden Gesichtspunkte der Erzeugung reeller Zahlen (betrachtet als m¨oglicherweise nie endende dezimale Entwicklung).
XIV
Vorwort
Wir betonen, dass eine konstruktive Ann¨aherung das mathematische Leben nicht entscheidend komplizierter macht, wie es oft von Formalisten/Logikern f¨ uhrender mathematischer Schulen betont wird: Alle wichtigen S¨ atze der Infinitesimalrechnung und der linearen Algebra u ¨berleben, ¨ m¨ oglicherweise mit einigen unwesentlichen Anderungen, um den quantitativen Gesichtspunkt beizubehalten und ihre Beweise strenger f¨ uhren zu k¨ onnen. Als Folge davon k¨ onnen wir grundlegende S¨atze wie den der impliziten Funktionen, den der inversen Funktionen, den Begriff des kontrahierenden Operators, die Konvergenz der Newtonschen Methode in mehreren Variablen mit vollst¨ andigen Beweisen als Bestandteil unserer Grundlagen der Infinitesimalrechnung aufnehmen: S¨ atze, die in Standardwerken als zu schwierig f¨ ur dieses Niveau eingestuft werden.
Beweise und S¨atze Die meisten Mathematikb¨ ucher wie auch die u ¨ ber Infinitesimalrechnung praktizieren den Satz-Beweis Stil, in dem zun¨achst ein Satz aufgestellt wird, der dann bewiesen wird. Dies wird von Studierenden, die oft ihre Schwierigkeiten mit der Art und Weise der Beweisf¨ uhrung haben, selten gesch¨ atzt. Bei uns wird diese Vorgehensweise normalerweise umgekehrt. Wir formulieren zun¨ achst Gedanken, ziehen Schlussfolgerungen daraus und stellen dann den zugeh¨ origen Satz als Zusammenfassung der Annahme und der Ergebnisse vor. Unsere Vorgehensweise l¨ asst sich daher eher als Beweis-Satz Stil bezeichnen. Wir glauben, dass dies in der Tat oft nat¨ urlicher ist als der Satz-Beweis Stil, zumal bei der Entwicklung der Gedanken die notwendigen Erg¨ anzungen, wie Hypothesen, in logischer Reihenfolge hinzugef¨ ugt werden k¨ onnen. Der Beweis ¨ ahnelt dann jeder ansonsten u ¨ blichen Schlussfolgerung, bei der man ausgehend von einer Anfangsbetrachtung unter gewissen Annahmen (Hypothesen) Folgerungen zieht. Wir hoffen, dass diese Vorgehensweise das oft wahrgenommene Mysterium von Beweisen nimmt, ganz einfach schon deswegen, weil die Studierenden gar nicht merken werden, dass ein Beweis gef¨ uhrt wird; es sind einfach logische Folgerungen wie im t¨ aglichen Leben auch. Erst wenn die Argumentationslinie abgeschlossen ist wird sie als Beweis bezeichnet und die erzielten Ergebnisse zusammen mit den notwendigen Hypothesen in einem Satz zusammengestellt. Als Folge davon ben¨ otigen wir in der Latexfassung dieses Buches die Satzumgebung, aber nicht eine einzige Beweisumgebung; der Beweis ist nur eine logische Gedankenfolge, die einem Satz, der die Annahmen und das Hauptergebnis beinhaltet, vorangestellt wird.
Vorwort
XV
Das mathematische Labor Wir haben unterschiedliche Software entwickelt, um unseren Lehrgang in einer Art mathematischem Labor zu unterst¨ utzen. Einiges dieser Software dient der Veranschaulichung mathematischer Begriffe wie die L¨osung von Gleichungen, Lipschitz-Stetigkeit, Fixpunkt-Iterationen, Differenzierbarkeit, der Definition des Integrals und der Analysis von Funktionen mehrerer Ver¨ anderlichen; anderes ist als Ausgangsmodell f¨ ur eigene Computerprogramme von Studierenden gedacht; wieder anderes, wie die L¨oser f¨ ur Differentialgleichungen, sind f¨ ur Anwendungen gedacht. St¨andig wird neue Software hinzugef¨ ugt. Wir wollen außerdem unterschiedliche MultimediaDokumente zu verschiedenen Teilen des Stoffes hinzuzuf¨ ugen. In unserem Lehrprogramm erhalten Studierende von Anfang an ein Traiur Berechnungen. Die Entning im Umgang mit MATLAB als Werkzeug f¨ wicklung praktischer mathematischer Gesichtspunkte grundlegender Themen wie reelle Zahlen, Funktionen, Gleichungen, Ableitungen und Integrale geht Hand in Hand mit der Erfahrung, Gleichungen mit FixpunktIterationen oder der Newtonschen Methode zu l¨osen, der Quadratur, numerischen Methoden oder Differentialgleichungen. Studierende erkennen aus ihrer eigenen Erfahrung, dass abstrakte symbolische Konzepte tief mit praktischen Berechnungen verwurzelt sind, was ihnen einen direkten Zugang zu Anwendungen in physikalischer Realit¨at vermittelt.
Besuchen sie http://www.phi.chalmers.se/bodysoul/ Das Applied Mathematics: Body & Soul Projekt hat eine eigene Website, die zus¨ atzliches einf¨ uhrendes Material und das mathematische Labor (Mathematics Laboratory) enth¨ alt. Wir hoffen, dass diese Website f¨ ur Studierende zum sinnvollen Helfer wird, der ihnen hilft, den Stoff (selbst¨andig) zu verdauen und durchzugehen. Lehrende m¨ ogen durch diese Website angeregt werden. Außerdem hoffen wir, dass diese Website als Austauschforum f¨ ur Ideen und Erfahrungen im Zusammenhang mit diesem Projekt genutzt wird und wir laden ausdr¨ ucklich Studierende und Lehrende ein, sich mit eigenem Material zu beteiligen.
Anerkennung Die Autoren dieses Buches m¨ ochten ihren herzlichen Dank an die folgenden Kollegen und graduierten Studenten f¨ ur ihre wertvollen Beitr¨age, Korrekturen und Verbesserungsvorschl¨ age ausdr¨ ucken: Rickard Bergstr¨om, Niklas Eriksson, Johan Hoffman, Mats Larson, Stig Larsson, M˚ arten Levenstam, Anders Logg, Klas Samuelsson und Nils Svanstedt, die alle aktiv an unse-
XVI
Vorwort
rem Reformprojekt teilgenommen haben. Und nochmals vielen Dank allen Studierenden des Studiengangs zum Chemieingenieur an der Chalmers Universit¨ at, die damit belastet wurden, neuen, oft unvollst¨andigen Materialien ausgesetzt zu sein und die viel enthusiastische Kritik und R¨ uckmeldung gegeben haben. Dem MacTutor Archiv f¨ ur Geschichte der Mathematik verdanken wir die mathematischen Bilder. Einige Bilder wurden aus ¨alteren Exemplaren des Jahresberichts des Schwedischen Technikmuseums, Daedalus, kopiert.
My heart is sad and lonely for you I sigh, dear, only Why haven’t you seen it I’m all for you body and soul (Green, Body and Soul)
Inhalt Band 3
Mehr-dimensionale Infinitesimalrechnung
815
54 Vektorwertige Funktionen mehrerer reeller Variablen 54.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 54.2 Kurven in Rn . . . . . . . . . . . . . . . . . . . . . . . 54.3 Verschiedene Parametrisierungen einer Kurve . . . . . 54.4 Oberfl¨ achen in Rn f¨ ur n ≥ 3 . . . . . . . . . . . . . . . 54.5 Lipschitz-Stetigkeit . . . . . . . . . . . . . . . . . . . . 54.6 Jacobi-Matrix, Gradient und Tangente . . . . . . . . . 54.7 Die Kettenregel . . . . . . . . . . . . . . . . . . . . . . 54.8 Der Mittelwertsatz . . . . . . . . . . . . . . . . . . . . 54.9 Die Richtung des steilsten Abstiegs und der Gradient . 54.10 Ein Minimumspunkt ist ein station¨arer Punkt . . . . . 54.11 Die Methode des steilsten Abstiegs . . . . . . . . . . . 54.12 Richtungsableitungen . . . . . . . . . . . . . . . . . . . 54.13 Partielle Ableitungen h¨ oherer Ordnung . . . . . . . . . 54.14 Der Satz von Taylor . . . . . . . . . . . . . . . . . . . 54.15 Der Kontraktionssatz . . . . . . . . . . . . . . . . . . . 54.16 Nullstellen von f : Rn → Rn . . . . . . . . . . . . . . . 54.17 Der Satz zur inversen Funktion . . . . . . . . . . . . . 54.18 Der Satz u ¨ber implizite Funktionen . . . . . . . . . . . 54.19 Die Newton-Methode . . . . . . . . . . . . . . . . . . . 54.20 Ableitung unter dem Integral . . . . . . . . . . . . . .
817 817 818 819 820 821 822 827 827 829 831 831 832 832 834 835 837 838 839 840 841
XVIII
Inhalt Band 3
55 H¨ ohenlinien/Niveaufl¨ achen und der Gradient 55.1 H¨ ohenlinien . . . . . . . . . . . . . . . . . . . 55.2 Lokale Existenz von H¨ ohenlinien . . . . . . . 55.3 H¨ ohenlinien und der Gradient . . . . . . . . . 55.4 Niveaufl¨ achen . . . . . . . . . . . . . . . . . . 55.5 Lokale Existenz von Niveaufl¨ achen . . . . . . 55.6 Niveaufl¨ achen und der Gradient . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
845 845 847 847 849 849 849
56 Linearisierung und Stabilit¨ at von Anfangswertproblemen 56.1 Einleitung . . . . . . . . . . . . . . . . . . . . . 56.2 Station¨ are L¨ osungen . . . . . . . . . . . . . . . 56.3 Linearisierung bei einer station¨ aren L¨osung . . 56.4 Stabilit¨ atsanalyse f¨ ur symmetrisches f (¯ u) . . . 56.5 Stabilit¨ atsfaktoren . . . . . . . . . . . . . . . . 56.6 Stabilit¨ at zeitabh¨ angiger L¨ osungen . . . . . . . 56.7 Zusammenfassung . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
853 853 854 854 856 856 859 860
57 Adaptive L¨ oser f¨ ur AWP 57.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . 57.2 Die cG(1)-Methode . . . . . . . . . . . . . . . . . 57.3 Adaptive Zeitschrittkontrolle f¨ ur cG(1) . . . . . . 57.4 Analyse von cG(1) f¨ ur ein lineares skalares AWP 57.5 Analyse von cG(1) f¨ ur ein allgemeines AWP . . . 57.6 Analyse des r¨ uckw¨ artigen Euler Verfahrens . . . 57.7 Steife Anfangswertprobleme . . . . . . . . . . . . 57.8 Explizite Zeitschrittwahl f¨ ur steife Probleme . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
863 863 864 866 867 869 871 873 876
58 Lorenz und das Wesentliche am Chaos* 58.1 Einleitung . . . . . . . . . . . . . . . . 58.2 Das Lorenz-System . . . . . . . . . . . 58.3 Die Genauigkeit der Berechnungen . . 58.4 Berechenbarkeit des Lorenz-Systems . 58.5 Die Herausforderung . . . . . . . . . .
. . . . .
. . . . .
. . . . .
883 883 884 887 888 891
59 Das Sonnensystem* 59.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . 59.2 Die Newtonsche Gleichung . . . . . . . . . . . . . . . 59.3 Die Einsteinsche Gleichung . . . . . . . . . . . . . . 59.4 Ein System von gew¨ ohnlichen Differentialgleichungen 59.5 Vorhersagbarkeit und Berechenbarkeit . . . . . . . . 59.6 Adaptive Zeitschrittwahl . . . . . . . . . . . . . . . . 59.7 Grenzen der Berechenbarkeit und Vorhersagbarkeit .
. . . . . . .
895 895 898 899 901 904 905 906
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Inhalt Band 3
XIX
60 Optimierung 60.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 60.2 Sortieren f¨ ur endliches Ω . . . . . . . . . . . . . . . . . 60.3 Was tun, wenn Ω nicht endlich ist? . . . . . . . . . . . 60.4 Die Existenz eines Minimums . . . . . . . . . . . . . . 60.5 In einem inneren Minimum ist die Ableitung gleich Null 60.6 Die Rolle der Hesseschen Matrix . . . . . . . . . . . . 60.7 Minimierungsalgorithmen: Der steilste Abstieg . . . . 60.8 Existenz eines Minimalwerts und eines Minimums . . . 60.9 Existenz einer gr¨ oßten unteren Schranke . . . . . . . . 60.10 Konstruierbarkeit eines Minimums und eines Minimalwerts . . . . . . . . . . . . . . . . . . . . . . . 60.11 Eine beschr¨ ankte abnehmende Folge konvergiert! . . .
909 909 911 911 912 913 916 917 918 920
61 Divergenz, Rotation und Laplace-Operator 61.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . 61.2 Betrachtung f¨ ur R2 . . . . . . . . . . . . . . . . . . . 61.3 Der Laplace-Operator in Polarkoordinaten . . . . . . 61.4 Einige wichtige Beispiele . . . . . . . . . . . . . . . . 61.5 Der Laplace-Operator bei starren Koordinatentransformationen . . . . . . . . . . . . . . . . . . . . . . . 61.6 Betrachtung f¨ ur R3 . . . . . . . . . . . . . . . . . . . 61.7 Weitere wichtige Beispiele . . . . . . . . . . . . . . . 61.8 Der Laplace-Operator in sph¨ arischen Koordinaten . .
. . . .
925 925 926 927 928
. . . .
928 929 930 931
62 Meteorologie und Corioliskraft* 62.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 62.2 Ein grundlegendes meteorologisches Modell . . . . . . 62.3 Rotierende Koordinatensysteme und die Coriolisbeschleunigung . . . . . . . . . . . . . . . . . .
935 935 936
63 Kurvenintegrale 63.1 Einleitung . . . . . . . . . . . . . . 63.2 Die L¨ ange einer Kurve in R2 . . . . 63.3 Kurvenintegrale . . . . . . . . . . . 63.4 Reparametrisierung . . . . . . . . . 63.5 Arbeit und Linienintegrale . . . . . 63.6 Arbeit und Gradientenfelder . . . . 63.7 Die Bogenl¨ ange als Parameter . . . 63.8 Die Kr¨ ummung einer ebenen Kurve 63.9 Erweiterung auf Kurven in Rn . . .
. . . . . . . . .
941 941 941 943 944 945 947 948 949 950
64 Doppelintegrale 64.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 64.2 Doppelintegrale u ¨ ber dem Einheitsquadrat . . . . . . .
953 953 954
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
921 922
937
XX
Inhalt Band 3
64.3 64.4 64.5 64.6 64.7 64.8 64.9
Doppelintegrale mit Hilfe ein-dimensionaler Integration Verallgemeinerung auf ein beliebiges Rechteck . . . . . Interpretation des Doppelintegrals als Volumen . . . . Erweiterung auf beliebige Gebiete . . . . . . . . . . . . Iterierte Integrale u ¨ ber allgemeine Gebiete . . . . . . . Die Fl¨ ache eines zwei-dimensionalen Gebiets . . . . . . Das Integral als Grenzwert einer allgemeinen Riemannschen Summe . . . . . . . . . . . . . . . . . . 64.10 Substitution bei Doppelintegralen . . . . . . . . . . . .
65 Oberfl¨ achenintegrale 65.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . 65.2 Die Fl¨ ache einer Oberfl¨ ache . . . . . . . . . . . . . 65.3 Die Fl¨ ache der Oberfl¨ ache des Graphen einer Funktion zweier Variabler . . . . . . . . . . . . . . 65.4 Oberfl¨ achen von Drehk¨ orpern . . . . . . . . . . . . 65.5 Unabh¨ angigkeit von der Parametrisierung . . . . . 65.6 Oberfl¨ achenintegrale . . . . . . . . . . . . . . . . . 65.7 Das Tr¨ agheitsmoment einer d¨ unnen kugelf¨ormigen Schale . . . . . . . . . . . . . . . . . . . . . . . . . 66 Mehrfachintegrale 66.1 Einleitung . . . . . . . . . . . . . . . . . . . . . 66.2 Dreifachintegrale u urfel . . . ¨ ber dem Einheitsw¨ 66.3 Dreifachintegrale u ¨ ber allgemeine Gebiete in R3 66.4 Das Volumen eines drei-dimensionalen Gebiets 66.5 Dreifachintegrale als Grenzwerte Riemannscher Summen . . . . . . . . . . . . . . . . . . . . . . 66.6 Substitution bei Dreifachintegralen . . . . . . . 66.7 Drehk¨ orper . . . . . . . . . . . . . . . . . . . . 66.8 Das Tr¨ agheitsmoment einer Kugel . . . . . . .
957 960 960 961 963 964 964 965
. . . .
971 971 971
. . . .
. . . .
974 974 975 976
. .
977
. . . .
. . . .
. . . .
. . . .
981 981 981 982 983
. . . .
. . . .
. . . .
. . . .
984 985 987 988
67 Der Satz von Gauss und die Greensche Formel in R2 67.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 67.2 Der Spezialfall eines Quadrats . . . . . . . . . . . . . . 67.3 Der Allgemeinfall . . . . . . . . . . . . . . . . . . . . .
991 991 992 992
68 Der Satz von Gauss und die Greensche Formel in R3 68.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 68.2 George Green . . . . . . . . . . . . . . . . . . . . . . .
1001 1001 1004
69 Der Satz von Stokes 69.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 69.2 Der Spezialfall einer Fl¨ ache in einer Ebene . . . . . . . 69.3 Verallgemeinerung auf eine beliebige ebene Fl¨ache . . .
1007 1007 1009 1010
Inhalt Band 3
69.4
XXI
Eine durch eine ebene Kurve beschr¨ankte Fl¨ache . . .
1011
70 Potentialfelder 70.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 70.2 Ein rotationsfreies Feld ist ein Potentialfeld . . . . . . 70.3 Ein Gegenbeispiel f¨ ur ein nicht konvexes Ω . . . . . . .
1015 1015 1016 1018
71 Massenschwerpunkt und archimedisches 71.1 Einleitung . . . . . . . . . . . . . . . . 71.2 Massenschwerpunkt . . . . . . . . . . . 71.3 Das archimedische Prinzip . . . . . . . 71.4 Die Stabilit¨ at schwimmender K¨ orper .
1021 1021 1022 1025 1027
Prinzip* . . . . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
72 Der Albtraum von Newton*
1031
73 Laplacesche Modelle 73.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . 73.2 W¨ armeleitung . . . . . . . . . . . . . . . . . . . . . . 73.3 Die W¨ armegleichung . . . . . . . . . . . . . . . . . . 73.4 Die station¨ are W¨ armeleitung: Die Poisson-Gleichung 73.5 Ein Modell f¨ ur Konvektion, Diffusion und Reaktion . 73.6 Eine elastische Membran . . . . . . . . . . . . . . . . 73.7 L¨ osung der Poisson-Gleichung . . . . . . . . . . . . . 73.8 Die Wellengleichung: Eine schwingende elastische Membran . . . . . . . . . . . . . . . . . . . . . . . . 73.9 Str¨ omungsmechanik . . . . . . . . . . . . . . . . . . 73.10 Die Maxwellschen Gleichungen . . . . . . . . . . . . 73.11 Die Gravitation . . . . . . . . . . . . . . . . . . . . . 73.12 Das Eigenwertproblem f¨ ur den Laplace-Operator . . 73.13 Quantenmechanik . . . . . . . . . . . . . . . . . . . .
. . . . . . .
1037 1037 1037 1040 1041 1043 1044 1046
. . . . . .
1047 1048 1054 1059 1063 1065
74 Chemische Reaktionen* 74.1 Konstante Temperatur . . . . . . . . . . . . . . . . . . 74.2 Ver¨ anderliche Temperatur . . . . . . . . . . . . . . . . 74.3 R¨ aumliche Abh¨ angigkeit . . . . . . . . . . . . . . . . .
1071 1071 1074 1075
75 Werkzeugkoffer: Infinitesimalrechnung II 75.1 Einleitung . . . . . . . . . . . . . . . . . 75.2 Lipschitz-Stetigkeit . . . . . . . . . . . . 75.3 Differenzierbarkeit . . . . . . . . . . . . 75.4 Die Kettenregel . . . . . . . . . . . . . . 75.5 Der Mittelwertsatz f¨ ur f : Rn → R . . . 75.6 Ein Minimum ist ein station¨ arer Punkt . 75.7 Der Satz von Taylor . . . . . . . . . . . 75.8 Der Kontraktionssatz . . . . . . . . . . .
1077 1077 1077 1077 1078 1078 1078 1078 1079
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
XXII
Inhalt Band 3
75.9 75.10 75.11 75.12 75.13 75.14 75.15 75.16
Der Satz zur inversen Funktion . . Die Newtonsche Methode . . . . . Differential-Operatoren . . . . . . . Kurvenintegrale . . . . . . . . . . . Mehrfachintegrale . . . . . . . . . . Oberfl¨ achenintegrale . . . . . . . . Die Greensche Formel und der Satz Der Satz von Stokes . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . von Gauss . . . . . . .
76 St¨ uckweise lineare Polynome in R2 und R3 76.1 Einleitung . . . . . . . . . . . . . . . . . . . . 76.2 Die Triangulierung eines Gebiets in R2 . . . . 76.3 Die Erzeugung von Gittern in R3 . . . . . . . 76.4 St¨ uckweise lineare Funktionen . . . . . . . . . 76.5 Fehlerabsch¨ atzungen mit der Maximum-Norm 76.6 Sobolev und seine R¨ aume . . . . . . . . . . . 76.7 Quadratur in R2 . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
1079 1079 1079 1080 1080 1081 1081 1082
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
1083 1083 1084 1087 1087 1091 1094 1095
f¨ ur Randwertprobleme in R2 und R3 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . Richard Courant: Erfinder der FEM . . . . . . . . . . Variationsformulierung . . . . . . . . . . . . . . . . . . Die cG(1)-FEM . . . . . . . . . . . . . . . . . . . . . . Wichtige Datenstrukturen . . . . . . . . . . . . . . . . Die L¨ osung des diskreten Systems . . . . . . . . . . . . Ein ¨ aquivalentes Minimierungsproblem . . . . . . . . . Eine a priori Fehlerabsch¨ atzung in der Energienorm . . Eine a posteriori Fehlerabsch¨ atzung in der Energienorm Adaptive Fehlerkontrolle . . . . . . . . . . . . . . . . . Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . Nicht homogene Dirichlet-Randbedingungen . . . . . . Eine L-f¨ ormige Membran . . . . . . . . . . . . . . . . . Robin- und Neumann-Randbedingungen . . . . . . . . Das station¨ are Problem f¨ ur Konvektion, Diffusion und Reaktion . . . . . . . . . . . . . . . . . . . . . . . . . . 77.16 Das zeitabh¨ angige Problem f¨ ur Konvektion, Diffusion und Reaktion . . . . . . . . . . . . . . . . . . . . . . . 77.17 Die Wellengleichung . . . . . . . . . . . . . . . . . . . 77.18 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . .
77 FEM 77.1 77.2 77.3 77.4 77.5 77.6 77.7 77.8 77.9 77.10 77.11 77.12 77.13 77.14 77.15
78 Inverse Probleme 78.1 Einleitung . . . . . . 78.2 Ein inverses Problem Konvektion . . . . . 78.3 Ein inverses Problem
. . f¨ ur . . f¨ ur
. . die . . die
. . . . . . . . . . . . . . . ein-dimensionale . . . . . . . . . . . . . . . ein-dimensionale Diffusion
1099 1099 1100 1101 1101 1108 1109 1110 1111 1112 1114 1116 1117 1118 1119 1121 1122 1123 1124 1129 1129 1131 1134
Inhalt Band 3
78.4 78.5 78.6
XXIII
Ein inverses Problem f¨ ur die Poisson-Gleichung . . . . Ein inverses Problem f¨ ur die Laplace-Gleichung . . . . Die r¨ uckw¨ artige W¨ armegleichung . . . . . . . . . . . .
1136 1138 1140
79 Optimale Kontrolle 79.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . ∂L 79.2 Die Verbindung zwischen dJ dp und ∂p . . . . . . . . . .
1145 1145 1147
80 Werkzeugkoffer: Differentialgleichungen 80.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . 80.2 Die Gleichung u (x) = λ(x)u(x) . . . . . . . . . . . 80.3 Die Gleichung u (x) = λ(x)u(x) n + f (x) . . . . . . . 80.4 Die Differentialgleichung k=0 ak Dk u(x) = 0 . . . 80.5 Der ged¨ ampfte lineare Oszillator . . . . . . . . . . 80.6 Die Exponentialfunktion einer Matrix . . . . . . . 80.7 Fundamentall¨ osungen des Laplace-Operators . . . . 80.8 Die ein-dimensionale Wellengleichung . . . . . . . . 80.9 Numerische Methoden f¨ ur AWPe . . . . . . . . . . 80.10 cG(1) f¨ ur Konvektion, Diffusion und Reaktion . . . 80.11 Die Formel von Svensson f¨ ur die Laplace-Gleichung 80.12 Optimale Kontrolle . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
1151 1152 1152 1152 1152 1153 1153 1154 1154 1154 1155 1155 1156
81 Werkzeugkoffer: Anwendungen 81.1 Einleitung . . . . . . . . . . . . . . . . . . . . . 81.2 Malthus und Populationswachstum . . . . . . . 81.3 Die logistische Gleichung . . . . . . . . . . . . . 81.4 Das Masse-Feder-Pralltopf System . . . . . . . 81.5 Der LCR-Stromkreis . . . . . . . . . . . . . . . 81.6 Die Laplace-Gleichung f¨ ur die Gravitation . . . 81.7 Die W¨ armegleichung . . . . . . . . . . . . . . . 81.8 Die Wellengleichung . . . . . . . . . . . . . . . 81.9 Konvektion, Diffusion und Reaktion . . . . . . 81.10 Die Maxwellschen Gleichungen . . . . . . . . . 81.11 Die inkompressiblen Navier-Stokes-Gleichungen 81.12 Die Schr¨ odingergleichung . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
1157 1157 1157 1157 1158 1158 1158 1158 1158 1158 1159 1159 1159
82 Analytische Funktionen 82.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 82.2 Die Definition einer analytischen Funktion . . . . . . . 82.3 Die Ableitung als Grenzwert von Differenzenquotienten 82.4 Lineare Funktionen sind analytisch . . . . . . . . . . . 82.5 Die Funktion f (z) = z 2 ist analytisch . . . . . . . . . . 82.6 Die Funktion f (z) = z n ist analytisch f¨ ur n = 1, 2, . . . . 82.7 Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . 82.8 Die Funktion f (z) = z −n . . . . . . . . . . . . . . . . .
1161 1161 1161 1163 1164 1164 1164 1164 1165
. . . . . . . . . . . .
. . . . . . . . . . . .
XXIV
82.9 82.10 82.11 82.12 82.13 82.14 82.15 82.16 82.17 82.18 82.19 82.20 82.21 82.22 82.23 82.24 82.25 82.26 82.27 82.28 82.29 82.30 82.31 82.32 82.33 82.34 82.35
Inhalt Band 3
Die Cauchy-Riemann Gleichungen . . . . . . . . . . . Die Cauchy-Riemann Gleichungen und die Ableitung . Die Cauchy-Riemann Gleichungen in Polarkoordinaten Der Real- und der Imagin¨ arteil einer analytischen Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . Konjugiert harmonische Funktionen . . . . . . . . . . . Die Ableitung einer analytischen Funktion ist analytisch Kurven in der komplexen Ebene . . . . . . . . . . . . . Konforme Abbildungen . . . . . . . . . . . . . . . . . . Verschiebung, Rotation, Ausdehnung bzw. Kontraktion Inversion . . . . . . . . . . . . . . . . . . . . . . . . . . M¨ obius-Abbildungen . . . . . . . . . . . . . . . . . . . w = z 1/2 , w = ez , w = log(z) und w = sin(z) . . . . . Komplexe Integrale: Ein erster Versuch . . . . . . . . . Komplexe Integrale: Der Allgemeinfall . . . . . . . . . Wichtige Eigenschaften des komplexen Integrals . . . . Die Taylor-Formel: Ein erster Versuch . . . . . . . . . Der Satz von Cauchy . . . . . . . . . . . . . . . . . . . Die Cauchysche Integralformel . . . . . . . . . . . . . . Die Taylor-Formel: Ein zweiter Versuch . . . . . . . . Potenzreihenentwicklungen von analytischen Funktionen . . . . . . . . . . . . . . . . . . . . . . . . Laurentreihen . . . . . . . . . . . . . . . . . . . . . . . Das Residuum: Einfache Pole . . . . . . . . . . . . . . Das Residuum: Pole beliebiger Ordnung . . . . . . . . Der Residuensatz . . . . . . . . . . . . . . . . . . . . . 2π Berechnung von 0 R(sin(t), cos(t)) dt . . . . . . . . . ∞ p(x) Berechnung von −∞ q(x) dx . . . . . . . . . . . . . . . Anwendungen f¨ ur die Potentialtheorie in R2 . . . . . .
83 Fourier-Reihen 83.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 83.2 Anlauf I: Orthonormale Basis in C . . . . . . . . . . . 83.3 Anlauf II: Reihen . . . . . . . . . . . . . . . . . . . . . 83.4 Komplexe Fourier-Reihen . . . . . . . . . . . . . . . . 83.5 Fourier-Reihen als Entwicklung in einer orthonormalen Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.6 Abgeschnittene Fourier-Reihen und beste L2 -N¨aherung 83.7 Reelle Fourier-Reihen . . . . . . . . . . . . . . . . . . . 83.8 Grundlegende Eigenschaften der Fourier-Koeffizienten 83.9 Die Fourier-Inversion . . . . . . . . . . . . . . . . . . . 83.10 Parseval- und Plancheral-Formeln . . . . . . . . . . . . 83.11 Orts- versus Frequenzanalyse . . . . . . . . . . . . . . 83.12 Verschiedene Perioden . . . . . . . . . . . . . . . . . .
1165 1166 1167 1167 1168 1168 1169 1170 1172 1172 1173 1174 1175 1176 1178 1178 1179 1180 1182 1183 1185 1186 1188 1189 1190 1190 1191 1199 1199 1202 1202 1203 1205 1205 1206 1209 1214 1216 1217 1218
Inhalt Band 3
83.13 83.14 83.15 83.16
Weierstrasssche Funktionen . . . . . . . . . . . . . . . L¨ osung der W¨ armegleichung mit Fourier-Reihen . . . . Berechnung von Fourier-Koeffizienten durch Quadratur Die diskrete Fourier-Transformation . . . . . . . . . .
84 Fourier-Transformation 84.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . 84.2 Wichtige Eigenschaften der Fourier-Transformierten 84.3 Die Fourier-Transformierte f(ξ) strebt f¨ ur |ξ| → ∞ gegen 0 . . . . . . . . . . . . . . . . . . . . . . . . . 84.4 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . 84.5 Die Formel f¨ ur die Inversion . . . . . . . . . . . . . . 84.6 Die Parseval-Formel . . . . . . . . . . . . . . . . . . 84.7 Die L¨ osung der W¨ armegleichung mit Hilfe der Fourier-Transformation . . . . . . . . . . . . . . . . . 84.8 Fourier-Reihen und Fourier-Transformation . . . . . 84.9 Der Abtastsatz . . . . . . . . . . . . . . . . . . . . . 84.10 Die Laplace-Transformation . . . . . . . . . . . . . . 84.11 Wavelets und die Haar Basis . . . . . . . . . . . . . . 85 Werkzeugkoffer: Analytische Funktionen 85.1 Differenzierbarkeit und analytische Eigenschaft . . 85.2 Die Cauchy-Riemann Gleichungen . . . . . . . . . 85.3 Real- und Imagin¨ arteil einer analytischen Funktion 85.4 Konjugiert harmonische Funktionen . . . . . . . . . 85.5 Kurven in der komplexen Ebene . . . . . . . . . . . 85.6 Eine analytische Funktion definiert eine konforme Abbildung . . . . . . . . . . . . . . . . . . . . . . . 85.7 Komplexe Integrale . . . . . . . . . . . . . . . . . . 85.8 Der Satz von Cauchy . . . . . . . . . . . . . . . . . 85.9 Die Cauchysche Integralformel . . . . . . . . . . . . 85.10 Die Taylor-Formel . . . . . . . . . . . . . . . . . . 85.11 Der Residuensatz . . . . . . . . . . . . . . . . . . . 86 Werkzeugkoffer: Fourier-Analyse 86.1 Eigenschaften der Fourier-Koeffizienten . . 86.2 Faltung . . . . . . . . . . . . . . . . . . . 86.3 Fourier-Reihen . . . . . . . . . . . . . . . 86.4 Die Parseval-Formel . . . . . . . . . . . . 86.5 Diskrete Fourier-Transformation . . . . . . 86.6 Fourier-Transformation . . . . . . . . . . . 86.7 Eigenschaften der Fourier-Transformierten 86.8 Der Abtastsatz . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
XXV
1218 1219 1220 1221
. .
1225 1225 1227
. . . .
1229 1229 1230 1232
. . . . .
1232 1233 1233 1234 1235
. . . . .
. . . . .
1239 1239 1239 1240 1240 1240
. . . . . .
. . . . . .
1241 1241 1241 1241 1242 1242
. . . . . . . .
1243 1243 1243 1244 1244 1244 1244 1245 1246
. . . . . . . .
XXVI
Inhalt Band 3
87 Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach 87.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . 87.2 Die inkompressiblen Navier-Stokes-Gleichungen . . . . 87.3 Die zentrale Energieabsch¨ atzung f¨ ur Navier-Stokes . . 87.4 Lions und seine Schule . . . . . . . . . . . . . . . . . . 87.5 Turbulenz: Lipschitz-Stetigkeit zum Exponenten 1/3? . 87.6 Existenz und Eindeutigkeit von L¨ osungen . . . . . . . 87.7 Numerische Methoden . . . . . . . . . . . . . . . . . . 87.8 Die stabilisierte cG(1)dG(0)-Methode . . . . . . . . . . 87.9 Die cG(1)cG(1)-Methode . . . . . . . . . . . . . . . . . 87.10 Die cG(1)dG(1)-Methode . . . . . . . . . . . . . . . . 87.11 Neumann-Randbedingungen . . . . . . . . . . . . . . . 87.12 Berechnungsbeispiele . . . . . . . . . . . . . . . . . . .
1247 1247 1248 1249 1250 1251 1252 1253 1253 1255 1256 1256 1258
Literaturverzeichnis
1263
Sachverzeichnis
1265
Band 3 Mehr-dimensionale Infinitesimalrechnung ∆u = ∇ · ∇u ∂u − ∆u = f ∂t ∂ 2u − ∆u = f ∂t2 i
1 ∂u = − ∆u + V u ∂t 2
∂u + u · ∇u − ν∆u = f, ∂t
∇·u=0
∇ × H = J,
B = µH.
∇ · B = 0,
54 Vektorwertige Funktionen mehrerer reeller Variablen
Auch die Chemiker m¨ ussen sich allm¨ ahlich an den Gedanken gew¨ ohnen, dass ihnen die theoretische Chemie ohne die Beherrschung der Elemente der h¨ oheren Analysis ein Buch mit sieben Siegeln bleiben wird. Ein Differential- oder Integralzeichen muss aufh¨ oren, f¨ ur den Chemiker eine unverst¨ andliche Hieroglyphe zu sein, . . . wenn er sich nicht der Gefahr aussetzen will, f¨ ur die Entwicklung der theoretischen Chemie jedes Verst¨ andnis zu verlieren. (H. Jahn, Grundriss der Elektrochemie, 1895)
54.1 Einleitung Wir wenden uns nun der Erweiterung zentraler Begriffe wie der LipschitzStetigkeit und der Differenzierbarkeit f¨ ur reellwertige Funktionen einer reellen Variablen auf vektorwertige Funktionen mehrerer reeller Variablen zu. Wir sind gut darauf vorbereitet, so dass die Erweiterung so nat¨ urlich und glatt wie m¨ oglich verlaufen wird. Wir werden sehen, dass die Beweise der zentralen S¨ atze, wie der der Kettenregel, der Mittelwertsatz, der Satz von Taylor, der der kontrahierenden Abbildung und der zu inversen Funktionen, sich fast wortw¨ ortlich auf die kompliziertere Situation von vektorwertigen Funktionen mehrerer reeller Variablen u ¨bertragen lassen. Wir betrachten Funktionen f : Rn → Rm , die in dem Sinne vektorwertig sind, dass der Wert f (x) = (f1 (x), . . . , fm (x)) ein Vektor in Rm ist, mit den Komponenten fi : Rn → R f¨ ur i = 1, . . . , m, mit fi (x) = fi (x1 , . . . , xn ) und
818
54. Vektorwertige Funktionen mehrerer reeller Variablen
x = (x1 , . . . , xn ) ∈ Rn . Wie u ¨ blich betrachten wir x = (x1 , . . . , xn ) als einen n-Spaltenvektor und f (x) = (f1 (x), . . . , fm (x)) als einen m-Spaltenvektor. Als ein besonderes Beispiel vektorwertiger Funktionen betrachten wir zun¨ achst Kurven, das sind Funktionen g : R → Rn , und Oberfl¨achen, das sind Funktionen g : R2 → Rn . Dann werden wir zusammengesetzte Funktionen f ◦ g : R → Rm betrachten, wobei g : R → Rn eine Kurve ist und f : Rn → Rm , wobei f ◦ g wiederum eine Kurve ist. Wir erinnern daran, dass f ◦ g(t) = f (g(t)). Die Argumente, die wir f¨ ur die Funktionen benutzen werden, haben ihren Ursprung im n-dimensionalen Vektorraum Rn , weswegen es lohnenswert ist, die Eigenschaften von Rn zu betrachten. Von besonderem Interesse ist dabei die Schreibweise der Cauchy-Folge und die Konvergenz von Folgen (j) (j) (j) = (x1 , . . . ., xn ) ∈ Rn mit den Koordinaten {x(j) }∞ j=1 von Vektoren x xk , k = 1, . . . , n. Wir sagen, dass die Folge {x(j) }∞ j=1 eine Cauchy-Folge ist, wenn f¨ ur alle > 0 eine nat¨ urliche Zahl N existiert, so dass (j)
x(i) − x(j) ≤
f¨ ur i, j > N.
n Hierbei ist · die euklidische Norm in Rn , d.h. x = ( i=1 x2i )1/2 . n Manchmal ist es auch angemessen, mit den Normen x1 = i=1 |xi | und x∞ = maxi=1,...,n |xi | zu arbeiten. Wir sagen, dass die Folge {x(j) }∞ j=1 von Vektoren in Rn gegen x ∈ Rn konvergiert, wenn f¨ ur alle > 0 eine nat¨ urliche Zahl N existiert, so dass x − x(i) ≤ f¨ ur i > N. Es l¨ asst sich einfach zeigen, dass eine konvergente Folge eine Cauchy-Folge ist und umgekehrt, dass eine Cauchy-Folge konvergiert. Wir erhalten diese Ergebnisse, wenn wir die entsprechenden Ergebnisse f¨ ur Folgen in R auf jede der Koordinaten der Vektoren in Rn anwenden. 2 (i) Beispiel 54.1. Die Folge {x(i) }∞ = (1−i−2 , exp(−i)) konvergiert i=1 in R , x gegen (1, 0).
54.2 Kurven in Rn Eine Funktion g : I → Rn , wobei I = [a, b] ein Intervall reeller Zahlen ist, ist eine Kurve in Rn , vgl. Abb. 54.1. Wenn wir t als unabh¨angige Variable in I benutzen, nennen wir die Kurve g(t) durch die Variable t parametrisiert. Wir bezeichnen auch die Menge der Punkte Γ = {g(t) ∈ Rn : t ∈ I} als die durch die Funktion g : I → Rn parametrisierte Kurve Γ. Beispiel 54.2. Das einfachste Beispiel einer Kurve ist eine Gerade. Die Funktion g : R → R2 : g(t) = x ¯ + ta,
54.3 Verschiedene Parametrisierungen einer Kurve
819
4 3.5
x3
3 2.5 2 1.5 1 0.5 0 2 1
2 1
0
x2
0 −1
−1 −2
−2
x1
Abb. 54.1. Die Kurve g : [0, 4] → R3 mit g(t) = t1/2 cos(πt), t1/2 sin(πt),t
1
4
3
a
x2
2
x2
0.5
x ¯
0
x2 = 1 + x31 /3
1
0
−1
−0.5 −2
−1.5
−1
−0.5
0
0.5
1
1.5
2
−2 −2
−1.5
−1
x1
−0.5
0
0.5
1
1.5
2
x1
Abb. 54.2. Links: Die Kurve g(t) = x ¯ + ta. Rechts: Eine Kurve g(t) = (t, f (t))
mit a ∈ R2 und x ¯ ∈ R2 ist eine Gerade in R2 durch den Punkt x ¯ in Richtung a, vgl. Abb. 54.2. Beispiel 54.3. Sei f : [a, b] → R gegeben. Wir definieren g : [a, b] → R2 durch g(t) = (g1 (t), g2 (t)) = (t, f (t)). Diese Kurve ist einfach der Graph der Funktion f : [a, b] → R, vgl. Abb. 54.2.
54.3 Verschiedene Parametrisierungen einer Kurve Wir k¨ onnen f¨ ur die Menge an Punkten einer Kurve verschiedene Parametrisierungen benutzen. Ist h : [c, d] → [a, b] eine eins-zu-eins Abbildung, dann ist die zusammengesetzte Funktion f = g ◦ h : [c, d] → R2 eine durch g : [a, b] → R2 definierte Reparametrisierung der Kurve {g(t) : t ∈ [a, b]}. Beispiel 54.4. Die Funktion f : [0, ∞) → R3 mit f (τ ) = (τ cos(πτ 2 ), τ sin(πτ 2 ), τ 2 ),
820
54. Vektorwertige Funktionen mehrerer reeller Variablen
ist eine Reparametrisierung der Kurve g : [0, ∞) → R3 , gegeben durch √ √ g(t) = ( t cos(πt), t sin(πt), t), wie wir mit Hilfe von t = h(τ ) = τ 2 erkennen. Es gilt f = g ◦ h.
54.4 Oberfl¨achen in Rn fu ¨r n ≥ 3 Eine Funktion g : Q → Rn mit n ≥ 3 auf einem Teilgebiet Q von R2 kann als Oberfl¨ache S in Rn betrachtet werden, vgl. Abb. 54.3. Wir schreiben g = g(y) mit y = (y1 , y2 ) ∈ Q und sagen, dass S durch y ∈ Q parametrisiert ist. Wir k¨onnen folglich die Oberfl¨ ache S mit der Menge der Punkte ˜ → Rn reS = {g(y) ∈ Rn : y ∈ Q} identifizieren und S durch f = g ◦ h : Q ˜ → Q eine eins-zu-eins Abbildung eines Gebiets parametrisieren, wenn h : Q ˜ in R2 auf Q ist. Q
2 1.5
x3
1 0.5 0 −0.5 −1 −1.5 −2 2 1
2 1
0
x2
0 −1
−1 −2
−2
x1
Abb. 54.3. Die Oberfl¨ ache s(y1 , y2 ) = y1 , y2 , y1 sin (y1 + y2 )π/2 mit ache x3 = x1 sin (x1 + x2 )π/2 −1 ≤ y1 , y2 ≤ 1, oder in Kurzform, die Oberfl¨ f¨ ur −1 ≤ x1 , x2 ≤ 1
Beispiel 54.5. Das einfachste Beispiel f¨ ur eine Oberfl¨ache g : R2 → R3 ist 3 eine Ebene in R , mit ¯ + y1 b1 + y2 b2 , g(y) = g(y1 , y2 ) = x
y ∈ R2 ,
mit x ¯ , b 1 , b 2 ∈ R3 . Beispiel 54.6. Sei f : [0, 1] × [0, 1] → R gegeben und g : [0, 1] × [0, 1] → R3 mit g(y1 , y2 ) = (y1 , y2 , f (y1 , y2 )). Dies ist eine Oberfl¨ache, die dem Graphen von f : [0, 1] × [0, 1] → R entspricht. Wir bezeichnen diese Oberfl¨ache auch kurz als die Oberfl¨ ache, die durch die Funktion x3 = f (x1 , x2 ) mit (x1 , x2 ) ∈ [0, 1] × [0, 1] gegeben ist.
54.5 Lipschitz-Stetigkeit
821
54.5 Lipschitz-Stetigkeit Wir sagen, dass f : Rn → Rm auf Rn Lipschitz-stetig ist, falls es eine Konstante L gibt, so dass f (x) − f (y) ≤ Lx − y f¨ ur alle x, y ∈ Rn .
(54.1)
Diese Definition l¨ asst sich einfach auf Funktionen f : A → Rm erweitern, wobei das Gebiet D(f ) = A eine Untermenge des Rn ist. Beispielsweise kann A der Einheits-n-W¨ urfel [0, 1]n = {x ∈ Rn : 0 ≤ xi ≤ 1, i = 1, . . . , n} oder die Einheits-n-Scheibe {x ∈ Rn : x ≤ 1} sein. Um zu u ufen, ob eine Funktion f : A → Rm auf einer Untermenge ¨berpr¨ n A von R Lipschitz-stetig ist, gen¨ ugt es, zu u ufen, ob die Komponen¨berpr¨ tenfunktionen fi : A → R Lipschitz-stetig sind. Dies kommt daher, weil aus ur i = 1, . . . , m, |fi (x) − fi (y)| ≤ Li x − y f¨ folgt, dass f (x) − f (y)2 =
m i=1
|fi (x) − fi (y)|2 ≤
m
L2i x − y2 ,
i=1
1 woraus wir sehen, dass f (x) − f (y) ≤ Lx − y mit L = ( i L2i ) 2 . Beispiel 54.7. Die durch f (x1 , x2 ) = (x1 + x2 , x1 x2 ) definierte Funktion f : [0, 1] × [0, 1] → R2 ist Lipschitz-stetig zur Lipschitz-Konstanten L = 2. Zur Kontrolle betrachten wir√f1 (x1 , x2 ) = x1 + x2 auf [0, 1] × [0, 1], die zur Lipschitz-Konstanten L1 = 2 Lipschitz-stetig ist, da nach der √ Cauchyschen Ungleichung |f1 (x1 , x2 )−f1 (y1 , y2 )| ≤ |x1 −y1 |+|x2 −y2 | ≤ 2x−y. ¨ Ahnlich ist auch f2 (x1 , x2 ) √ = x1 x2 Lipschitz-stetig auf [0, 1] × [0, 1] zur Lipschitz-Konstanten L2 = 2,√da |x1 x2 − y1 y2 | = |x1 x2 − y1 x2 + y1 x2 − y1 y2 | ≤ |x1 − y1 | + |x2 − y2 | ≤ 2x − y. Beispiel 54.8. Die durch f (x1 , . . . , xn ) = (xn , xn−1 , . . . , x1 ), definierte Funktion f : Rn → Rn ist Lipschitz-stetig zur Lipschitz-Konstanten L = 1, vgl. Abb. 54.4. Beispiel 54.9. Eine lineare Abbildung f : Rn → Rm , die durch eine m × nMatrix A = (aij ) mit f (x) = Ax gegeben ist, wobei x ein n-Spaltenvektor ist, ist Lipschitz-stetig zur Lipschitz-Konstanten L = A. Wir haben diese
822
54. Vektorwertige Funktionen mehrerer reeller Variablen x2
f (¯ x) f (x) x ¯ x x1
Abb. 54.4. Darstellung der Abbildung f (x1 , x2 ) = (x2 , x1 ), die offensichtlich Lipschitz-stetig ist mit L = 1
Beobachtung bereits im Kapitel Analytische Geometrie in Rn“ gemacht. ” Wir wiederholen die Argumente: L = max x=y
f (x) − f (y) Ax − Ay = max x=y x − y x − y = max x=y
A(x − y) Ax = max = A. x=0 x x − y
Bez¨ uglich der Definition der Matrixnorm A m¨ochten wir klarstellen, dass die Funktion F (x) = Ax/x homogen mit der Ordnung Null ist, d.h. F (λx) = F (x) f¨ ur alle von Null verschiedenen reellen Zahlen λ und daher ist A der maximale Wert von F (x) auf der abgeschlossenen und beschr¨ankten Menge {x ∈ Rn : x = 1} und folglich eine endliche reelle Zahl. Wir halten fest, dass f¨ ur eine n × n-Diagonalmatrix A mit Diagonalelementen λi gilt, dass A = maxi |λi |.
54.6 Differenzierbarkeit: Jacobi-Matrix, Gradient und Tangente Wir sagen, dass f : Rn → Rm in x¯ ∈ Rn differenzierbar ist, wenn eine x)), die Jacobi-Matrix der Funktion f (x) in x ¯ m × n-Matrix M (¯ x) = (mij (¯ genannt wird, und eine Konstante Kf (¯ x) existiert, so dass f¨ ur alle x nahe bei x ¯ gilt: (54.2) f (x) = f (¯ x) + M (¯ x)(x − x¯) + Ef (x, x¯), mit dem m-Vektor (Ef (x, x¯)i ), f¨ ur den Ef (x, x¯) ≤ Kf (¯ x) x − x ¯2 gilt. Wir schreiben die Jacobi-Matrix auch Df (¯ x) oder f (¯ x), so dass M (¯ x) =
54.6 Jacobi-Matrix, Gradient und Tangente
823
Df (¯ x) = f (¯ x). Da f (x) ein m-Spaltenvektor ist, bzw. eine m × 1-Matrix, und x ein n-Spaltenvektor, bzw. eine n × 1-Matrix, ist M (¯ x)(x − x¯) das Produkt der m × n-Matrix M (¯ x) mit der n × 1-Matrix x − x ¯, das eine m × 1-Matrix, bzw. einen m-Spaltenvektor, liefert.
Abb. 54.5. Carl Jacobi (1804–51): Es ist oft angenehmer, die Asche eine großen ” Mannes zu besitzen, als den Mann zu seinen Lebzeiten.“ (Zur R¨ uckkehr der ¨ Uberreste von Descartes nach Frankreich)
Wir sagen, dass f : A → Rm f¨ ur eine Untermenge A des Rn auf A differenzierbar ist, wenn f (x) in x ¯ f¨ ur alle x ¯ ∈ A differenzierbar ist. Wir sagen, dass f : A → Rm auf A gleichm¨aßig differenzierbar ist, wenn die Konstante Kf (¯ x) = Kf unabh¨ angig von x ¯ ∈ A gew¨ahlt werden kann. x) der JacobiWir wollen nun zeigen, wie ein spezifisches Element mij (¯ Matrix mit Hilfe der Beziehung (54.2) bestimmt werden kann. Wir betrachten dazu die Koordinatenfunktion fi (x1 , . . . , xn ) und setzen x = x ¯ + sej , wobei ej der j. Einheitsbasisvektor ist und s eine kleine reelle Zahl. Wir ¨ konzentrieren uns auf Ver¨ anderungen in fi (x1 , . . . , xn ) bei Anderungen der Variablen xj in der N¨ ahe von x ¯j . Die Beziehung (54.2) besagt, dass f¨ ur kleine von Null verschiedene reelle Zahlen s x + sej ) = fi (¯ x) + mij (¯ x)s + Ef (¯ x + sej , x ¯)i fi (¯
(54.3)
gilt, wobei x − x ¯2 = sej 2 = s2 impliziert, dass |Ef (¯ x + sej , x ¯)i | ≤ Kf (¯ x)s2 . Wir halten fest, dass nach Voraussetzung Ef (x, x¯) ≤ Kf (¯ x)x − x¯2 und daher erf¨ ullt jede Koordinatenfunktion Ef (¯ x +sej , x ¯)i die Ungleichung |Ef (x, x¯)i | ≤ Kf (¯ x)x − x ¯2 .
824
54. Vektorwertige Funktionen mehrerer reeller Variablen
Die Division durch s in (54.3) und Grenzwertbetrachtung f¨ ur s → 0 f¨ uhrt zu fi (¯ x + sej ) − fi (¯ x) , (54.4) x) = lim mij (¯ s→0 s was auch folgendermaßen geschrieben werden kann: mij (¯ x) = lim
xj →¯ xj
(54.5)
fi (¯ x1 , . . . , x ¯j−1 , xj , x ¯j+1 , . . . , x ¯n ) − fi (¯ x1 , . . . , x ¯j−1 , x ¯j , x ¯j+1 , . . . , x ¯n ) . xj − x ¯j
x) als die partielle Ableitung von fi nach xj in x ¯ und Wir bezeichnen mij (¯ ∂fi ∂fi wir benutzen die alternative Schreibweise mij (¯ x) = ∂x (¯ x ). Um (¯ ∂xj x) zu j berechnen, frieren wir alle Koordinaten außer der Koordinate xj in x ¯ ein und erlauben, dass sich xj in der N¨ ahe von x ¯j ver¨andern kann. Die Formel ∂fi (¯ x) = (54.6) ∂xj fi (¯ x1 , . . . , x ¯j−1 , xj , x ¯j+1 , . . . , x ¯n ) − fi (¯ x1 , . . . , x¯j−1 , x ¯j , x ¯j+1 , . . . , x ¯n ) lim xj →¯ xj xj − x ¯j besagt, dass wir die partielle Ableitung nach der Variablen xj berechnen, indem wir alle anderen Variablen x1 , . . . , xj−1 , xj+1 , . . . , xn konstant halten. Daher sollte uns das Berechnen von partiellen Ableitungen Vergn¨ ugen bereiten, wo wir doch unsere Fertigkeiten bei der Berechnung der Ableitungen von Funktionen mit einer reellen Variablen weiter benutzen k¨onnen! Wir k¨ onnen die Berechnung alternativ, wie folgt, ausdr¨ ucken: ∂fi dgij (0), (¯ x) = mij (¯ x) = gij (0) = ∂xj ds
(54.7)
mit gij (s) = fi (¯ x + sej ). Beispiel 54.10. Sei f : R3 → R mit f (x1 , x2 , x3 ) = x1 ex2 sin(x3 ) gegeben. Wir berechnen ∂f ∂f (¯ x) = ex¯2 sin(¯ x3 ), (¯ x) = x ¯1 ex¯2 sin(¯ x3 ), ∂x1 ∂x2 ∂f (¯ x) = x ¯1 ex¯2 cos(¯ x3 ) ∂x3 und somit f (¯ x) = (ex¯2 sin(¯ x3 ), x ¯1 ex¯2 sin(¯ x3 ), x ¯1 ex¯2 cos(¯ x3 )). exp(x21 + x22 ) gegeben. Wir Beispiel 54.11. Sei f : R3 → R2 mit f (x) = sin(x2 + 2x3 ) berechnen 2x1 exp(x21 + x22 ) 2x2 exp(x21 + x22 ) 0 f (x) = . 0 cos(x2 + 2x3 ) 2 cos(x2 + 2x3 )
54.6 Jacobi-Matrix, Gradient und Tangente
825
Wir haben nun die Berechnung von Elementen der Jacobi-Matrix vorgestellt, indem wir die u ur die Ableitung nach einer reellen ¨ blichen Regel f¨ Variablen anwenden. Dies ¨ offnet uns eine ganz neue Welt von zu erforschenden Anwendungen. Die Voraussetzung dabei ist eine differenzierbare ur die f¨ ur geeignete x, x¯ ∈ Rn gilt: Funktion f : Rn → Rm , f¨ f (x) = f (¯ x) + f (¯ x)(x − x ¯) + Ef (x, x¯),
(54.8)
x)x − x ¯2 , wobei f (¯ x) = Df (¯ x) die m × n-Jacobimit Ef (x, x¯) ≤ Kf (¯ ∂fi Matrix mit den Elementen ∂xj ist: ⎛ ∂f1
x) ∂x1 (¯ ∂f2 x) ∂x1 (¯
⎜ ⎜ f (¯ x) = Df (¯ x) = ⎜ ⎝ ... ∂fm x) ∂x1 (¯
∂f1 x) ∂x2 (¯ ∂f2 x) ∂x2 (¯
...
... ... ... ∂fm x) . . . ∂x2 (¯
⎞ ∂f1 x) ∂xn (¯ ⎟ ∂f2 x) ⎟ ∂xn (¯ ⎟. ⎠
∂fm x) ∂xn (¯
Manchmal nutzen wir auch die folgende Schreibweise f¨ ur die Jacobi-Matrix f (x), einer Funktion y = f (x) mit f : Rn → Rm : f (x) =
dy1 , . . . , dym (x). dx1 , . . . , dxn
(54.9)
Die Funktion x → fˆ(x) = f (¯ x) + f (¯ x)(x − x ¯) wird Linearisierung der Funktion x → f (x) in x = x ¯ genannt. Es gilt x)x + f (¯ x) − f (¯ x)¯ x = Ax + b, fˆ(x) = f (¯ x) und dem m-Spaltenvektor b = f (¯ x) − mit der m × n-Matrix A = f (¯ x)¯ x. Wir sagen, dass fˆ(x) eine affine Abbildung ist, das ist eine Abbilf (¯ dung der Form x → Ax + b, wobei x ein n-Spaltenvektor, A eine m × nMatrix und b ein m-Spaltenvektor ist. Die Jacobi-Matrix fˆ (x) der Linearisierung fˆ(x) = Ax + b ist gleich der konstanten Matrix A, da die partiellen Ableitungen von Ax nach x einfach den Elementen der Matrix A entsprechen. ur die JacobiIst f : Rn → R, d.h. m = 1, dann schreiben wir auch ∇f f¨ Matrix f , d.h. ∂f ∂f f (¯ x) = ∇f (¯ x) = (¯ x), . . . , (¯ x) . ∂x1 ∂xn In Worte gefasst, ist ∇f (¯ x) der n-Zeilenvektor oder die 1 × n-Matrix der ¯. Wir nennen ∇f (¯ x) partiellen Ableitungen von f (x) nach x1 , x2 , . . . , xn in x auch den Gradienten von f (x) in x ¯. Ist f : Rn → R differenzierbar in x ¯, gilt folglich (54.10) f (x) = f (¯ x) + ∇f (¯ x)(x − x ¯) + Ef (x, x¯),
826
54. Vektorwertige Funktionen mehrerer reeller Variablen x3 = f (x1 , x2 ) x3
x) + ∇f (¯ x)(x − x ¯) x3 = f (¯
x2 x ¯ x1 Abb. 54.6. Die Oberfl¨ ache x3 = f (x1 , x2 ) mit ihrer Tangentialebene
mit |Ef (x, x¯)| ≤ Kf (¯ x)x− x ¯2 . fˆ(x) = f (¯ x)+∇f (¯ x)(x− x ¯) ist die Linearisierung von f (x) in x = x ¯. Alternativ k¨ onnen wir das Produkt ∇f (¯ x)(x− x¯) des n-Zeilenvektors (1 × n-Matrix) ∇f (¯ x) mit dem n-Spaltenvektor (n × 1Matrix) (x − x ¯) als das Skalarprodukt ∇f (¯ x) · (x − x ¯) des n-Vektors ∇f (¯ x) mit dem n-Vektor (x − x¯) auffassen. Wir schreiben daher (54.10) oft in der Form: (54.11) x) · (x − x ¯) + Ef (x, x¯). f (x) = f (¯ x) + ∇f (¯
Beispiel 54.12. Ist f : R3 → R mit f (x) = x21 + 2x32 + 3x43 , dann ist ∇f (x) = (2x1 , 6x22 , 12x33 ). Beispiel 54.13. Die Gleichung x3 = f (x) mit f : R2 → R und x = (x1 , x2 ) stellt eine Oberfl¨ ache im R3 dar (den Graphen der Funktion f ). Die Linearisierung x) + ∇f (¯ x) · (x − x ¯) x3 = f (¯ ∂f ∂f (¯ x)(x1 − x ¯1 ) + (¯ x)(x2 − x ¯2 ) = f (¯ x) + ∂x1 ∂x2 ¯2 ) entspricht der Tangentialebene in x = x¯, vgl. Abb. 54.6. mit x ¯ = (¯ x1 , x Beispiel 54.14. Wir betrachten nun eine Kurve f : R → Rm , d.h. f (t) = (f1 (t), . . . , fm (t)) mit t ∈ R. Die Linearisierung t → fˆ(t) = f (t¯)+f (t¯)(t− t¯) in t¯ entspricht einer Geraden in Rm durch den Punkt f (t¯) und die Jacobi ¯ (t)) entspricht der Richtung der Tangente der Matrix f (t¯) = (f1 (t¯), . . . , fm m ¯ Kurve f : R → R in f (t), vgl. Abb. 54.7.
54.7 Die Kettenregel
827
x2
s (t) s(b) s(t) a
t
b
t
s(a)
x1
Abb. 54.7. Die Tangente s (t) an die Kurve s(t)
54.7 Die Kettenregel Seien g : Rn → Rm und f : Rm → Rp gegeben. Wir betrachten die zusammengesetzte Funktion f ◦g : Rn → Rp , die durch f ◦g(x) = f (g(x)) definiert ist. Unter geeigneten Annahmen f¨ ur die Differenzierbarkeit und LipschitzStetigkeit werden wir eine Kettenregel zeigen, mit der die Kettenregel aus dem Kapitel Ableitungsregeln“ mit n = m = p = 1 verallgemeinert wird. ” Mit Hilfe der Linearisierung von f und g erhalten wir x))(g(x) − g(¯ x)) + Ef (g(x), g(¯ x)) f (g(x)) = f (g(¯ x)) + f (g(¯ = f (g(¯ x)) + f (g(¯ x))g (¯ x)(x − x ¯) + f (g(¯ x))Eg (x, x¯) + Ef (g(x), g(¯ x)), wobei wir annehmen, dass x)) ≤ Kf g(x) − g(¯ x)2 ≤ Kf L2g x − x ¯ 2 Ef (g(x), g(¯ und f (g(¯ x))Eg (x, x¯) ≤ f (g(¯ x))Kg x − x ¯2 , mit geeigneten Konstanten Kf und Kg und Lipschitz-Konstanter Lg . Damit haben wir bewiesen: ¯ ∈ Rn und f : Rm→ Rp Satz 54.1 (Kettenregel) Seien g : Rn→ Rm in x m in g(¯ x) ∈ R differenzierbar und außerdem sei g : Rn → Rm Lipschitz¯ ∈ Rn stetig. Dann ist die zusammengesetzte Funktion f ◦ g : Rn → Rp in x differenzierbar mit der Jacobi-Matrix x) = f (g(¯ x))g (¯ x). (f ◦ g) (¯ Die Kettenregel besitzt eine F¨ ulle von Anwendungen und wir wollen nun einige der wichtigsten Beispiele als Ernte einbringen.
54.8 Der Mittelwertsatz Sei f : Rn → R auf Rn differenzierbar mit einem Lipschitz-stetigen Gradienten. F¨ ur gegebenes x, x ¯ ∈ Rn betrachten wir die Funktion h : R → R,
828
54. Vektorwertige Funktionen mehrerer reeller Variablen
die durch h(t) = f (¯ x + t(x − x ¯)) = f ◦ g(t), definiert ist, wobei g(t) = x¯ + t(x − x¯) die Geradengleichung zwischen x ¯ und x ist. Es gilt f (x) − f (¯ x) = h(1) − h(0) = h (t¯), f¨ ur ein t¯ ∈ [0, 1], wobei wir den u ¨ blichen Mittelwertsatz auf die Funktion h(t) angewandt haben. Nach der Kettenregel gilt ¯), h (t) = ∇f (g(t)) · g (t) = ∇f (g(t)) · (x − x womit wir bewiesen haben: Satz 54.2 (Mittelwertsatz) Sei f : Rn → R auf Rn differenzierbar mit einem Lipschitz-stetigen Gradienten ∇f . Dann gibt es zu jedem x und x ¯ ¯) mit t¯ ∈ [0, 1], so dass in Rn ein y = x + t¯(x − x f (x) − f (¯ x) = ∇f (y) · (x − x ¯). Mit Hilfe des Mittelwertsatzes k¨ onnen wir die Differenz f (x) − f (¯ x) als das Skalarprodukt des Gradienten ∇f (y) mit der Differenz x − x ¯ ausdr¨ ucken, wobei y ein Punkt irgendwo auf der Geraden zwischen x und x ¯ ist. Wir k¨ onnen den Mittelwertsatz auf eine Funktion f : Rn → Rm erweitern. Er nimmt dann die Form ¯) f (x) − f (¯ x) = f (y)(x − x an, wobei y ein Punkt auf der Geraden zwischen x und x¯ ist, der f¨ ur verschiedene Zeilen von f (y) unterschiedlich sein kann. Wir k¨onnen dann absch¨ atzen: f (x) − f (¯ x) = f (y) · (x − x ¯) ≤ f (y)x − x ¯ und wir k¨ onnen daher die Lipschitz-Konstante von f durch maxy f (y) absch¨ atzen, wobei f (y) die (euklidische) Matrixnorm von f (y) ist. n Beispiel 54.15. Sei f : Rn → R durch f (x) = sin( j=1 xj ) gegeben. Es gilt ⎛ ⎞ n ∂f (¯ x) = cos ⎝ x¯j ⎠ f¨ ur i = 1, . . . , n ∂xi j=1 ∂f (¯ x)| ≤ 1 f¨ ur i = 1, . . . , n und somit und daher ist | ∂x i √ ∇f (¯ x) ≤ n. n Wir folgern, dass f (x) = sin( j=1 xj ) Lipschitz-stetig ist zur Lipschitz√ Konstanten n.
54.9 Die Richtung des steilsten Abstiegs und der Gradient
829
54.9 Die Richtung des steilsten Abstiegs und der Gradient Sei f : Rn → R eine gegebene Funktion. Wir wollen die Ver¨anderungen von f (x) in der N¨ ahe eines bestimmten Punktes x ¯ ∈ Rn untersuchen. Genauer ¨ gesagt, so lassen wir Anderungen von x auf der Geraden durch x ¯ in eine ¯ +tz, wobei t bestimmte Richtung z ∈ Rn zu, d.h. wir nehmen an, dass x = x eine reelle Variable ist, die sich in der N¨ ahe von 0 ver¨andert. Vorausgesetzt, dass f differenzierbar ist, so impliziert die Linearisierungsformel (54.8), dass f (x) = f (¯ x) + t∇f (¯ x) · z + Ef (x, x¯),
(54.12)
x) · z das Skalarprodukt des Gramit |Ef (x, x¯)| ≤ t2 Kf z2. Dabei ist ∇f (¯ dienten ∇f (¯ x) ∈ Rn mit dem Richtungsvektor z ∈ Rn . Ist ∇f (¯ x) · z = 0, dann wird der lineare Ausdruck t∇f (¯ x) · z f¨ ur kleine t u ¨ ber den quadratischen Ausdruck Ef (x, x¯) dominieren. Daher wird die Linearisierung fˆ(x) = f (¯ x) + t∇f (¯ x) · z eine gute N¨ aherung f¨ ur f (x) mit x = x¯ + tz nahe bei x ¯ sein. Ist also ∇f (¯ x)·z = 0, so erhalten wir gute Informationen u ber die Ver¨ anderung von ¨ f (x) entlang der Geraden x = x ¯ + tz durch die Untersuchung der linearen Funktion t → f (¯ x) + t∇f (¯ x) · z mit der Steigung ∇f (¯ x) · z. Insbesondere ˆ wird f (x) mit gr¨ oßer werdendem t ansteigen, wenn ∇f (¯ x) · z > 0 und abnehmen, wenn t abnimmt. Ist dagegen ∇f (¯ x) · z < 0, dann wird ganz ¨ahnlich fˆ(x) abnehmen, wenn t zunimmt und zunehmen, wenn t abnimmt. Alternativ k¨ onnen wir die zusammengesetzte Funktion Fz : R → R be¯ + tz trachten, die durch Fz (t) = f (gz (t)) mit gz : R → Rn und gz (t) = x definiert wird. Offensichtlich beschreibt Fz (t) die Ver¨anderung von f (x) auf der Geraden durch x ¯ in Richtung z, mit Fz (0) = f (¯ x). Nat¨ urlich liefert die Ableitung Fz (0) nahe bei x¯ wichtige Information u ¨ ber diese Ver¨anderung. Nach der Kettenregel gilt dabei x)z = ∇f (¯ x) · z, Fz (0) = ∇f (¯ und wir gelangen wiederum zu ∇f (¯ x) · z als interessante Gr¨oße. Insbesondere bestimmt das Vorzeichen von ∇f (¯ x) · z, ob Fz (t) in t = 0 anw¨achst oder abf¨ allt. Wir k¨ onnen uns nun fragen, wie wir die Richtung z w¨ahlen sollten, um einen maximalen Anstieg oder Abstieg zu erhalten. Wir setzen ∇f (¯ x) = 0 ur alle z zu vermeiden. Es ist voraus, um den Trivialfall mit Fz (0) = 0 f¨ dann ganz nat¨ urlich, z so zu normieren, dass z = 1 und wir untersuchen x) · z, wenn wir z mit z = 1 ver¨andern. Wir die Gr¨ oße Fz (0) = ∇f (¯ folgern, dass das Skalarprodukt ∇f (¯ x) · z maximal wird, wenn wir z in Richtung des Gradienten ∇f (¯ x) w¨ ahlen: z=
∇f (¯ x) , ∇f (¯ x)
830
54. Vektorwertige Funktionen mehrerer reeller Variablen
was als Richtung des steilsten Anstiegs bezeichnet wird. Dann gilt n¨amlich x) · max Fz (0) = ∇f (¯
z=1
∇f (¯ x) = ∇f (¯ x). ∇f (¯ x)
Ganz ¨ ahnlich wird das Skalarprodukt minimiert, wenn wir z in die dem Gradienten ∇f (¯ x) entgegengesetzte Richtung w¨ahlen: z=−
∇f (¯ x) . ∇f (¯ x)
Dies wird als Richtung des steilsten Abstiegs, vgl. Abb. 54.8, bezeichnet, da dann x) · min Fz (0) = −∇f (¯
z=1
∇f (¯ x) = −∇f (¯ x). ∇f (¯ x)
0
0.5
1
1.5
2 1 0.5
1 0.5
0 0 0.5
0.5 1
1
Abb. 54.8. Richtungen des steilsten Abstiegs auf einer Wanderkarte“ ”
Ist ∇f (¯ x) = 0, dann wird x ¯ als station¨arer Punkt bezeichnet. Ist x ¯ ein station¨ arer Punkt, dann gilt offensichtlich ∇f (¯ x) · z = 0 f¨ ur jede Richtung z und f (x) = f (¯ x) + Ef (x, x¯). Die Differenz f (x) − f (¯ x) ist dann im Abstand x − x ¯ quadratisch klein, d.h., |f (x) − f (¯ x)| ≤ Kf x − x¯2 und f (x) kommt dem konstanten Wert f (¯ x) f¨ ur x in der N¨ ahe von x ¯ sehr nahe.
54.10 Ein Minimumspunkt ist ein station¨ arer Punkt
831
54.10 Ein Minimumspunkt ist ein station¨arer Punkt Angenommen x ¯ ∈ Rn sei ein Minimumspunkt der Funktion f : Rn → R, d.h. (54.13) f (x) ≥ f (¯ x) f¨ ur x ∈ Rn . Wir werden zeigen, dass f¨ ur differenzierbares f (x) im Minimumspunkt x¯ ∇f (¯ x) = 0
(54.14)
gilt. Ist n¨ amlich ∇f (¯ x) = 0, k¨ onnten wir uns in Richtung des steilsten Abstiegs von x ¯ zu einem Punkt x nahe bei x ¯ mit f (x) < f (¯ x) bewegen, was (54.13) widerspricht. Um also die Minima einer Funktion f : Rn → R zu bestimmen, k¨ onnen wir stattdessen die Gleichung g(x) = 0 l¨osen, mit g = ∇f : Rn → Rn . Hierbei interpretieren wir ∇f (x) als n-Spaltenvektor. Eine breite Vielfalt von Anwendungen der Mechanik, Physik und anderen Disziplinen k¨ onnen als L¨ osungen der Gleichung ∇f (x) = 0 formuliert werden, d.h. als Suche nach station¨ aren Punkten. Wir werden unten auf viele Anwendungen treffen.
54.11 Die Methode des steilsten Abstiegs Sei f : Rn → R gegeben. Wir betrachten das Problem, einen Minimumspunkt x¯ zu finden. Um diesen zu erhalten, ist es nur nat¨ urlich, eine Methode des steilsten Abstiegs zu versuchen: Ist eine N¨aherung y¯ von x ¯ mit ∇f (¯ y) = 0 gegeben, so bewegen wir uns von y¯ zu einem neuen Punkt y in der Richtung des steilsten Abstiegs: y = y¯ − α
∇f (¯ y) , ∇f (¯ y )
wobei α > 0 eine w¨ ahlbare Schrittl¨ ange ist. Wir wissen, dass f (y) abnimmt, wenn α von Null aus zunimmt und die Frage besteht darin, einen vern¨ unftigen Wert f¨ ur α zu finden. Dazu k¨ onnen wir α in kleinen Schritten gr¨ oßer w¨ ahlen, bis f (y) nicht mehr abnimmt. Dann wird das Verfahren wiederholt, wobei wir y¯ durch y ersetzen. Offensichtlich ist die Methode des steilsten Abstiegs eng mit der Fixpunkt-Iteration f¨ ur die L¨osung der Gleichung ∇f (x) = 0 in der Form x = x − α∇f (x) verbunden, wobei wir den Normalisierungsfaktor 1/∇f (¯ y) in α > 0 einbeziehen.
832
54. Vektorwertige Funktionen mehrerer reeller Variablen
Abb. 54.9. Die Methode des steilsten Abstiegs f¨ ur f (x1 , x2 ) = x1 sin(x1 + x2 )+ x2 cos(2x1 − 3x2 ) beginnend bei (0, 5; 0, 5) mit α = 0, 3
54.12 Richtungsableitungen Sei gz (t) = x ¯ + tz, wobei z ∈ Rn ein gegebener normierter Vektor ist mit z = 1. Wir betrachten eine Funktion f : Rn → R und die zusammengesetzte Funktion Fz (t) = f (¯ x + tz). Die Kettenregel impliziert, dass Fz (0) = ∇f (¯ x) · z. Daher wird ∇f (¯ x) · z die Richtungsableitung von f (x) in x ¯ in Richtung von z genannt, vgl. Abb. 54.10.
54.13 Partielle Ableitungen h¨oherer Ordnung ∂f Sei f : Rn → R differenzierbar in Rn . Jede partielle Ableitung ∂x (¯ x) ist i eine Funktion von x ¯ ∈ Rn , die ihrerseits wieder differenzierbar sein kann. Wir bezeichnen ihre partielle Ableitungen mit
∂ ∂f ∂2f (¯ x) = (¯ x), ∂xj ∂xi ∂xj ∂xi
i, j = 1, . . . , n, x ¯ ∈ Rn .
Sie werden partielle Ableitungen zweiter Ordnung von f in x¯ bezeichnet. Es stellt sich heraus, dass unter geeigneten Stetigkeitsbedingungen die Ableitungsreihenfolge beliebig ist. Anders formuliert, so werden wir beweisen,
54.13 Partielle Ableitungen h¨ oherer Ordnung
833
Abb. 54.10. Darstellung einer Richtungsableitung
dass ∂2f ∂2f (¯ x) = (¯ x). ∂xj ∂xi ∂xi ∂xj Wir f¨ uhren den Beweis f¨ ur den Fall n = 2 mit i = 1 und j = 2 aus. Wir schreiben den Ausdruck x1 , x2 ) − f (x1 , x ¯2 ) + f (¯ x1 , x ¯2 ) A = f (x1 , x2 ) − f (¯
(54.15)
in der Form A = f (x1 , x2 ) − f (x1 , x ¯2 ) − f (¯ x1 , x2 ) + f (¯ x1 , x ¯2 ),
(54.16)
wobei wir die Reihenfolge der beiden mittleren Ausdr¨ ucke vertauscht hax1 , x2 ) und benutzen ben. Zun¨ achst setzen wir F (x1 , x2 ) = f (x1 , x2 ) − f (¯ (54.15) f¨ ur ¯2 ). A = F (x1 , x2 ) − F (x1 , x Aus dem Mittelwertsatz folgt, dass ∂f ∂F ∂f A= (x1 , y2 )(x2 − x¯2 ) = (x1 , y2 ) − (¯ x1 , y2 ) (x2 − x ¯2 ) ∂x2 ∂x2 ∂x2 x2 , x2 ]. Wir benutzen wiederum den Mittelwertsatz, f¨ ur f¨ ur ein y2 ∈ [¯ A=
∂2f (y1 , y2 )(x1 − x ¯1 )(x2 − x ¯2 ), ∂x1 ∂x2
834
54. Vektorwertige Funktionen mehrerer reeller Variablen
mit y1 ∈ [¯ x1 , x1 ]. Als N¨ achstes schreiben wir A mit Hilfe von (54.16) in die Form A = G(x1 , x2 ) − G(¯ x1 , x2 ), wobei G(x1 , x2 ) = f (x1 , x2 ) − f (x1 , x ¯2 ). Wenn wir wie oben den Mittelwertsatz zweimal einsetzen, erhalten wir A=
∂2f (z1 , z2 )(x1 − x ¯1 )(x2 − x ¯2 ), ∂x2 ∂x1
f¨ ur zi ∈ [¯ xi , xi ], i = 1, 2. Wenn wir annehmen, dass die zweite partielle Ableitung in x ¯ Lipschitz-stetig ist, so ergibt eine Ann¨aherung von xi an x ¯i f¨ ur i = 1, 2: ∂2f ∂2f (¯ x) = (¯ x). ∂x1 ∂x2 ∂x2 ∂x1 Damit haben wir das folgende zentrale Ergebnis bewiesen: Satz 54.3 Sind alle partiellen Ableitungen zweiter Ordnung einer Funktion f : Rn → R Lipschitz-stetig, dann ist die Reihenfolge der Ableitungen zweiter Ordnung irrelevant. Das Ergebnis l¨ asst sich direkt auf partielle Ableitungen von partiellen Ableitungen verallgemeinern: Sind die Ableitungen Lipschitz-stetig, dann ist die Reihenfolge der Ableitungen beliebig. Welche Erleichterung!
54.14 Der Satz von Taylor Angenommen, f : Rn → R habe Lipschitz-stetige partielle Ableitungen zweiter Ordnung. F¨ ur gegebene x, x ¯ ∈ Rn betrachten wir die Funktion h : R → R mit h(t) = f (¯ x + t(x − x ¯)) = f ◦ g(t), wobei g(t) = x ¯+t(x−¯ x) die Gerade durch x ¯ und x beschreibt. Offensichtlich ist h(1) = f (x) und h(0) = f (¯ x), so dass der Satz von Taylor angewandt auf h(t) f¨ ur ein t¯ ∈ [0, 1] zu 1 h(1) = h(0) + h (0) + h (t¯) 2 f¨ uhrt. Mit Hilfe der Kettenregel berechnen wir: h (t) = ∇f (g(t)) · (x − x ¯) =
n ∂f (g(t))(xi − x¯i ) ∂x i i=1
54.15 Der Kontraktionssatz
835
und ¨ ahnlich nach weiterer Ableitung nach t: h (t) =
n n i=1 j=1
∂ 2f (g(t))(xi − x ¯i )(xj − x ¯j ). ∂xi ∂xj
Somit erhalten wir: f (x) = f (¯ x)+∇f (¯ x)·(x− x ¯)+
n 1 ∂2f (y)(xi − x ¯i )(xj − x ¯j ), (54.17) 2 i,j=1 ∂xi ∂xj
x)) f¨ ur ein y = x ¯ + t¯(x − x ¯) mit t ∈ [0, 1]. Die n × n-Matrix H(¯ x) = (hij (¯ ∂2 f mit den Elementen hij (¯ x) = ∂xi ∂xj (¯ x) wird Hessesche Matrix von f (x) in x = x ¯ genannt. Die Hessesche Matrix enth¨alt alle zweiten partiellen Ableitungen von f : Rn → R. In Matrix-Vektor Schreibweise mit dem nSpaltenvektor x k¨ onnen wir schreiben: n i,j=1
∂2f (y)(xi − x ¯i )(xj − x ¯j ) = (x − x ¯) H(y)(x − x ¯). ∂xi ∂xj
Wir fassen zusammen: Satz 54.4 (Satz von Taylor) Sei f : Rn → R zweimal differenzierbar mit Lipschitz-stetiger Hessescher Matrix H = (hij ) mit den Elementen 2 f hij = ∂x∂i ∂x . Dann gibt es f¨ ur gegebene x und x ¯ ∈ Rn ein y = x + t¯(x − x ¯) j mit t¯ ∈ [0, 1], so dass n 1 ∂2f f (x) = f (¯ x) + ∇f (¯ x) · (x − x ¯) + (y)(xi − x¯i )(xj − x ¯j ) 2 i,j=1 ∂xi ∂xj
1 ¯) H(y)(x − x = f (¯ x) + ∇f (¯ x) · (x − x ¯) + (x − x ¯). 2
54.15 Der Kontraktionssatz Wir wollen nun die folgende Verallgemeinerung des Kontraktionssatzes beweisen: Satz 54.5 Sei g : Rn → Rn eine Lipschitz-stetige Funktion zur LipschitzKonstanten L < 1. Dann besitzt die Gleichung x = g(x) eine eindeutige n L¨osung x ¯ = limi→∞ x(i) , wobei {x(i) }∞ i=1 eine Folge in R ist, die durch (i) (i−1) Fixpunkt-Iteration erzeugt wird: x = g(x ), i = 1, 2, . . ., beginnend mit einem Anfangswert x(0) . Der Beweis ist Wort f¨ ur Wort derselbe wie f¨ ur den Fall g : R → R, den wir im Kapitel Fixpunkte und kontrahierende Abbildungen“ betrachtet ”
836
54. Vektorwertige Funktionen mehrerer reeller Variablen
haben. Wir wiederholen den Beweis dem Leser zuliebe. Das Abziehen der Gleichung x(k) = g(x(k−1) ) von x(k+1) = g(x(k) ) liefert x(k+1) − x(k) = g(x(k) ) − g(x(k−1) ). Mit Hilfe der Lipschitz-Stetigkeit von g erhalten wir somit x(k+1) − x(k) ≤ Lx(k) − x(k−1) . Wenn wir diese Absch¨ atzung wiederholen, dann erkennen wir, dass x(k+1) − x(k) ≤ Lk x(1) − x(0) und somit f¨ ur j > i x(j) − x(i) ≤
j−1
x(k+1) − x(k)
k=i
≤ x(1) − x(0)
j−1
Lk = x(1) − x(0) Li
k=i
1 − Lj−i . 1−L
n Da L < 1, ist {x(i) }∞ i=1 eine Cauchy-Folge in R und konvergiert daher (i) zu einem Grenzwert x¯ = limi→∞ x . Wenn wir den Grenzwert in die Gleichung x(i) = g(x(i−1) ) einsetzen, so erhalten wir x ¯ = g(¯ x) und daher ist x ¯ ein Fixpunkt von g : Rn → Rn . Eindeutigkeit ergibt sich aus der Tatsache, dass f¨ ur y¯ = g(¯ y ) folgt: ¯ x − y¯ = g(¯ x) − g(¯ y) ≤ L¯ x − y¯. Dies ist unm¨ oglich, außer wenn y¯ = x ¯, da L < 1.
Beispiel 54.16. Wir betrachten die Funktion g : R2 → R2 , definiert durch g(x) = (g1 (x), g2 (x)) mit g1 (x) =
1 , 4 + |x1 | + |x2 |
g2 (x) =
1 . 4 + | sin(x1 )| + | cos(x2 )|
Es gilt |
∂gi 1 , |≤ ∂xj 16
und daher durch einfache Absch¨ atzungen: g(x) − g(y) ≤
1 x − y, 4
woran wir erkennen, dass g : R2 → R2 Lipschitz-stetig ist zur LipschitzKonstanten Lg ≤ 14 . Die Gleichung x = g(x) hat also eine eindeutige L¨ osung.
54.16 Nullstellen von f : Rn → Rn
837
54.16 Nullstellen von f : Rn → Rn Der Kontraktionssatz kann, wie folgt, angewendet werden. Angenommen, f : Rn → Rn sei gegeben und wir suchen eine Nullstelle von f (x). Wir definieren g(x) = x − Af (x), wobei A eine w¨ ahlbare nicht-singul¨ are n × n-Matrix mit konstanten Koeffizienten ist. Die Gleichung x = g(x) ist dann ¨aquivalent zur Gleichung f (x) = 0. Ist g : Rn → Rn Lipschitz-stetig zur Lipschitz-Konstanten L < 1, dann besitzt g(x) einen eindeutigen Fixpunkt x¯, f¨ ur den f (¯ x) = 0 gilt. Dabei ist g (x) = I − Af (x), was uns dazu f¨ uhrt, die Matrix A so zu w¨ ahlen, dass I − Af (x) ≤ 1 f¨ ur x in der N¨ ahe der L¨ osung x ¯. Die ideale Wahl scheint x)−1 A = f (¯ zu sein, wenn wir voraussetzen, dass f (¯ x) nicht-singul¨ar ist, da dann g (¯ x) = 0. In Anwendungen versuchen wir A nahe bei f (¯ x)−1 zu w¨ahlen ur x naund wir hoffen dabei, dass das zugeh¨ orige g (x) = I − Af (x) f¨ he bei der L¨ osung x ¯ eine kleine Norm g (x) besitzt und daher schnell konvergiert. Bei der Newton-Methode w¨ ahlen wir A = f (x)−1 , s.u. Beispiel 54.17. Wir betrachten das Anfangswertproblem u(t) ˙ = f (u(t)) f¨ ur t > 0, u(0) = u0 , wobei f : Rn → Rn eine gegebene Lipschitz-stetige Funktion zur Lipschitz-Konstanten Lf ist und wie u ¨blich ist u˙ = du dt . Wir betrachten das r¨ uckw¨ artige Euler-Verfahren U (ti ) = U (ti−1 ) + ki f (U (ti )),
(54.18)
wobei 0 = t0 < t1 < t2 . . . eine Folge von anwachsenden diskreten Zeitpunkten mit den Zeitschritten ki = ti − ti−1 ist. Haben wir bereits U (ti−1 ) bestimmt, so m¨ ussen wir das nicht-lineare Gleichungssystem V = U (ti−1 ) + ki f (V )
(54.19)
osen, um U (ti ) ∈ Rn als L¨osung von (54.18) mit der Unbekannten V ∈ Rn l¨ zu berechnen. Diese Gleichung besitzt die Gestalt V = g(V ) mit g(V ) = U (ti−1 ) + ki f (V ) und g : Rn → Rn . Daher nutzen wir die Fixpunkt-Iteration V (m) = U (ti−1 ) + ki f (V (m−1) ),
m = 1, 2, . . . ,
838
54. Vektorwertige Funktionen mehrerer reeller Variablen
mit der Wahl von V (0) = U (ti−1 ), um den neuen Wert zu berechnen. Bezeichnet Lf die Lipschitz-Konstante von f : Rn → Rn , dann gilt g(V ) − g(W ) = ki (f (V ) − f (W )) ≤ ki Lf V − W ,
V, W ∈ Rn ,
und daher ist g : Rn → Rn Lipschitz-stetig zur Lipschitz-Konstanten Lg = ki Lf . Nun gilt Lg < 1, wenn f¨ ur den Zeitschritt ki < 1/Lf gilt und daher konvergiert die Fixpunkt-Iteration zur Berechnung von U (ti ) in ur die numeri(54.18), falls ki < 1/Lf . Damit erhalten wir eine Methode f¨ sche L¨ osung einer sehr großen Klasse von Anfangswertproblemen der Form u(t) ˙ = f (u(t)) f¨ ur t > 0, u(0) = u0 . Die einzige Einschr¨ankung dabei ist, dass die Zeitschritte gen¨ ugend klein gew¨ ahlt werden m¨ ussen, was eine ernste Einschr¨ ankung sein kann, wenn die Lipschitz-Konstante Lf sehr groß ist, da die L¨ osung dann einen massiven Berechnungsaufwand (sehr kleine Zeitschritte) erfordert. Daher, Achtung bei großen Lipschitz-Konstanten Lf !!
54.17 Der Satz zur inversen Funktion Sei f : Rn → Rn eine gegebene Funktion und y¯ = f (¯ x) f¨ ur gegebenes x ¯ ∈ Rn . Wir werden beweisen, dass f¨ ur nicht-singul¨ares f (¯ x) die Gleichung f (x) = y
(54.20)
f¨ ur y ∈ Rn nahe bei y¯ eine eindeutige L¨ osung x besitzt. Daher k¨onnen wir f¨ ur ein y nahe bei y¯ das Argument x als Funktion von y definieren, die wir als Umkehrabbildung oder inverse Funktion x = f −1 (y) von y = f (x) bezeichnen. Um zu zeigen, dass (54.20) f¨ ur alle y nahe bei y¯ eine eindeutige L¨ osung x besitzt, betrachten wir die Fixpunkt-Iteration f¨ ur x = g(x) mit x))−1 (f (x) − y) mit dem Fixpunkt x, f¨ ur den wie gew¨ unscht g(x) = x − (f (¯ f (x) = y gilt. Die Iteration ergibt mit x(0) = x ¯: x(j) = x(j−1) − (f (¯ x))−1 (f (x(j−1) ) − y),
j = 1, 2, . . . .
Zur Konvergenzanalyse subtrahieren wir x(j−1) = x(j−2) − (f (¯ x))−1 (f (x(j−2) ) − y) und erhalten mit ej = x(j) − x(j−1) ej = ej−1 − (f (¯ x))−1 (f (x(j−1 ) − f (x(j−2) ) f¨ ur j = 1, 2, . . . . Aus dem Mittelwertsatz folgt nun, dass fi (x(j−1) ) − fi (x(j−2) ) = f (z)ej−1 ,
54.18 Der Satz u ¨ ber implizite Funktionen
839
wobei z auf der Geraden zwischen x(j−1) und x(j−2) liegt. Bedenken Sie, dass f¨ ur unterschiedliche Zeilen von f (z) diese z-Werte m¨oglicherweise verschieden sein k¨ onnen. Wir folgern, dass x))−1 f (z) ej−1 . ej = I − (f (¯ Wenn wir nun annehmen, dass x))−1 f (z) ≤ θ, I − (f (¯
(54.21)
wobei θ < 1 eine positive Konstante ist, so erhalten wir ej ≤ θej−1 . Wie beim Beweis des Kontraktionssatzes zeigt uns dies, dass die Folge n {x(j) }∞ j=1 eine Cauchy-Folge ist und daher gegen einen Vektor x ∈ R konvergiert, f¨ ur den f (x) = y gilt. Die Bedingung f¨ ur die Konvergenz ist offensichtlich (54.21). Diese Bedingung ist erf¨ ullt, wenn die Koeffizienten der Jacobi-Matrix f (x) nahe bei x))−1 x ¯ Lipschitz-stetig sind und f (x) nicht-singul¨ar ist, so dass also (f (¯ existiert und wir y darauf beschr¨ anken, gen¨ ugend nahe bei y zu sein. Wir fassen dies im folgenden (sehr ber¨ uhmten) Satz zusammen: Satz 54.6 (Satz zur inversen Funktion) Sei f : Rn → Rn . Wir nehmen an, dass die Koeffizienten von f (x) nahe bei x¯ Lipschitz-stetig ur y gen¨ ugend nahe sind und dass f (x) nicht-singul¨ar ist. Dann besitzt f¨ bei y¯ = f (¯ x) die Gleichung f (x) = y eine eindeutige L¨osung x. Dadurch wird x als Funktion x = f −1 (y) von y definiert. Carl Jacobi (1804–51), deutscher Mathematiker, war der Erste, der die Rolle der Determinante der Jacobi-Matrix f¨ ur die Existenz der Inversen untersuchte. Er leistete außerdem wichtige Beitr¨age auf vielen Gebieten der Mathematik inklusive zur aufkeimenden Theorie f¨ ur partielle Differentialgleichungen erster Ordnung.
54.18 Der Satz u ¨ ber implizite Funktionen Es gibt eine wichtige Verallgemeinerung des Satzes zur Inversen. Sei dazu ur x ∈ Rn und y ∈ Rm f : Rn × Rm → Rn mit Werten f (x, y) ∈ Rn f¨ gegeben. Angenommen f (¯ x, y¯) = 0, so betrachten wir die Gleichung in x ∈ Rn f (x, y) = 0, f¨ ur y ∈ Rm nahe bei y¯. Im Falle des Satzes zur Inversen untersuchten wir einen Spezialfall dieser Situation mit f : Rn × R → Rn , definiert als f (x, y) = g(x) − y und g : Rn → Rn .
840
54. Vektorwertige Funktionen mehrerer reeller Variablen
Wir definieren die Jacobi-Matrix fx (x, y) von f (x, y) bez¨ uglich x in (x, y) als die n × n-Matrix mit den Elementen ∂fi (x, y). ∂xj Wenn wir nun annehmen, dass fx (¯ x, y¯) nicht-singul¨ar ist, k¨onnen wir die Fixpunkt-Iteration bilden: x(j) = x(j−1) − (fx (¯ x, y¯))−1 f (x(j−1) , y). Wir gelangen so zu einer L¨ osung von f (x, y) = 0. Wenn wir wie oben argumentieren, k¨ onnen wir zeigen, dass diese Iteration eine Folge {x(j) }∞ j=1 erzeugt, die gegen x ∈ Rn konvergiert, f¨ ur das f (x, y) = 0 gilt, wenn wir ¯ und y nahe annehmen, dass fx (x, y) Lipschitz-stetig ist, wenn x nahe bei x bei y¯ ist. Dadurch wird x als Funktion von g(y) von y definiert, die f¨ ur y nahe bei y¯ gilt. Somit haben wir den (auch sehr ber¨ uhmten) Satz bewiesen: Satz 54.7 (Satz zur impliziten Funktion) Sei f : Rn × Rm → Rn mit f (x, y) ∈ Rn und x ∈ Rn und y ∈ Rm unter der Annahme, dass f (¯ x, y¯) = 0. Angenommen, dass die Jacobi-Matrix fx (x, y) bez¨ uglich x f¨ ur x nahe bei x, y¯) nicht-singul¨ar ist. x ¯ und y nahe bei y¯ Lipschitz-stetig ist und dass fx (¯ Dann besitzt f¨ ur y nahe bei y¯ die Gleichung f (x, y) = 0 eine eindeutige L¨osung x = g(y). Dadurch wird x als Funktion g(y) von y definiert.
54.19 Die Newton-Methode Als N¨ achstes betrachten wir die Newton-Methode zur L¨osung der Gleichung f (x) = 0 mit f : Rn → Rn : x(i+1) = x(i) − f (x(i) )−1 f (x(i) ),
f¨ ur i = 0, 1, 2, . . . ,
(54.22)
mit Anfangswert x(0) . Die Newton-Methode entspricht der Fixpunkt-Iteration f¨ ur x = g(x) mit g(x) = x − f (x)−1 f (x). Wir werden beweisen, dass die Newton-Methode nahe bei der Nullstelle x ¯ quadratisch konvergiert, x) nicht-singul¨ ar ist. Die Argumente sind dieselben wie f¨ ur den wenn f (¯ Fall n = 1, den wir oben untersucht haben. Wenn wir ei = x¯ − x(i) setzen x) mit f (¯ x) = 0 benutzen, dann erhalten wir: und x ¯=x ¯ − f (x(i) )−1 f (¯ x) − f (x(i) )) x ¯ − x(i+1) = x¯ − x(i) − f (x(i) )−1 (f (¯ = x¯ − x(i) − f (x(i) )−1 (f (x(i) ) + Ef (x(i) , x ¯)) = f (x(i) )−1 Ef (x(i) , x ¯). Wir folgern, dass ¯ x − x(i+1) ≤ C¯ x − x(i) 2
54.20 Ableitung unter dem Integral
841
unter der Voraussetzung, dass f (x(i) )−1 ≤ C, wobei C eine positive Konstante ist. Somit haben wir das folgende wichtige Ergebnis bewiesen: Satz 54.8 (Newton-Methode) Sei x ¯ Nullstelle von f : Rn → Rn und f (x) gleichm¨aßig differenzierbar mit einer Lipschitz-stetigen Ableitung nahe bei x ¯. Sei ferner f (¯ x) nicht-singul¨ar. Dann konvergiert die NewtonMethode zur L¨osung von f (x) = 0 quadratisch, wenn wir gen¨ ugend nahe bei x ¯ beginnen. In praktischen Implementierungen der Newton-Methode schreiben wir (54.22) in der Form: f (x(i) )z = −f (x(i) ), x(i+1) = x(i) + z, wobei f (x(i) )z = −f (x(i) ) ein Gleichungssystem in z ist, das mit dem Gaussschen Eliminationsverfahren oder einem iterativen Verfahren gel¨ost wird. Beispiel 54.18. Wir greifen nochmals die Gleichung (54.19), d.h. h(v) = v − ki f (v) − u(ti−1 ) = 0 auf. F¨ ur die Newton-Methode berechnen wir h (v) = I − ki f (v) ar ist, wenn ki < f (v)−1 . Wir und folgern, dass h (v) in v nicht-singul¨ ugend erkennen daran, dass die Newton-Methode konvergiert, wenn ki gen¨ klein ist und wir nahe bei der L¨ osung beginnen. Die Einschr¨ankung f¨ ur die Zeitschrittweite ist wiederum mit der Lipschitz-Konstanten Lf von f oße von f (v) widerspiegelt. verkn¨ upft, da Lf die Gr¨
54.20 Ableitung unter dem Integral Schließlich zeigen wir, dass sich die Bildung einer partiellen Ableitung nach asst, wenn die Integralgrenzen eines x1 hinter das Integralzeichen schieben l¨ Integrals von der Variablen x1 unabh¨ angig sind. Sei also f : R2 → R eine Funktion zweier reeller Variablen x1 und x2 . Wir betrachten das Integral 1 f (x1 , x2 ) dx2 = g(x1 ), 0
842
54. Vektorwertige Funktionen mehrerer reeller Variablen
das eine Funktion g(x1 ) von x1 definiert. Wir werden nun beweisen, dass dg (¯ x1 ) = dx1
1
0
∂f (¯ x1 , x2 ) dx2 , ∂x1
(54.23)
was als Ableitung unter dem Integral bezeichnet wird. Der Beweis beginnt mit x1 , x2 ) + f (x1 , x2 ) = f (¯
∂f (¯ x1 , x2 )(x1 − x¯1 ) + Ef (x1 , x ¯1 , x2 ), ∂x1
wobei wir annehmen, dass |Ef (x1 , x ¯1 , x2 )| ≤ Kf (¯ x1 − x1 )2 . Nach dem Satz von Taylor trifft dies unter der Voraussetzung zu, dass die zweite partielle Ableitung von f beschr¨ ankt ist. Die Integration nach x2 f¨ uhrt zu 1 1 f (x1 , x2 ) dx2 = f (¯ x1 , x2 ) dx2 0
0
+ (x1 − x¯1 )
1 0
∂f (¯ x1 , x2 ) dx2 + ∂x1
1
Ef (x1 , x ¯1 , x2 ) dx2 . 0
Da
1 0
Ef (x1 , x ¯1 , x2 ) dx2 ≤ Kf (¯ x1 − x1 )2 ,
ergibt sich (54.23) nach der Division mit (x1 − x ¯1 ) und der Grenzwertbil¯1 . Wir fassen zusammen: dung x1 gegen x Satz 54.9 (Ableitung unter dem Integral) Ist die zweite partielle Ableitung von f (x1 , x2 ) beschr¨ankt, dann gilt f¨ ur x1 ∈ R: d dx1
1
1
f (x1 , x2 ) dx2 = 0
0
∂f (x1 , x2 ) dx2 . ∂x1
(54.24)
Beispiel 54.19. d dx
1 0
(1 + xy 2 )−1 dy =
0
1
∂ (1 + xy 2 )−1 dy = − ∂x
0
1
y2 dy. (1 + xy 2 )2
Aufgaben zu Kapitel 54
843
Aufgaben zu Kapitel 54 54.1. Skizzieren Sie die folgenden Oberfl¨ achen in R3 : (a) Γ = {x : x3 = x21 + x22 }, (b) Γ = {x : x3 = x21 −x22 }, (c) Γ = {x : x3 = x1 +x22 }, (d) Γ = {x : x3 = x41 +x62 }. Bestimmen Sie in verschiedenen Punkten die Tangentialebenen. 54.2. Bestimmen Sie, ob die folgenden Funktionen auf {x : |x| < 1} Lipschitzstetig sind oder nicht und bestimmen Sie die Lipschitz-Konstanten: f : R3 → R3 f¨ ur f (x) = x|x|2 , f : R3 → R f¨ ur f (x) = sin |x|2 , f : R2 → R3 f¨ ur f (x) = (x1 , x2 , sin |x|2 ), f : R3 → R f¨ ur f (x) = 1/|x|, f : R3 → R3 f¨ ur f (x) = x sin(|x|), (freiwillig) f : R3 → R f¨ ur f (x) = sin(|x|)/|x|. (freiwillig) 54.3. Entscheiden Sie f¨ ur die Funktionen der vorangehenden Aufgabe, welche davon in {x : |x| < 1} Kontraktionen sind und bestimmen Sie deren Fixpunkte (freiwillig). 54.4. Linearisieren Sie die folgenden Funktionen in R3 in x = (1, 2, 3): f (x) = |x|2 , f (x) = sin(|x|2 ), f (x) = (|x|2 , sin(x2 )), f (x) = (|x|2 , sin(x2 ), x1 x2 cos(x3 )). 54.5. Berechnen Sie die Determinante der Jacobi-Matrix f¨ ur folgende Funktionen: (a) f (x) = (x31 −3x1 x22 , 3x1 x22 −x32 ), (b) f (x) = (x1 ex2 cos(x3 ), x1 ex2 sin(x3 ), x1 ex2 ). 54.6. Berechnen Sie das Taylor-Polynom zweiter ur die √ Ordnung in (0, 0, 0) f¨ folgenden Funktionen f : R3 → R: (a) f (x) = 1 + x1 + x2 + x3 , (b) f (x) = (x1 − 1)x2 x3 , (c) f (x) = sin(cos(x1 x2 x3 )), (d) exp(−x21 − x22 − x23 ), (e) Versuchen Sie, die Fehler in den N¨ aherungen in (a) − (d) abzusch¨ atzen. 54.7. Linearisieren Sie f ◦ s f¨ ur f (x) = x1 x2 x3 in t = 1 mit (a) s(t) = (t, t2 , t3 ), (b) s(t) = (cos(t), sin(t), t), (c) s(t) = (t, 1, t−1 ). 54.8. Berechnen Sie ∞ x von 0 e−xy dy.
∞ 0
y n e−xy dy f¨ ur x > 0 durch wiederholte Ableitungen nach
54.9. Versuchen Sie die Funktion u(x) = x21 + x22 + 2x23 nach der Methode des steilsten Abstiegs zu minimieren, indem Sie in x = (1, 1, 1) beginnen. Finden Sie die gr¨ oßte Schrittl¨ ange, f¨ ur welche die Iteration konvergiert. 54.10. Bestimmen Sie die Nullstellen f¨ ur (x21 −x22 −3x1 +x2 +4, 2x1 x2 −3x2 −x1 +3) nach der Newton-Methode.
844
54. Vektorwertige Funktionen mehrerer reeller Variablen
54.11. Verallgemeinern Sie den Satz von Taylor f¨ ur eine Funktion f : Rn → R f¨ ur die dritte Ordnung. 54.12. Ist die Funktion f (x1 , x2 ) =
x21 − x22 nahe bei (0, 0) Lipschitz-stetig? x21 + x22
Jacobi und Euler waren in ihrer Art, wie sie Mathematik betrieben, Verwandte im Geiste. Beide waren produktive Autoren und noch produktivere Rechner; beide erlangten ein betr¨ achtliches Verst¨ andnis aus ihrer immensen algorithmischen Arbeit; beide arbeiteten auf vielen Gebieten der Mathematik (Euler u ¨ bertraf in dieser Hinsicht Jacobi bei weitem); und beide konnten jederzeit aus der großen Waffenkammer mathematischer Methoden genau die Waffen z¨ ucken, die beim Angriff eines gestellten Problems den gr¨ oßtm¨ oglichen Erfolg versprachen. (Sciba)
55 Ho¨henlinien/Niveaufl¨achen und der Gradient
Es w¨ urde keinen Sinn machen, den Studenten mit allen m¨ oglichen Kleinigkeiten, die gelegentlich benutzt werden, zu u ¨ berladen. Es ist stattdessen wichtig, Studenten mit dem mathematischen Denken vertraut zu machen, so dass sie die Notwendigkeit mathematischer Methoden in Ingenieursproblemen erkennen und sich bewusst werden, dass Mathematik eine systematische Wissenschaft ist, die auf relativ wenigen Prinzipien aufbaut und ihnen ein sicheres Gef¨ uhl f¨ ur das Wechselspiel zwischen Theorie, Berechnung und Experiment zu vermitteln. (E. Kreyszig, im Vorwort zu Advanced Engineering Ma” thematics“, 1993)
55.1 H¨ohenlinien Eine H¨ohenlinie einer Funktion u : R2 → R ist eine Kurve g : [a, b] → R2 , so dass u(g(t)) = c
f¨ ur t ∈ [a, b],
(55.1)
mit konstantem c. Eine H¨ ohenlinie wird auch Isolinie oder Konturkurve genannt. Die Punkte x auf einer H¨ ohenlinie x = g(t), die (55.1) erf¨ ullen, besitzen alle denselben Funktionswert u(x) = u(g(t)) = c. Wenn wir die H¨ ohenlinien oder Isolinien f¨ ur eine Ansammlung verschiedener Konstanten c zeichnen, erhalten wir eine H¨ohenlinienzeichnung oder Konturzeichnung der Funktion u(x), vgl. Abb. 55.1. Die H¨ ohenlinien entsprechen den Projektionen der Schnitte des Graphen {x ∈ R2 : x3 = u(x1 , x2 ), (x1 , x2 ) ∈ R2 }
846
55. H¨ ohenlinien/Niveaufl¨ achen und der Gradient
mit den Ebenen x3 = c in R3 auf R2 . Wir veranschaulichen dies bildlich in Abb. 55.2. 4
x3
4
2
3
0
2
-2
1 0
1
2
x2
3
2
1
4 0
4
3
0
x1
0
1
2
3
4
Abb. 55.1. Die Zeichnung einer Oberfl¨ ache mit zugeh¨ origer Konturzeichnung. Die H¨ ohenlinien beginnen bei der Maximalh¨ ohe 4 und sie sind alle 0, 7 Einheiten aufgetragen
0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 1 0.5 0 −0.5 −1
−1
−0.5
0
0.5
1
Abb. 55.2. Die Projektion auf R2 des Schnitts von x3 = c und x3 = u(x1 , x2 ) ohenlinie (mit u(x1 , x2 ) = 1 − exp(−x21 − x22 ) und c = 0, 5) ergibt eine H¨
Beispiel 55.1. Die H¨ ohenlinien der Funktion u(x) = x21 + x22 sind Kreise 2 2 ohenlinien der Funktion u(x) = 2x21 + x22 x1 + x2 = c mit c ≥ 0. Die H¨ 2 2 sind die Ellipsen 2x1 + x2 = c mit c ≥ 0. Die H¨ohenlinien der Funktion u(x) = x21 − x2 sind die Parabeln x2 = x21 − c mit konstantem c. Beispiel 55.2. Eine gute Wanderkarte enth¨ alt die H¨ohenlinien der Funktion u : R2 → R, die der H¨ ohe eines Punktes x ∈ R2 relativ zur Meeresh¨ohe entspricht. Der H¨ ohenunterschied zwischen zwei benachbarten Linien ist u ohenunterschied zwischen zwei Punkten kann ¨ blicherweise 10 Meter. Der H¨ durch Z¨ ahlen der H¨ ohenlinien entlang einer Strecke zwischen den beiden Punkten erhalten werden. Dies ist bei der Planung einer Wanderung n¨ utzlich. Vergleichen Sie mit Abb. 54.8.
55.2 Lokale Existenz von H¨ ohenlinien
847
Eine H¨ ohenlinie u(g(t)) = c kann man sich auch als Uferlinie eines Sees denken, dessen Wasserspiegel c Meter u ¨ ber dem Meer liegt.
55.2 Lokale Existenz von Ho¨henlinien Die lokale Existenz von H¨ ohenlinien folgt aus dem folgenden Spezialfall des Satzes u ber implizite Funktionen, wobei die H¨ohenlinie f¨ ur g : R → R ¨ durch t → (t, g(t)) bzw. t → (g(t), t) gegeben ist. Satz 55.1 Angenommen, u : R2 → R habe stetige partielle Ableitungen ∂u und u(¯ x1 , x ¯2 ) = c. Ist ∂x (¯ x1 , x ¯2 ) = 0, dann existiert ein δ > 0, so dass 2 ur |x1 − x ¯1 | < δ besitzt. u(x1 , x2 ) = c eine eindeutige L¨osung x2 = g(x1 ) f¨ ∂u Ist ∂x (¯ x , x ¯ ) =
0, dann existiert ein δ > 0, so dass u(x , x2 ) = c eine 1 2 1 1 ur |x2 − x ¯2 | < δ besitzt. eindeutige L¨osung x1 = g(x2 ) f¨ ∂u (¯ x1 , x ¯2 ) = 0 parallel zur Wir halten fest, dass die H¨ ohenlinie f¨ ur ∂x 2 x2 -Achse verl¨ auft, weswegen wir nicht erwarten k¨onnen, dass durch die Gleichung u(x1 , x2 ) = c die Variable x2 als Funktion von x1 (die zugeh¨orige urde dann in x1 = x ¯1 unendliche Steigung besitzen) Funktion x2 = g(x1 ) w¨ definiert wird.
x2 u(x, y) = x2 + y 2 = 1
x1
x2 = g(x1 ) =
Abb. 55.3. x2 = −
1 − x21
1 − x21 als Teil der H¨ ohenlinie u(x1 , x2 ) = x21 + x22 = 1
55.3 H¨ohenlinien und der Gradient Durch Ableiten beider Seiten von (55.1) erhalten wir mit der Kettenregel d ∂u ∂u u(g(t)) = ∇u(x) · g (t) = (g(t))g1 (t) + (g(t))g2 (t) = 0. dt ∂x1 ∂x2 Da g (t) = (g1 (t), g2 (t)) der Richtung der Tangente der Kurve g(t) entspricht, bedeutet dies, dass die Richtung g (t) einer H¨ohenlinie einer Funktion u : R2 → R zum Gradienten ∇u(g(t)) orthogonal ist. Dabei zeigt der
848
55. H¨ ohenlinien/Niveaufl¨ achen und der Gradient
Gradient ∇u(x) in die Richtung des steilsten Abstiegs der Funktion u(x) in x, und die Richtung senkrecht zum Gradienten (die Richtung der H¨ohenlinie) ist eine Richtung, in der u konstant bleibt, vgl. Abb. 55.4. Wenn wir uns entlang einer H¨ ohenlinie bewegen, bleibt die Funktion konstant und wenn wir uns in Richtung des Gradienten bewegen, ver¨andert sich die Funktion so stark wie m¨ oglich! Da der Gradient ∇u(¯ x) zur Tangente der H¨ohenlinie durch x ¯ normal ist, k¨onnen wir die Gleichung f¨ ur die Tangente einer H¨ohenlinie durch x¯ auch als ∇u(¯ x) · (x − x ¯) = 0 schreiben. x2
u>c u
∇u
u=c x1 Abb. 55.4. Der Gradient ∇u(x) einer Funktion u : R2 → R ist orthogonal zur H¨ ohenlinie von u durch x
Wir fassen zusammen: Satz 55.2 Der Gradient ∇u(g(t)) einer Funktion u : R2 → R ist zur Tangente g (t) einer H¨ohenlinie g : I → R orthogonal. Die Gleichung f¨ ur die Tangente einer H¨ohenlinie durch x¯ kann auch als ∇u(¯ x) · (x − x¯) = 0 geschrieben werden. Beispiel 55.3. Wir betrachten die Funktion u(x1 , x2 ) = x21 +x22 mit kreisf¨ormigen H¨ ohenlinien g(t) = (g1 (t), g2 (t)) f¨ ur die g12 (t) + g22 (t) = c2 gilt. Wir erhalten ∇u(x) = (2x1 , 2x2 ) und Ableiten von g12 (t) + g22 (t) = c2 nach t liefert wie erwartet 0 = 2g1 (t)g1 (t) + 2g2 (t)g2 (t) = ∇u(g(t)) · g (t). Alternativ k¨ onnen wir eine H¨ ohenlinie g(t) mit g12 (t) + g22 (t) = c2 auch durch g(t) = c(cos(t), sin(t)) parametrisieren. Wir erhalten g (t) = c(− sin(t), cos(t)) = (−x2 (t), x1 (t)) mit x = g(t). Wir u ufen, dass ¨ berpr¨ ∇u(g(t)) · g (t) = 2(x1 (t), x2 (t)) × (−x2 (t), x1 (t)) = 0. Beispiel 55.4. Besitzt u : R2 → R die Gestalt u(x1 , x2 ) = f (x1 ) − x2 mit f : R → R, dann gilt ∇u(x) = (f (x1 ), −1). Eine H¨ohenlinie u(g(t)) = c kann durch g(t) = (t, f (t) − c) parametrisiert werden, mit g (t) = (1, f (t)). Offensichtlich gilt ∇u(g(t)) · g (t) = (f (t), −1) · (1, f (t)) = 0.
55.4 Niveau߬ achen
849
55.4 Niveaufl¨achen Eine Niveaufl¨ache einer Funktion u : R3 → R ist eine Oberfl¨ache g : Q → R3 , wobei Q eine Teilmenge von R2 ist, so dass f¨ ur y ∈ Q
u(g(y)) = c
(55.2)
f¨ ur eine Konstante c gilt. Eine Niveaufl¨ ache wird auch Isofl¨ache genannt. Die Punkte auf einer Niveaufl¨ ache g(t), die (55.2) erf¨ ullen, besitzen alle den gleichen Funktionswert u(g(y)) = c.
55.5 Lokale Existenz von Niveaufl¨achen Die lokale Existenz von Niveaufl¨ achen ergibt sich direkt als Spezialfall des Satzes u ¨ber implizite Funktionen. Wir erkennen, dass die Niveaufl¨ache als g(y1 , y2 ) = (y1 , y2 , f (y1 , y2 )), g(y1 , y3 ) = (y1 , f (y1 , y2 ), y3 ) oder g(y2 , y3 ) = (f (y2 , y3 ), y2 , y3 ) parametrisiert ist, mit einer Funktion f : R2 → R, in Abh¨ angigkeit davon, welche der partiellen Ableitungen ungleich Null ist. Satz 55.3 Angenommen u : R3 → R habe stetige partielle Ableitungen ¯2 , x ¯3 ) = c mit konstantem c. Ist ∂u/∂x3 = 0, dann existiert und u(¯ x1 , x ein δ > 0, so dass u(x1 , x2 , x3 ) = c eine eindeutige L¨osung x3 = g(x1 , x2 ) x1 , x ¯2 ) < δ. Ist ∂u/∂x2 = 0, dann existiert ein besitzt, mit (x1 , x2 ) − (¯ δ > 0, so dass u(x1 , x2 , x3 ) = c eine eindeutige L¨osung x2 = g(x1 , x3 ) besitzt, mit (x1 , x3 ) − (¯ x1 , x ¯3 ) < δ. Ist ∂u/∂x1 = 0, dann existiert ein δ > 0, so dass u(x1 , x2 , x3 ) = c eine eindeutige L¨osung x1 = g(x2 , x3 ) besitzt, mit (x2 , x3 ) − (¯ x2 , x ¯3 ) < δ.
55.6 Niveaufl¨achen und der Gradient Das Ableiten beider Seiten von (55.2) nach y1 und y2 f¨ ur y = (y1 , y2 ) liefert mit der Kettenregel ∂ u(g(y)) = ∇u(g(y)) · g,i (y) = 0, ∂yi
i = 1, 2,
1
0.5
0
−0.5 2 1.5
−1
1
1
0.5 0.5
0 −0.5
0 −1
−0.5
−1.5 −1
−2
Abb. 55.5. Eine St¨ uck der Niveaufl¨ ache u(x1 , x2 , x3 ) = x21 + x23 = 1
850
55. H¨ ohenlinien/Niveaufl¨ achen und der Gradient
wobei wir die Schreibweise g,i (y) =
∂ g(y) ∂yi
benutzen. Wir verwenden das Komma in g,i , um die Ableitung nach xi anzudeuten, wohingegen gi f¨ ur Komponente i von g = (g1 , g2 , g3 ) steht. Wir erinnern daran, dass die Tangentialebene (Linearisierung) von g(y) in y ) + (y1 − y¯1 )g,1 (¯ y ) + (y2 − y¯2 )g,2 (¯ y ) gegeben x ¯ = g(¯ y ) durch (y1 , y2 ) → g(¯ ist und wir folgern, dass ∇u(g(¯ y)) zur Tangentialebene der Niveaufl¨ache durch x ¯ = g(¯ y) orthogonal ist. Wir sagen, dass ∇u(g(¯ y )) zur Niveaufl¨ache u(x) = c durch x ¯ = g(¯ y) orthogonal ist oder dass ∇u(g(¯ y)) eine Normale zur Niveaufl¨ache u(x) = c in x ¯ = g(¯ y ) ist, vgl. Abb. 55.6. Da ∇u(¯ x) folglich eine Normale zur Tangentialebene in x ist, kann die Gleichung f¨ ur die Tangentialebene einer Niveaufl¨ ache durch x ¯ auch in der Form ∇u(¯ x)·(x−x¯) = 0 geschrieben werden. grad u
ds dt 2
1
0.5
ds
0
dt
1
−0.5
−1 1 0.5
2 1.5
0 1 −0.5
0.5 −1
0
Abb. 55.6. Der Gradient ∇u(x) = (2x1 , −1, 2x3 ) von u(x1 , x2 , x3 ) = x21 +x23 −x2 ist orthogonal zur Niveaufl¨ ache (x1 , x3 ) → g(x1 , x3 ) = (x1 , x21 + x23 + c, x3 ), da g1 = (1, 2x1 , 0) und g3 = (0, 2x3 , 1)
Wir fassen zusammen: Satz 55.4 Der Gradient ∇u(¯ x) einer Funktion u : R3 → R ist orthogonal y) + (y1 − y¯1 )g,1 (¯ y ) + (y2 − y¯2 )g,2 (¯ y ) einer zur Tangentialebene (y1 , y2 ) → g(¯ Niveaufl¨ache y → x = g(y) f¨ ur x¯ = g(¯ y). Die Gleichung f¨ ur die Tangentialebene einer Niveaufl¨ache durch x ¯ kann auch in der Form ∇u(¯ x)·(x− x¯) = 0 geschrieben werden. Beispiel 55.5. Wir betrachten die Funktion u(x) = x21 + x22 + x23 mit den Niveaufl¨ achen g(y), f¨ ur die g12 (y)+g22 (y)+g32 (y) = c2 gilt, wodurch Kugeln um den Ursprung mit Radius c beschrieben werden. Der Gradient ∇u(x) = 2x ist offensichtlich orthogonal zu einer Tangentialebene einer Niveaufl¨ache in x. Beispiel 55.6. Besitzt u : R3 → R die Gestalt u(x1 , x2 , x3 ) = f (x1 , x2 ) − x3 mit f : R2 → R, dann ist ∇u(x) = (f,1 (x1 , x2 ), f,2 (x1 , x2 ), −1). Eine Ni-
Aufgaben zu Kapitel 55
851
veaufl¨ ache u(g(y)) = c kann durch g(y) = ((y1 , y2 , f (y1 , y2 ) − c) para metrisiert werden, mit g,1 (y) = (1, 0, f,1 (y)) und g,2 (y) = (0, 1, f,2 (y)). ur i = 1, 2. Offensichtlich gilt ∇u(g(y)) · g,i (y) = 0 f¨
Aufgaben zu Kapitel 55 55.1. Skizzieren Sie die folgenden Oberfl¨ achen in R3 : (a) Γ = {x : x21 + x22 = x3 }, (b) Γ = {x : x21 + 2x22 + 3x23 = 6}, (c) Γ = {x : x21 + x22 = −x23 }, (d) Γ = {x : ur die Fl¨ achen in verschiedenen x21 + x22 = x23 }. Bestimmen Sie Tangentialebenen f¨ Punkten. 55.2. Suchen Sie eine Parametrisierung f¨ ur die Schnittkurven der Fl¨ achen der vorangegangenen Aufgabe mit der Ebene x3 = 1. 55.3. Zeigen Sie, dass die Oberfl¨ ache Γ = {x : x21 + 2x22 + 3x23 + x1 x33 = 7} nahe uckt werden kann. bei (1, 1, 1) auch in der Form x3 = g(x1 , x2 ) ausgedr¨ 55.4. Berechnen Sie die Gradienten f¨ ur folgende Funktionen f : R3 → R: n n n (a) f (x) = x1 (x2 + x3 ), (b) f (x) = |x|, (c) f (x) = |x|2 , (d) f (x) = 1/|x|, (e) f (x) = exp(x1 x2 x3 ). 55.5. Bestimmen Sie f¨ ur jede der Funktionen der vorangegangenen Aufgabe die Gleichung f¨ ur die Tangentialebene zur Niveaufl¨ ache f (x) = f (1, 1, 1) in x = (1, 1, 1). 55.6. Bestimmen Sie die Gleichung f¨ ur die Tangentialebene in x = (1, 2, 3) f¨ ur die folgenden Fl¨ achen: (a) x3 = 32 x1 x2 , (b) x2 = sin(2πx1 ) + 2 cos(2πx3 ), (c) x21 + x22 + x23 = 14. 55.7. Bestimmen Sie die √ Tangentialebene und den Normalenvektor f¨ ur die Ellipse x21 + 3x22 = 10 in x = (1, 3). 55.8. Sei f : Q → R, wobei Q = [0, 1] × [0, 1] das Einheitsquadrat ist, mit f (x) = 0 f¨ ur x auf der Grenze von Q. Beweisen Sie mit praktischen Annahmen, dass es einen Punkt y ∈ Q gibt, so dass ∇f (y) = 0.
56 Linearisierung und Stabilit¨at von Anfangswertproblemen
The logos of somewome to that base anything, when most characteristically mantissa minus, comes to nullum in the endth: orso, here is nowet badder than the sin of Aha with his cosin Lil, verswaysed on coversvised, and all that’s consecants and cotangincies. . . (Finnegans Wake, James Joyce)
56.1 Einleitung Wir setzen die Untersuchung des allgemeinen Anfangswertproblems (40.1) fort und konzentrieren uns diesmal auf die Stabilit¨at der L¨osungen, die ein Maß sind f¨ ur die Sensitivit¨at der L¨osungen auf St¨orungen in den gegebenen Daten. Dies ist ein sehr wichtiger Gesichtspunkt f¨ ur das Verhalten von L¨ osungen, wie wir bereits im Kapitel Das allgemeine Anfangswert” problem“ angedeutet haben und nun etwas genauer untersuchen wollen. Wir betrachten ein autonomes Problem der Form u(t) ˙ = f (u(t)) f¨ ur 0 < t ≤ T, u(0) = u0 ,
(56.1)
wobei f : Rd → Rd eine gegebene beschr¨ ankte Lipschitz-stetige Funktion ist und u0 ∈ Rd sind gegebene Anfangswerte. Wir suchen eine L¨osung u : [0, T ] → Rd , wobei wir uns [0, T ] als ein gegebenes Zeitintervall vorstellen. Um die Stabilit¨ at einer gegebenen L¨ osung u(t) gegen kleine St¨orungen in den Eingangsdaten u0 zu untersuchen, werden wir ein assoziiertes linearisiertes Problem betrachten, das wir durch Linearisierung der Funktion v → f (v) um die L¨ osung u(t) herum erhalten.
854
56. Linearisierung und Stabilit¨ at von Anfangswertproblemen
56.2 Station¨are L¨osungen Wir betrachten zun¨ achst den einfachsten Fall einer station¨aren L¨osung u(t) = u¯ f¨ ur 0 ≤ t ≤ T , d.h. eine L¨ osung u(t) von (56.1), die von der Zeit t unabh¨ angig ist. Da u(t) ˙ = 0, wenn u(t) von der Zeit unabh¨angig ur ist, ist u(t) = u ¯ eine station¨ are L¨ osung, falls f (¯ u) = 0 und u0 = u¯, f¨ d ¯d ) ∈ R . Die Gleichung f (¯ u) = 0 entspricht einem System u ¯ = (¯ u1 , . . . , u u1 , . . . , u ¯d ) = 0, i = 1, . . . , d mit d Unbekannten von d Gleichungen fi (¯ u ¯1 , . . . , u ¯d , wobei die fi die Komponenten von f sind. Wir untersuchten derartige Gleichungssysteme im Kapitel Vektorwertige Funktionen meh” rerer reeller Variablen“. Hier nehmen wir die Existenz einer station¨aren u) = 0 erf¨ ullt. Im AllL¨ osung u(t) = u¯ an, so dass u ¯ ∈ Rd die Gleichung f (¯ gemeinen werden mehrere L¨ osungen u¯ der Gleichung f (u) = 0 existieren, weswegen es mehrere station¨ are L¨ osung geben kann. Wir bezeichnen eine station¨ are L¨ osung u(t) = u¯ auch als Gleichgewichtsl¨osung. Beispiel 56.1. Die station¨ aren L¨ osungen u ¯ des Unfallmodells u˙ 1 + νu1 − κu1 u2 = ν t > 0, u˙ 2 + 2νu2 − νu2 u1 = 0 t > 0,
(56.2)
der Form u˙ = f (u) mit f (u) = (−νu1 + κu1 u2 + ν, −2νu2 + νu2 u1 ) lauten u ¯ = (1, 0) und u ¯ = (2, κν ).
56.3 Linearisierung bei einer station¨aren L¨osung Wir werden nun St¨ orungen einer gegebenen station¨aren L¨osung bei kleinen St¨ orungen in den Eingangsdaten untersuchen. Wir setzen daher voraus, dass f (¯ u) = 0 und bezeichnen die zugeh¨ orige Gleichgewichtsl¨osung mit u ¯(t) f¨ ur t > 0, d.h. u ¯(t) = u ¯ f¨ ur t > 0. Wir betrachten das Anfangswertproblem ¯ + ϕ0 , wobei ϕ0 ∈ Rd eine gegebene kleine St¨orung der (56.1) mit u0 = u Eingangsdaten u ¯ ist. Wir bezeichnen die zugeh¨orige L¨osung mit u(t) und konzentrieren uns auf die St¨ orung der L¨ osung, d.h., auf ψ(t) = u(t)− u¯(t) = u(t)−¯ u. Wir wollen f¨ ur die St¨ orung ψ(t) eine Differentialgleichung herleiten, wozu wir f in u ¯ linearisieren: f (u(t)) = f (¯ u + ψ(t)) = f (¯ u) + f (¯ u)ψ(t) + e(t), u) die Jacobi-Matrix von f : Rd → Rd in u¯ ist. Der Fehlerausdruck wobei f (¯ e(t) ist quadratisch in ψ(t) (und daher sehr klein, falls ψ(t) klein ist). Da f (¯ u) = 0 und u(t) Gleichung (56.1) erf¨ ullt, gilt d ˙ ψ(t) = (¯ u + ψ(t)) = f (u(t)) = f (¯ u)ψ(t) + e(t). dt
56.3 Linearisierung bei einer station¨ aren L¨ osung
855
Wenn wir den quadratischen Ausdruck e(t) vernachl¨assigen, f¨ uhrt uns das auf ein lineares Anfangswertproblem: u)ϕ(t) ϕ(t) ˙ = f (¯
f¨ ur t > 0,
ϕ(0) = ϕ0 ,
(56.3)
wobei ϕ(t) eine N¨ aherung der St¨ orung ψ(t) = u(t) − u ¯ ist, die bis auf einen Ausdruck zweiter Ordnung miteinander u ¨ bereinstimmen. Wir bezeichnen (56.3) als das linearisierte Problem, das mit der station¨aren L¨osung u ¯ von (56.1) im Zusammenhang steht. Da f (¯ u) eine konstante d × d-Matrix ist, k¨ onnen wir die L¨ osung von (56.3) mit Hilfe der Exponentialfunktion f¨ ur Matrizen als ur 0 < t ≤ T (56.4) ϕ(t) = exp(tA)ϕ0 f¨ u). Somit haben wir eine Formel gefunden, die die schreiben, mit A = f (¯ Entwicklung der St¨ orung ϕ(t) beschreibt, die mit einer Anfangsst¨orung angig von den Eigenschaften der Matrix exp(tA) ϕ(0) = ϕ0 beginnt. Abh¨ kann die St¨ orung mit der Zeit anwachsen oder abnehmen, was einer st¨arkeren oder schw¨ acheren Sensitivit¨ at der L¨ osung u(t) auf St¨orungen in den Eingangsdaten entspricht und somit unterschiedliche Stabilit¨atseigenschaften des gegebenen Problems aufzeigt. Ist A diagonalisierbar, so dass also A = BΛB −1 mit einer d × d-Matrix B und einer Diagonalmatrix Λ mit den Eigenwerten λ1 , . . . , λd von A, so wissen wir, dass ϕ(t) = B exp(tΛ)B −1 ϕ0
f¨ ur t ≥ 0.
(56.5)
Daran sehen wir, dass jede der Komponenten von ϕ(t) eine Linearkombination von exp(tλ1 ), . . . , exp(tλd ) ist und dass das Vorzeichen des Realteils uber entscheidet, ob der zugeh¨orige Ausdruck exponentiell Re λi von λi dar¨ w¨ achst oder abnimmt. Sind einige der Re λi > 0, dann werden bestimmte St¨ orungen exponentielles Wachstum bewirken, was bedeutet, dass die zugeh¨ orige station¨ are L¨ osung u ¯ instabil ist. Sind andererseits alle Re λi < 0, dann erwarten wir, dass u¯ stabil ist. Diese Betrachtungen sind qualitativer Natur und um genauer zu sein, sollten wir Beurteilungen zur Stabilit¨ at oder Instabilit¨at auf quantitative Absch¨ atzungen des St¨ orungseinflusses abst¨ utzen. Im diagonalisierbaren Fall folgt aus (56.5) in der euklidischen Vektor- und Matrixnorm, dass ϕ(t) ≤ BB −1 max exp(tλi )ϕ0 . i=1,...,d
(56.6)
Wir erkennen, dass das maximale Wachstum einer St¨orung durch den gr¨ oßten exponentiellen Faktoren exp(tλi ) und die Faktoren B und B −1 beschr¨ ankt ist. Ist die Matrix B orthonormal, dann ist B = B −1 = 1 und das Wachstum einer St¨ orung h¨ angt alleine von den exponentiellen Faktoren exp(tλi ) ab. Wir widmen diesem Fall besondere Aufmerksamkeit.
856
56. Linearisierung und Stabilit¨ at von Anfangswertproblemen
56.4 Stabilit¨atsanalyse fu u) ¨r symmetrisches f (¯ Ist A = f (¯ u) symmetrisch, so dass A = QΛQ−1 mit orthonormalem Q und Diagonalmatrix Λ mit reellen Diagonalelementen λi , dann gilt ϕ(t) ≤ max exp(tλi )ϕ0 . i=1,...,d
(56.7)
Sind insbesondere alle Eigenwerte λi ≤ 0, dann k¨onnen St¨orungen ϕ(t) nicht mit der Zeit anwachsen, weswegen wir die L¨osung u¯ stabil nennen. Ist origem Eigenvektor gi , dann l¨ost ϕ(t) = andererseits ein λi > 0 mit zugeh¨ exp(tλi )gi das linearisierte Anfangswertproblem (56.3) mit ϕ0 = gi und die besondere St¨ orung ϕ(t) w¨ achst dann exponentiell. Wir bezeichnen die L¨ osung u ¯ dann als instabil. Nat¨ urlich beeinflusst die Gr¨oße des positiven Eigenwerts das Wachstum der St¨ orung. Ist also λi > 0 klein, dann ist auch das Wachstum klein und die Instabilit¨ at ist schwach ausgepr¨agt. Ist andererseits λi negativ und klein, dann ist auch die exponentielle Abnahme langsam.
56.5 Stabilita¨tsfaktoren Wir k¨ onnen die Stabilit¨ atseigenschaften einer gegebenen St¨orung ϕ0 durch den folgendermaßen definierten Stabilit¨atsfaktor S(T, ϕ0 ) ausdr¨ ucken: S(T, ϕ0 ) = max
0≤t≤T
ϕ(t) , ϕ0
wobei ϕ(t) das linearisierte Problem (56.3) zu den Eingangsdaten ϕ0 l¨ost. Der Stabilit¨ atsfaktor S(T, ϕ0 ) ist ein Maß f¨ ur das maximale Wachstum der Norm von ϕ(t) im Zeitintervall [0, T ] relativ zur Norm des Anfangswerts ϕ0 . Wir k¨ onnen nun versuchen, die Stabilit¨ atseigenschaften einer station¨aren L¨ osung u ¯ durch Maximierung u ¨ ber alle verschiedenen St¨orungen zu erfassen: S(T, ϕ0 ). S(T ) = max 0 ϕ =0
Ist der Stabilit¨ atsfaktor S(T ) groß, dann wachsen einige St¨orungen sehr stark im Zeitintervall [0, T ] an, was große Sensitivit¨at auf St¨orungen oder Instabilit¨at bedeutet. Ist andererseits S(T ) nur moderat groß, dann ist auch der St¨ orungseinfluß moderat, was Stabilit¨at bedeutet. Mit Hilfe der euklidischen Matrixnorm k¨ onnen wir S(T ) auch, wie folgt, schreiben: S(T ) = max exp(tA). 0≤t≤T
56.5 Stabilit¨ atsfaktoren
857
Beispiel 56.2. Sei A = f (¯ u) symmetrisch mit den Eigenwerten λ1 , . . . , λd . Dann ist S(T ) = max
max exp(tλi ).
i=1,...,d 0≤t≤T
Insbesondere ist S(T ) = 1, falls alle λi ≤ 0. Beispiel 56.3. Das Anfangswertproblem f¨ ur ein Pendel besitzt die Form u˙ 1 = u2 , u˙ 2 = − sin(u1 ) f¨ ur t > 0, u1 (0) = u01 , u2 (0) = u02 , was f (u) = (u2 , − sin(u1 )) entspricht. Die Gleichgewichtsl¨osungen sind u¯ = (0, 0) und u ¯ = (π, 0). Es gilt 0 1 f (¯ u) = − cos(¯ u1 ) 0 und das linearisierte Problem in u¯ = (0, 0) nimmt die Form 0 1 ϕ(t) ˙ = ϕ(t) = A0 ϕ(t) f¨ ur t > 0, ϕ(0) = ϕ0 −1 0 an, mit der L¨ osung ϕ1 (t) = ϕ01 cos(t) + ϕ02 sin(t),
ϕ2 (t) = −ϕ01 sin(t) + ϕ02 cos(t).
cos(t) sin(t) − sin(t) cos(t) eine orthonormale Matrix ist) erhalten wir, dass f¨ ur t > 0
Durch direkte Berechnung (oder unter Ausnutzung, dass
ϕ(t)2 = ϕ0 2 gilt, d.h., die Norm ϕ(t) einer L¨ osung ϕ(t) der linearisierten Gleichungen ist von der Zeit unabh¨ angig, was bedeutet, dass der Stabilit¨atsfaktor S(T ) = 1 f¨ ur alle t > 0. Wir folgern, dass die Norm einer St¨orung f¨ ur immer klein bleibt, wenn sie zu Beginn klein ist. Dies bedeutet, dass die Gleichgewichtsl¨ osung u ¯ = (0, 0) stabil ist. Genauer gesagt, so wird das Pendel mit konstanter Amplitude um die Ausgangsposition vor- und zur¨ uckschwingen, wenn es anf¨ anglich ein bisschen in seiner Ruhelage gest¨ort wird. Dies entspricht nat¨ urlich unserer experimentellen Erfahrung. Dabei ist der linearisierte Operator A0 unsymmetrisch; die Eigenwerte von A0 sind rein imagin¨ ar ±i, woraus folgt, dass ϕ(t) = ϕ0 und dass eine St¨ orung weder w¨ achst noch abnimmt. Wir k¨onnen auf eine andere Art zu demselben Ergebnis kommen, indem wir ausnutzen, dass A0 antisymme trisch ist, d.h. dass A 0 = −A0 . Daraus folgt, dass (A0 ϕ, ϕ) = (ϕ, A0 ϕ) =
858
56. Linearisierung und Stabilit¨ at von Anfangswertproblemen
−(ϕ, A0 ϕ) = −(A0 ϕ, ϕ) und somit (A0 ϕ, ϕ) = 0, wobei (·, ·) das Skalarprodukt in R2 ist. Aus der Gleichung ϕ˙ = A0 ϕ folgt nach Multiplikation mit d d (ϕ, ϕ) = 12 dt ϕ2 , woraus sich ϕ(t)2 = ϕ0 2 ϕ, dass 0 = (ϕ, ˙ ϕ) = 12 dt ergibt. Das linearisierte Problem in u ¯ = (π, 0) lautet: 0 1 ϕ(t) ˙ = ϕ(t) = Aπ ϕ(t) f¨ ur t > 0, 1 0
ϕ(0) = ϕ0 ,
mit symmetrischer Matrix Aπ mit den Eigenwerten ±1. Da ein Eigenwert positiv ist, ist die station¨ are L¨ osung u ¯ = (π, 0) instabil. Genauer gesagt, so ergibt sich die L¨ osung zu ϕ1 =
ϕ01 t ϕ0 ϕ0 ϕ0 (e + e−t ) + 2 (et − e−t ), ϕ2 = 1 (et − e−t ) + 2 (et + e−t ). 2 2 2 2
Aufgrund des exponentiellen Faktors et , wachsen St¨orungen mit der Zeit exponentiell und daher wird eine anf¨ anglich kleine St¨orung groß werden, sobald etwa t ≥ 10. Physikalisch bedeutet dies, dass selbst eine winzig ¨ bringen wird. Dies kleine St¨ orung das Pendel aus seiner Uber-Kopf-Lage“ ” stimmt nat¨ urlich mit unserer Beobachtung u ¨berein: Ein Pendel u ¨ ber Kopf auszubalanzieren ist ein kniffliges Unterfangen. Bereits kleinste St¨orungen wachsen schnell zu großen St¨ orungen an und die Gleichgewichtsl¨osung (π, 0) des Pendels ist instabil. Beispiel 56.4. Die Linearisierung des Unfallmodells (56.2) in der Gleichgewichtsl¨ osung u ¯ = (1, 0) nimmt folgende Form an: −ν κ ur t > 0, ϕ(0) = ϕ0 . (56.8) ϕ(t) = Aν,κ ϕ(t) f¨ ϕ(t) ˙ = 0 −ν Die L¨ osung ergibt sich zu ϕ1 (t) = tκ exp(−νt)ϕ02 +exp(−νt)ϕ01 und ϕ2 (t) = 0 ϕ2 exp(−νt). Offensichtlich nimmt ϕ2 (t) monoton auf Null ab, wie auch ur κ = 0. Ist jedoch κ = 0, erreicht ϕ1 (t), wenn wir der Einfachheit ϕ1 (t) f¨ halber annehmen, dass ϕ01 = 0, den folgenden Wert an: ϕ1 (ν −1 ) = ν −1 κ exp(−1)ϕ02 , worin der Faktor ν −1 enthalten ist, der groß wird, wenn ν klein ist. Anders formuliert, so ist der Stabilit¨ atsfaktor S(ν −1 ) ∼ ν −1 groß, wenn ν klein ist. Schließlich wird ϕ1 (t) jedoch auf Null abnehmen. Als Folge davon ist die Gleichgewichtsl¨ osung (1, 0) nur gegen kleine St¨orungen stabil. Wie wir im Kapitel Das Unfallmodellierung“ gesehen haben, ist (1, 0) instabil ge” gen¨ uber St¨ orungen oberhalb einer von λ abh¨ angigen Schwelle. Wir halten u) = Aν,κ einen doppelten Eigenwert −ν fest, dass die Jacobi-Matrix f (¯ besitzt. Aν,κ ist jedoch nicht-symmetrisch und der Raum der Eigenvektoren ist eindimensional und wird von (1, 0) aufgespannt. Als Folge davon
56.6 Stabilit¨ at zeitabh¨ angiger L¨ osungen
859
tritt der Ausdruck tκ exp(−νt)ϕ02 , der linear in t ist, auf. Daher kann f¨ ur ein hochgradig nicht-symmetrisches Problem (wenn ν klein ist) ein großes orung m¨ oglich sein, obwohl alle Eigenwerte nicht Wachstum ∼ ν −1 der St¨ positiv sind. ur eine nicht-normale Matrix. Eine nichtDie Matrix Aν,κ ist ein Beispiel f¨ normale Matrix A ist eine Matrix, f¨ ur die A A = AA . Eine nicht-normale Matrix kann diagonalisierbar sein oder nicht. Ist sie diagonalisierbar, so dass also A = BΛB −1 , dann kann B oder B −1 groß sein, was zu großen Stabilit¨ atsfaktoren f¨ ur das zugeh¨ orige linearisierte Problem f¨ uhrt, wie wir gerade gesehen haben (vgl. Aufgabe 56.5). Die Linearisierung der Gleichgewichtsl¨ osung u¯ = (2, κν ) nimmt die Form ϕ(t) ˙ =
0 2
ν κ
2κ ϕ(t) 0
f¨ ur t > 0,
ϕ(0) = ϕ0
(56.9)
√ an. Die Eigenwerte der Jacobi-Matrix sind ± √ 2ν und die L¨osung ist eine √ Linearkombination von exp( 2νt) und exp(− 2νt). Sie besitzt folglich √ einen exponentiell wachsenden Teil mit dem Wachstumsfaktor exp( 2νt). Die Gleichgewichtsl¨ osung u = (2, κν ) ist daher instabil.
56.6 Stabilit¨at zeitabh¨angiger L¨osungen Wir wollen nun versuchen, die Reichweite unserer Aussagen auf die Linearisierung und die linearisierte Stabilit¨ at f¨ ur die zeitabh¨angige L¨osung u ¯(t) von (56.1) auszudehnen. Wir wollen L¨ osungen der Form u(t) = u¯(t) + ψ(t) d u¯ = f (¯ u) und untersuchen, wobei ψ(t) eine St¨ orung ist. Mit Hilfe von dt der Linearisierung von f in u ¯(t) erhalten wir d (¯ u + ψ)(t) = f (¯ u(t)) + f (¯ u(t))ψ(t) + e(t), dt wobei e(t) ein in ψ(t) quadratischer Ausdruck ist. Dies f¨ uhrt uns auf die linearisierte Gleichung ϕ(t) ˙ = A(t)ϕ(t)
f¨ ur t > 0, ϕ(0) = ϕ0 ,
(56.10)
wobei A(t) = f (¯ u(t)) eine d × d-Matrix ist, die von t abh¨angt, wenn u ¯(t) von t abh¨ angt. Wir kennen keine analytische L¨osungsformel f¨ ur dieses allgemeine Problem, weswegen ein analytischer Zugang zu den Stabilit¨atseigenschaften des linearisierten Problems (56.10) schwierig sein kann, auch wenn sich die Eigenschaften der L¨ osung u ¯(t) durch L¨osungen ϕ(t) von (56.10) ausdr¨ ucken lassen. Wir k¨ onnen wie oben Stabilit¨atsfaktoren S(T, ϕ0 ) und S(T ) definieren, und wir k¨ onnen sagen, dass die L¨osung u ¯(t) stabil ist, wenn S(T ) m¨ aßig groß ist und instabil, wenn S(T ) groß ist. Um S(T ) im
860
56. Linearisierung und Stabilit¨ at von Anfangswertproblemen
Allgemeinen zu bestimmen, m¨ ussen wir numerische Methoden anwenden und (56.10) f¨ ur verschiedene Eingangsdaten ϕ0 l¨osen. Wir werden auf die Berechnung von Stabilit¨ atsfaktoren im n¨ achsten Kapitel zur¨ uckkommen, wenn wir adaptive L¨ oser f¨ ur Anfangswertprobleme untersuchen.
56.7 Zusammenfassung Die Frage nach der Stabilit¨ at von L¨ osungen von Anfangswertproblemen ist von zentraler Wichtigkeit. Wir k¨ onnen f¨ ur den Fall einer station¨aren L¨osung mit zugeh¨ origer symmetrischer Jacobi-Matrix klare Aussagen machen. F¨ ur den Fall bedeutet ein positiver Eigenwert Instabilit¨at, wobei die Instabilit¨ at mit dem Eigenwert anw¨ achst; sind alle Eigenwerte negativ, bedeutet dies Stabilit¨ at. F¨ ur den Fall einer anti-symmetrischen Jacobi-Matrix liegt ebenso Stabilit¨ at vor, wobei die Norm der St¨ orungen u ¨ ber die Zeit konstant bleibt. Ist die Jacobi-Matrix nicht-normal, m¨ ussen wir vorsichtig sein und bedenken, dass pure Sicht auf das Vorzeichen des Realteils der Eigenwerte in die Irre f¨ uhren kann: Im nicht-normalen Fall, kann algebraisches Wachstum tats¨ achlich f¨ ur eine bestimmte Zeit gegen¨ uber langsamer exponentieller Abnahme u allen, wie auch f¨ ur zeitabh¨angige L¨osun¨ berwiegen. In diesen F¨ gen, kann eine analytische Stabilit¨ atsanalyse jenseits unserer M¨oglichkeiten sein und die gew¨ unschte Information zur Stabilit¨at kann dann nur durch numerische L¨ osung des assoziierten linearisierten Problems erhalten werden.
Aufgaben zu Kapitel 56 56.1. Bestimmen Sie die station¨ aren L¨ osungen f¨ ur das System u˙ 1 = u2 (1 − u21 ), u˙ 2 = 2 − u1 u2 und untersuchen Sie die Stabilit¨ at dieser L¨ osungen. 56.2. Bestimmen Sie die station¨ aren L¨ osungen f¨ ur das folgende System (MineaGleichungen) f¨ ur verschiedene δ > 0 und γ: u˙ 1 = −u1 − δ(u22 + u23 ) + γ, u˙ 2 = −u2 − δu1 u2 , u˙ 3 = −u3 − δu1 u3 . Untersuchen Sie die Stabilit¨ at dieser L¨ osungen. 56.3. Bestimmen Sie die station¨ aren L¨ osungen f¨ ur das System (56.1) mit (a) f (u) = (u1 (1 − u2 ), u2 (1 − u1 )),
Aufgaben zu Kapitel 56
861
(b) f (u) = (−2(u1 − 10) + u2 exp(u1 ), −2u2 − u2 exp(u1 )), (c) f (u) = (u1 + u1 u22 + u1 u23 , −u1 + u2 − u2 u3 + u1 u2 u3 , u2 + u3 − u21 ) und untersuchen Sie die Stabilit¨ at dieser L¨ osungen. 56.4. Bestimmen Sie die station¨ aren L¨ osungen f¨ ur das System (56.1) mit (a) f (u) = (−1001u1 + 999u2 , 999u1 − 1001u2 ), (b) f (u) = (−u1 + 3u2 + 5u3 , −4u2 + 6u3 , u3 ), (c) f (u) = (u2 , −u1 − 4u2 ) und untersuchen Sie die Stabilit¨ at dieser L¨ osungen. 56.5. Analysieren Sie die Stabilit¨ at der folgenden Variante des linearisierten Problems (56.8) mit kleinem > 0: −ν κ ur t > 0, ϕ(0) = ϕ0 . (56.11) ϕ(t) = Aν,κ, ϕ(t) f¨ ϕ(t) ˙ = −ν Diagonalisieren Sie dazu die Matrix Aν,κ, . Beachten Sie, dass die Diagonalisierung entartet, wenn gegen Null strebt (d.h. dass zwei Eigenvektoren parallel werden). Pr¨ ufen Sie, ob Aν,κ, eine normale oder eine nicht-normale Matrix ist.
57 Adaptive L¨oser fu¨r Anfangswertprobleme
Bei zwei Gelegenheiten wurde ich (von Mitgliedern des Parlaments) gefragt: Sagen Sie, Mr. Babbage, wenn Sie falsche Zahlen in die ” Maschine geben, wird dann die richtige Antwort herauskommen?“. Ich kann die Art von Verwirrung nicht richtig verstehen, die solch eine Frage hervorrufen kann. (Babbage (1792–1871))
57.1 Einleitung In diesem Kapitel untersuchen wir den wichtigen Gesichtspunkt der adaptiven Fehlerkontrolle bei numerischen Methoden zur Berechnung von Anfangswertproblemen. Uns interessiert dabei eine automatische Zeitschrittwahl, um den numerischen Fehler innerhalb einer Toleranz zu halten und dabei so wenige Zeitschritte wie m¨ oglich zu ben¨otigen. Die zentrale Idee ist dabei, R¨ uckkopplungsinformationen aus der Berechnung des Residuums der berechneten L¨ osung mit den Ergebnissen zus¨atzlicher Berechnungen des Stabilit¨atsfaktors zu kombinieren. Wir konzentrieren uns dabei zun¨achst auf die cG(1)-Methode und werden dann das r¨ uckw¨artige Euler Verfahren kommentieren, das auch als diskontinuierliche Galerkin-Methode mit st¨ uckweise konstanten Funktionen, dG(0), bezeichnet wird. Daneben werden wir auch Anwendungen der cG(1)- und der dG(0)Methode f¨ ur eine Klasse sogenannter steifer Anfangswertprobleme, AWP, diskutieren, die typischerweise bei der Modellierung chemischer Reaktionen auftreten.
864
57. Adaptive L¨ oser f¨ ur AWP
57.2 Die cG(1)-Methode Wir wiederholen zun¨ achst, dass cG(1), die stetige Galerkin-Methode mit Polynomen vom Grade 1, f¨ ur das Anfangswertproblem u(t) ˙ = f (u(t)) f¨ ur t > 0, u(0) = u0 mit f : Rd → Rd die folgende Form annimmt:
tn
U (tn ) = U (tn−1 ) +
f (U (t)) dt,
n = 1, 2, . . . .
(57.1)
tn−1
Dabei ist U (t) eine stetige st¨ uckweise lineare Funktion mit Knotenwerten U (tn ) ∈ Rd in diskreten Zeitpunkten 0 = t0 < t1 < . . . in ansteigender Folge und U (0) = u0 . Wenn wir das Integral in (57.1) mit der Mittelpunktsregel der Quadratur auswerten, erhalten wir das Mittelpunktsverfahren: U (tn ) + U (tn−1 ) U (tn ) = U (tn−1 ) + kn f , n = 1, 2, . . . , (57.2) 2 wobei kn = tn − tn−1 der Zeitschritt ist. Die cG(1)-Methode ist die erste einer Familie von cG(q)-Methoden mit q = 1, 2, . . ., bei der die L¨osung durch stetige st¨ uckweise definierte Polynome der Ordnung q angen¨ahert wird. Die Orthogonalit¨ at“ der cG(1)-Methode wird durch die Tatsache ” ausgedr¨ uckt, dass die Methode auch in der Form tn (U˙ (t) − f (U (t))) · v dt = 0, n = 1, 2, . . . , (57.3) tn−1
f¨ ur alle v ∈ Rd geschrieben werden kann. Dies besagt, dass das Residuum ˙ R(U (t)) = U(t) − f (U (t)),
t ∈ [0, T ],
(57.4)
der stetigen st¨ uckweise linearen N¨ aherungsl¨ osung U (t) auf jedem Teilintervall (tn−1 , tn ) orthogonal zu den konstanten Funktionen v(t) ∈ Rd ist. Das Residuum u(t) ˙ − f (u(t)) der exakten L¨ osung ist Null, da u(t) ˙ = f (u(t)), wohingegen das Residuum R(U (t)) der N¨ aherungsl¨osung U (t) im Allgemei¨ ne ungleich Null ist. Ahnlicherweise ist das Residuum bei cG(q)-Methoden auf (tn−1 , tn ) orthogonal zu Polynomen des Grades q − 1. Wir betonen, dass (57.1) eine Vektorgleichung ist, mit den Komponenten
tn
Ui (tn ) = Ui (tn−1 ) +
fi (U (t)) dt,
n = 1, 2, . . . , i = 1, . . . , d,
tn−1
wie man aus (57.3) durch Einsetzen von v = ei , i = 1, . . . , d erkennen kann. Wir werden nun das Problem der automatischen Schrittweitenkontrolle untersuchen, um den Fehler durch u(T ) − U (T ) ≤ T OL
57.2 Die cG(1)-Methode
865
zu beschr¨ anken, wobei T = tN der Abschlusszeit entspricht und TOL eine gegebene Toleranz ist, wobei wir so wenige Zeitschritte wie m¨oglich benutzen wollen. Das Ziel ist dasselbe wie das bei der Berechnung eines Integrals u ¨ ber das Intervall [0, T ] mit Hilfe der numerischen Quadratur, wo wir mit so wenigen Quadraturpunkten wie m¨ oglich eine bestimmte Genauigkeit erreichen wollen. Dies entspricht exakt dem Problem, das wir im Falle eines skalaren Anfangswertproblems u(t) ˙ = f (u(t), t) mit f (u(t), t) = f (t) vorfinden. Wir werden eine a posteriori Fehlerabsch¨atzung herleiten, bei der der abschließende Fehler u(T ) − U (T ) mit Hilfe des Residuums R(U (t)) = ˙ U(t) − f (U (t)) und bestimmter Stabilit¨atsfaktoren abgesch¨atzt wird, womit die Anh¨aufung numerischer Fehler, die in jedem Zeitschritt auftreten, ber¨ ucksichtigt wird. Die a posteriori Fehlerabsch¨ atzung nimmt die Form u(T ) − U (T ) ≤ Sc (T ) max k(t)R(U (t)) 0≤t≤T
(57.5)
ur t ∈ [tn−1 , tn ). Der Stabilit¨atsfaktor Sc (T ) an, mit k(t) = kn = tn − tn−1 f¨ ist folgendermaßen definiert. Wir betrachten dazu das linearisierte Problem −ϕ(t) ˙ = A (t)ϕ(t)
f¨ ur 0 < t < T, ϕ(T ) = ϕ0 ,
(57.6)
mit A(t) =
1
f (su(t) + (1 − s)U (t)) ds.
0
Wir halten fest, dass der Austausch von u(t) gegen U (t) zur folgenden N¨ aherungsformel f¨ ur A(t) f¨ uhrt, wobei vorausgesetzt wird, dass U (t) nahe bei u(t) ist: A(t) ≈ f (U (t)). Wir folgern daraus, dass A(t) nahezu der Jacobi-Matrix f (u(t)) von f (v) in v = u(t) entspricht, falls U (t) eine sinnvolle N¨aherung von u(t) ist. Beachten Sie, dass in (57.6) die Transponierte (oder Duale) A (t) von A(t) vorkommt und dass das linearisierte duale Problem (57.6) r¨ uckw¨arts in der Zeit l¨ auft, da der Anfangswert ϕ(T ) = ϕ0 f¨ ur die Zeit t = T spezifiziert ist. Nun sind wir bereit, die folgenden Stabilit¨ atsfaktoren einzuf¨ uhren: ϕ(t) , ϕ0 t ϕ(s) ˙ ds Sc (T ) = max 0 , 0 0 d ϕ ϕ ∈R
Sd (T ) = max
ϕ0 ∈Rd
(57.7)
wobei ϕ die Gleichung (57.6) l¨ ost. Wir halten fest, dass die Stabilit¨atsfaktoren unterschiedliche Eigenschaften der dualen L¨osung ϕ messen. Der
866
57. Adaptive L¨ oser f¨ ur AWP
Stabilit¨ atsfaktor Sd (t) misst das maximale Wachstum einer St¨orung u ¨ ber das Zeitintervall [0, T ]. Wir haben diesen Faktor bereits im vorangegangenen Kapitel angetroffen. Wir werden sehen, dass dieser Faktor darauf zugeschnitten ist, den Einfluss eines Fehlers in den Eingangsdaten u0 zu messen. Das d“ in Sd verweist auf Daten“. Der Stabilit¨atsfaktor Sc (t) ” ” misst das Integral von ϕ ˙ u ¨ ber [0, T ] und ist dazu angelegt, den in der cG(1)-Methode inh¨ arenten Fehler zu bestimmen und das c“ in Sc verweist ” auf Computation“. ” Wir werden unten einen Beweis von (57.5) geben. Zun¨achst f¨ ur einen einfachen Fall mit n = 1 und f (u(t)) = au(t) mit einer Konstante a und dann f¨ ur den allgemeinen Fall. Die Beweise sind sehr einfach. Bevor wir aber in die Beweise eintauchen, werden wir zun¨achst versuchen, die a posteriori Fehlerabsch¨ atzung zu verstehen und uns anschauen, wie diese eingesetzt werden kann, um einen adaptiven Algorithmus zu entwerfen, um den abschließenden Fehler u(T ) − U (T ) zu kontrollieren, so dass er mit so wenigen Zeitschritten wie m¨ oglich innerhalb einer Toleranz verbleibt. Die Stabilit¨ atsfaktoren Sc (T ) und Sd (T ) k¨onnen durch numerische L¨osung des linearisierten Dualproblems (57.6) mit ϕ0 = ei f¨ ur i = 1, . . . , d ¨ berechnet werden. Ist d groß, k¨ onnen wir die Anderungen der Eingangsdaten reduzieren, indem wir die Fehlerkontrolle auf gewisse Komponenten einschr¨ anken oder indem wir ϕ0 parallel zu u(T ) − U (T ) w¨ahlen, was wir ahern k¨ onnen, wobei die N¨aherungen Uh (T ) und durch Uh (T ) − UH (T ) ann¨ UH (T ) mit zwei unterschiedlichen Fehlertoleranzen berechnet werden.
57.3 Adaptive Zeitschrittkontrolle fu ¨ r cG(1) Wir erinnern an die wichtige Fehlerabsch¨ atzung (57.5): u(T ) − U (T ) ≤ Sc (T ) max k(t)R(t), 0≤t≤T
(57.8)
mit R(t) = U˙ (t) − f (U (t)). Wir setzen voraus, dass der Stabilit¨atsfaktor Sc (T ) berechnet oder gesch¨ atzt wurde. Wir werden auf diesen Punkt unten zur¨ uckkommen. Um u(T ) − U (T ) ≤ T OL zu erreichen, benutzen wir (57.5), um die Zeitschritte kn = tn − tn−1 so zu w¨ahlen, dass k(t) = kn ≈
T OL Sc (T )Rn
f¨ ur t ∈ [tn−1 , tn ),
(57.9)
wobei Rn =
max
tn−1 ≤t≤tn
U˙ (t) − f (U (t))
das Residuum auf dem Zeitintervall [tn−1 , tn ) ist. Beachten Sie, dass das Residuum Rn aus der berechneten L¨ osung U (t) berechenbar ist. Wenn Sc (T )
57.4 Analyse von cG(1) f¨ ur ein lineares skalares AWP
867
bekannt ist, dann haben wir mit (57.9) eine Gleichung f¨ ur den Zeitschritt kn = tn − tn−1 , wobei tn−1 bereits bekannt ist. Wie bei der adaptiven numerischen Quadratur f¨ uhrt (57.9) auf eine nicht-lineare Gleichung f¨ ur den Zeitschritt kn = tn − tn−1 . Indem wir eine Strategie mit Ausprobieren nutzen oder eine Vorhersage-Strategie, bei der wir Rn durch Rn−1 ersetzen, k¨ onnen wir versuchen, diese Gleichung zu l¨ osen.
57.4 Analyse von cG(1) fu ¨ r ein lineares skalares AWP Wir wollen nun eine a posteriori Fehlerabsch¨atzung f¨ ur cG(1) f¨ ur ein lineares skalares AWP der Form u(t) ˙ = au(t) + f (t) f¨ ur t > 0, u(0) = u0
(57.10)
beweisen, wobei a eine Konstante ist und f (t) eine gegebene Funktion. Die Analyse basiert auf der Darstellung des Fehlers mit Hilfe der L¨osung ϕ(t) f¨ ur das folgende duale Problem: −ϕ˙ = aϕ f¨ ur T > t ≥ 0, (57.11) ϕ(T ) = e(T ), mit e = u − U . Beachten Sie, dass (57.11) wiederum in der Zeit r¨ uckw¨arts“ ” l¨ auft, beginnend mit der Zeit tN und dass die Ableitung ϕ˙ nach der Zeit ein negatives Vorzeichen hat. Wir beginnen mit der Gleichung T e (−ϕ˙ − aϕ) dt e(T )2 = e(T )2 + 0
und integrieren partiell. Dadurch erhalten wir die folgende Darstellung von e(T )2: T e(T )2 = (e˙ − ae)ϕ dt + e(0)ϕ(0). 0
Hierbei darf sich U (0) von u(0) unterscheiden, was einem Fehler im Anfangswert u(0) entspricht. Da u die Differentialgleichung (57.10) l¨ost, d.h. u˙ − au = f , erhalten wir e˙ − ae = u˙ − au − U˙ + aU = f − U˙ + aU, woraus wir die folgende Darstellung des Fehlers e(T )2 in Abh¨angigkeit vom Residuum R(U ) = U˙ − aU − f und der dualen L¨osung ϕ erhalten: T tN e(T )2 = (f + aU − U˙ )ϕ dt + e(0)ϕ(0) = − R(U )ϕ dt + e(0)ϕ(0). 0
0
(57.12)
868
57. Adaptive L¨ oser f¨ ur AWP
Als N¨ achstes nutzen wir die Galerkin-Orthogonalit¨at von cG(1)
tn
R(U ) dt = 0
f¨ ur n = 1, 2, . . . ,
tn−1
um (57.12) in der Form
T
e(T )2 = −
R(U )(ϕ − ϕ) ¯ dt + e(0)ϕ(0)
(57.13)
0
zu schreiben, wobei ϕ¯ dem Mittelwert von ϕ u ¨ ber jedem Teilintervall entspricht, d.h. 1 kn
ϕ(t) ¯ =
tn
f¨ ur t ∈ [tn−1 , tn ).
ϕ(s) ds tn−1
Nun nutzen wir
ϕ − ϕ ¯ dt ≤ kn
In
ϕ ˙ dt, In
was sich durch Integration und der Tatsache, dass sowohl
1 ϕ(t) − ϕ(t) ¯ = kn
tn
(ϕ(t) − ϕ(s)) ds
tn−1
als auch
t
ϕ(t) − ϕ(s) ≤
ϕ(σ) ˙ dσ ≤ s
tn
ϕ(σ) ˙ dσ
f¨ ur s, t ∈ [tn−1 , tn ]
tn−1
ergibt. Daher impliziert (57.13) e(T )2 ≤
N
In
n=1
≤
N
ϕ − ϕdt ¯ + e(0)ϕ(0)
Rn
(57.14)
ϕdt ˙ + e(0)ϕ(0),
kn Rn
n=1
In
mit Rn =
max
tn−1 ≤t≤tn
R(U (t)).
Mit Hilfe von maxn kn Rn erhalten wir: tN e(T )2 ≤ max kn Rn ϕ ˙ dt + e(0)ϕ(0). 1≤n≤N
0
57.5 Analyse von cG(1) f¨ ur ein allgemeines AWP
869
Nun bedenken wir, dass ϕ(T ) = e(T ) und ber¨ ucksichtigen die Definitionen von Sc (tN ) und Sd (tN ) und erhalten dadurch die folgende endg¨ ultige Absch¨ atzung: e(T ) ≤ Sc (T ) max k(t)R(U (t)) + Sd (T )e(0). 0≤t≤T
ur die FehleranDie Stabilit¨ atsfaktoren Sc (T ) und Sd (T ) sind ein Maß f¨ sammlung in der N¨ aherung. Damit die Analyse eine quantitative Bedeutung erh¨ alt, m¨ ussen wir diesen Faktor quantitativ beschr¨anken. Das folur den Fall gende Lemma erlaubt eine Absch¨ atzung f¨ ur Sc (T ) und Sd (T ) f¨ a ≤ 0 und a ≥ 0 mit m¨ oglicherweise stark unterschiedlichen Stabilit¨atsfaktoren. Wir halten fest, dass die L¨ osung ϕ(t) von (57.11) durch die explizite Formel ϕ(t) = e(T ) exp(a(T − t)) gegeben wird. Wir erkennen, dass die L¨ osung ϕ(t) f¨ ur a ≤ 0 abnimmt, wenn t kleiner als T wird, weswegen der Fall a ≤ 0 der stabile Fall“ ist. Ist ” dagegen a > 0, gewinnt der exponentielle Faktor exp(aT ) die Oberhand, wodurch der Fall abh¨ angig von a instabil“ ist. Genauer formuliert, so ” folgern wir direkt aus der expliziten L¨ osungsformel, dass: ullen f¨ ur a > 0 Lemma 57.1 Die Stabilit¨atsfaktoren Sc (T ) und Sd (T ) erf¨ Sd (T ) ≤ exp(aT ), und f¨ ur a ≤ 0:
Sd (T ) ≤ 1,
Sc (T ) ≤ exp(aT )
(57.15)
Sc (T ) ≤ 1.
(57.16)
57.5 Analyse von cG(1) fu ¨ r ein allgemeines AWP Die Erweiterung der a posteriori Fehleranalyse auf ein allgemeines AWP u˙ = f (u) mit f : Rd → Rd erhalten wir folgendermaßen: Wir erinnern uns daran, dass das linearisierte duale Problem, die Form −ϕ(t) ˙ = A (t)ϕ(t) annimmt, mit
A(t) =
1
f¨ ur 0 < t < T, ϕ(T ) = e(T )
(57.17)
f (su(t) + (1 − s)U (t)) ds,
0
wobei u(t) die exakte L¨ osung ist und U (t) die N¨aherungsl¨osung. Wir nutzen nun die Tatsache, dass 1 f (su(t) + (1 − s)U (t))e(t) ds A(t)e(t) = 0 (57.18) 1 d f (su(t) + (1 − s)U (t)) ds = f (u(t)) − f (U (t)), = 0 ds
870
57. Adaptive L¨ oser f¨ ur AWP
wobei wir auf die Kettenregel und den Fundamentalsatz der Integral- und Differentialgleichung zurckgreifen. Wir beginnen mit der Gleichung e(T )2 = e(T )2 +
T
e · (−ϕ˙ − A ϕ) dt,
0
integrieren partiell und erhalten so die Fehlerdarstellung
T
(e˙ − Ae) · ϕ dt + e(0) · ϕ(0),
e(T )2 = 0
wobei wir zulassen, dass U (0) von u(0) verschieden ist, was einem Fehler im Anfangswert u(0) entspricht. Da u die Differentialgleichung u˙ − f (u) = 0 l¨ost, impliziert (57.18), dass e˙ − Ae = u˙ − f (u) − U˙ + f (U ) = −U˙ + f (U ) und somit erhalten wir die folgende Darstellung f¨ ur den Fehler e(T )2 mit Hilfe des Residuums R(U ) = U˙ − f (U ) und der dualen L¨osung ϕ: e(T ) = −
tN
2
R(U )ϕ dt + e(0)ϕ(0).
(57.19)
0
An dieser Stelle wird der Beweis wie im skalaren Fall, den wir oben untersucht haben, fortgesetzt und wir erhalten schließlich die folgende a posteriori Fehlerabsch¨ atzung e(T ) ≤ Sc (T ) max k(t)R(U (t)) + Sd (T )e(0), 0≤t≤T
die, wie oben angef¨ uhrt, als Basis f¨ ur die adaptive Zeitschrittkontrolle benutzt werden kann. Die Stabilit¨ atsfaktoren Sc (T ) und Sd (T ) k¨onnen durch die L¨ osung des dualen Problems mit geeigneten Anfangsdaten abgesch¨atzt werden. Der Beweis f¨ ur die a posteriori Fehlerabsch¨atzung zeigt, dass die Stabilit¨ atsfaktoren durch ϕ(t) , e(T ) t ϕ(s) ˙ ds Sc (T ) = 0 e(T )
Sd (T ) =
(57.20)
definiert werden k¨ onnen, wobei ϕ das linearisierte duale Problem mit den Eingangsdaten ϕ(T ) = e(T ) l¨ ost. Wie angedeutet, k¨onnen wir das duale Problem mit einer Absch¨ atzung von e(T ) l¨ osen, um die Stabilit¨atsfaktoren atzung f¨ ur e(T ) gewinnen wir Sc (T ) und Sd (T ) zu berechnen. Die Absch¨ nach L¨ osung des Anfangswertproblems mit zwei Toleranzen als Differenz der entsprechenden N¨ aherungsl¨ osungen. Alternativ k¨onnen wir ϕ(T ) = ei
57.6 Analyse des r¨ uckw¨ artigen Euler Verfahrens
871
w¨ ahlen und erhalten so eine a posteriori Fehlerkontrolle f¨ ur die Fehlerkomponente ei (T ). Ist d nicht groß, k¨ onnen wir so alle Fehlerkomponenten kontrollieren. Ist d groß, k¨ onnen wir einige i zuf¨allig w¨ahlen. Die Gr¨ oße der Stabilit¨ atsfaktoren weist auf den Stabilit¨atsgrad der berechneten L¨ osung u(t) hin. Sind die Stabilit¨ atsfaktoren groß, m¨ ussen das Residuum R(U (t)) und e(0) entsprechend kleiner gemacht werden, indem kleinere Zeitschritte gew¨ ahlt werden. Der Berechnungsaufwand w¨achst entsprechend an.
57.6 Analyse des ru ¨ckw¨artigen Euler Verfahrens fu ¨ r ein allgemeines AWP Wir leiten nun eine a posteriori Fehlerabsch¨atzung f¨ ur das r¨ uckw¨artige Euler Verfahren f¨ ur das AWP (56.1) her: U (tn ) = U (tn−1 ) + kn f (U (tn )),
n = 1, 2, . . . , N,
U (0) = u0 .
Dazu verkn¨ upfen wir eine Funktion U (t), die auf [0, T ] definiert ist, folgendermaßen mit den Funktionswerten U (tn ), n = 0, 1, . . . , N : U (t) = U (tn )
f¨ ur t ∈ (tn−1 , tn ].
Anders formuliert, so ist U (t) auf [0, T ] st¨ uckweise konstant und nimmt auf (tn−1 , tn ] den Wert U (tn ) an und besitzt daher zum Zeitpunkt tn−1 einen Sprung vom Funktionswert U (tn−1 ) auf den Wert U (tn ). Nun k¨ onnen wir das r¨ uckw¨ artige Euler Verfahren als tn f (U (t)) dt U (tn ) = U (tn−1 ) + tn−1
schreiben oder ¨ aquivalent als U (tn ) · v = U (tn−1 ) · v +
tn
f (U (t)) · v dt,
(57.21)
tn−1
f¨ ur alle v ∈ Rd . Dieses Verfahren wird auch als dG(0) bezeichnet, bzw. diskontinuierliches Galerkinverfahren der Ordnung Null. Dadurch soll eine exakte L¨ osung durch eine st¨ uckweise konstante Funktion U (t), die die Orthogonalit¨ atsbeziehung (57.21) erf¨ ullt, angen¨ahert werden. Nun sind wir in der Lage, eine a posteriori Fehlerabsch¨atzung herzuleiten, wobei wir dieselbe Strategie einschlagen wie bei der cG(1)-Methode. Wir beginnen mit der Gleichung e(T ) = e(T ) + 2
2
N n=1
tn
tn−1
e · (−ϕ˙ − A ϕ) dt
872
57. Adaptive L¨ oser f¨ ur AWP
und integrieren partiell auf jedem Teilintervall (tn−1 , tn ). Dadurch erhalten wir die folgende Fehlerdarstellung: N
e(T ) = 2
(e˙ − Ae) · ϕ dt
tn−1
n=1
−
tn
N −1
(U (tn ) − U (tn−1 ))ϕ(tn−1 ),
n=2
wobei die letzte Summe von den Spr¨ ungen von U (t) in den Knoten t = tn−1 herr¨ uhrt und wir der Einfachheit halber davon ausgehen, dass U (0) = u(0). Da u die Differentialgleichung u˙ − f (u) = 0 l¨ost, folgt aus (57.18) und der Tatsache, dass U˙ = 0 auf (tn−1 , tn ), dass e˙ − Ae = u˙ − f (u) − U˙ + f (U ) = −U˙ + f (U ) = f (U ) auf (tn−1 , tn ) und dadurch erhalten wir e(T ) = − 2
N −1
(U (tn ) − U (tn−1 ))ϕ(tn−1 ) +
tN
f (U )ϕ dt. 0
n=2
Mit Hilfe von (57.21) und v = ϕ, ¯ das ist wie oben der Mittelwert von ϕ, erhalten wir e(T )2 = − +
N −1
(U (tn ) − U (tn−1 )) · (ϕ(tn−1 ) − ϕ(t ¯ n−1 ))
n=2 n tn
f (U )(ϕ − ϕ) ¯ dt.
tn−1
n=1
Wir halten fest, dass
tn
f (U )(ϕ − ϕ) ¯ dt = 0,
tn−1
da f (U (t)) auf (tn−1 , tn ] konstant ist. Da ϕ¯ der Mittelwert von ϕ ist, nimmt die Fehlerdarstellung daher die folgende abschließende Form an: e(T )2 = −
N −1
(U (tn ) − U (tn−1 )) · (ϕ(tn−1 ) − ϕ(t ¯ n−1 )).
n=2
Mit Hilfe von ¯ n−1 ) ≤ ϕ(tn−1 ) − ϕ(t
tn
tn−1
ϕ(t) ˙ dt,
57.7 Steife Anfangswertprobleme
873
erhalten wir die folgende a posteriori Fehlerabsch¨atzung f¨ ur das r¨ uckw¨artige Euler Verfahren: e(T ) ≤ Sc (T ) max U (tn ) − U (tn−1 ). 1≤n≤N
(57.22)
Beachten Sie die sehr einfache Form dieser Absch¨atzung, bei der die Spr¨ unge U (tn ) − U (tn−1 ) die Rolle des Residuums u ¨ bernehmen. Die a posteriori Fehlerabsch¨ atzung (57.22) kann folgendermaßen als Ausgangspunkt f¨ ur einen Algorithmus mit adaptiver Zeitschrittkontrolle dienen: F¨ ur n = 1, 2, . . . , w¨ ahlen wir kn so, dass U (tn ) − U (tn−1 ) ≈
T OL . Sc (T )
57.7 Steife Anfangswertprobleme Ein steifes Anfangswertproblem u˙ = f (u) kann dadurch charakterisiert ur große T werden, dass die Stabilit¨ atsfaktoren Sd (T ) und Sc (T ) auch f¨ m¨ aßig groß sind, wohingegen die Norm des linearen Operators f (u(t)) groß ist, d.h. die Lipschitz-Konstante Lf ist sehr groß. Solche Anfangswertprobleme treten beispielsweise bei der Modellierung chemischer Reaktionen, bei denen langsame und schnelle Reaktionen vorkommen, auf. Typische ¨ L¨ osungen beinhalten sogenannte Ubergangszust¨ ande, in denen die schnel¨ len Reaktionen (anf¨ anglich) zu schnellen Anderungen der L¨osung in kurzen Zeitintervallen f¨ uhren. Danach ist die schnelle Reaktion ausgebrannt“ und ” die langsamen Reaktionen ver¨ andern die L¨ osung auf einer gr¨oßeren Zeitskala. Der Prototyp f¨ ur ein steifes Anfangswertproblem besitzt die Form u˙ = f (u) = −Au f¨ ur t > 0, u(t) = u0 = (u0i ),
(57.23)
wobei A eine konstante symmetrische und positiv-semidefinite d×d-Matrix mit nicht-negativen Eigenwerten λi ist, die sich von Null bis hin zu großen positiven Werten erstrecken. Entsprechend ist die Norm der Matrix A groß und daher ist auch Lf groß. Durch die Diagonalisierung k¨onnen wir das Problem auf den Fall einer Diagonalmatrix A mit nicht-negativen Diagoosung daf¨ ur lautet nalelementen λi reduzieren. Die L¨ ui (t) = exp(−λi t)u0i
f¨ ur t > 0
(57.24)
osungsformel zeigt, dass eine Komponente mit u0 = (u0i ). Diese explizite L¨ ui (t), die zu einem großen positiven Eigenwert λi geh¨ort, sehr schnell auf Null abnimmt, wohingegen eine Komponente mit einem kleinen Eigenwert, f¨ ur eine lange Zeit nahezu konstant bleibt, bevor sie schließlich Null wird. Das Vorzeichen der Eigenwerte ist offensichtlich ganz entscheidend: W¨aren
874
57. Adaptive L¨ oser f¨ ur AWP
einige der λi negativ, dann w¨ urde die zugeh¨ orige L¨osungskomponente exponentiell explodieren und zwar mehr oder weniger schnell, was vom Betrag angt. Insbesondere folgt aus (57.24) f¨ ur ein nicht-negatives λi , von λi abh¨ dass u(t) ≤ u0 f¨ ur t > 0, (57.25) was eine Art von Stabilit¨ at andeutet, wobei der Stabilit¨atsfaktor 1 ist, in dem Sinne, dass die Norm der L¨ osung nicht mit der Zeit anw¨achst. Das (57.23) entsprechende duale Problem besitzt die Form −ϕ˙ + Aϕ = 0 f¨ ur T > t > 0, ϕ(T ) = ψ, wobei ψ zur Zeit t = T gegeben ist. Als Konsequenz aus (57.25) folgern ¨ k¨ onnen wir zeigen, dass Sc (T ) mit wachwir, dass Sd (T ) ≤ 1. Ahnlich sendem T sehr langsam anw¨ achst. Wir fassen zusammen: (57.23) stellt ein steifes Problem dar; Stabilit¨ atsfaktoren sind auch f¨ ur große T m¨aßig groß, wohingegen der (linearisierte) Operator A eine große Norm besitzt. Vom numerischen Standpunkt aus scheinen steife Probleme besonders angenehm zu sein, da die Stabilit¨ atsfaktoren sehr langsam mit der Zeit anwachsen. Es gibt dabei jedoch einen Haken, der eine Menge Aufmerksamkeit in der Literatur zu numerischen Methoden f¨ ur Anfangswertprobleme auf sich gezogen hat, n¨ amlich das Scheitern einer expliziten Methode wie dem vorw¨ artigen Euler Verfahren. Wir schreiben das Verfahren f¨ ur die Gleichung u˙ = −Au in der Form U n = U n−1 − kn AU n−1 , aherung f¨ ur u(tn ) ist und 0 = t0 < t1 < . . . eine anwachwobei U n eine N¨ sende Folge von Zeitpunkten mit kn = tn − tn−1 . Ist A diagonal mit den Diagonalelementen λi ≥ 0, dann gilt Uin = (1 − kn λi )Uin−1 . Ist λi positiv und groß, dann kann |1 − kn λi | sehr viel gr¨oßer sein als 1, ugend klein ist (kn ≤ 2/|λi | f¨ ur alle i). wenn der Zeitschritt kn nicht gen¨ Dann wird die numerische L¨ osung schnell gegen Unendlich explodieren, wohingegen die exakte L¨ osung schnell auf Null abnimmt. Das explizite Euler Verfahren ergibt daher v¨ ollig falsche Ergebnisse, außer wenn gen¨ ugend kleine Zeitschritte benutzt werden. Dies kann zu einer sehr ineffizienten ¨ Zeitschrittwahl f¨ uhren, da sich nach dem Ubergangszustand die L¨osung nur wenig ver¨ andert und daher große Zeitschritte w¨ unschenswert w¨aren. Wir ur alle i durch halten fest, dass die Grenze f¨ ur die Zeitschritte kn ≤ 2/|λi | f¨ ur den gr¨ oßten Eigenwert max λi bestimmt wird, wohingegen die Zeitskala f¨ das Langzeitverhalten durch den kleinsten Eigenwert min λi bestimmt wird. ¨ Daher wird das explizite Euler Verfahren jenseits der Ubergangszust¨ ande ineffizient, falls der Quotient max λi / min λi groß ist (wodurch ein steifes Problem charakterisiert wird).
57.7 Steife Anfangswertprobleme
875
Auf der anderen Seite ist dG(0) oder das implizite Euler Verfahren U n + kn AU n = U n−1 mit Uin = (1 + kn λi )−1 Uin−1 stabil und funktioniert ohne Schrittweitenbeschr¨ankungen ausgezeichnet, da 1 + kn λi ≥ 1 f¨ ur alle λi ≤ 0. F¨ ur die cG(1)-Methode erhalten wir Uin =
1 − kn λi n−1 U 1 + kn λi i
und Stabilit¨ at wird vorherrschen, da 1 − kn λi 1 + kn λi ≤ 1 f¨ ur alle λi ≥ 0. Wir folgern, dass sowohl dG(0) als auch cG(1) f¨ ur steife Probleme benutzt werden k¨onnen, aber beide Methoden sind implizit und erfordern die L¨ osung eines Gleichungssystems in jedem Zeitschritt. Um genauer zu sein, so nimmt dG(0) f¨ ur ein Problem der Form u˙ = f (u) die Gestalt U n − kn f (U n ) = U n−1 an. Zu jedem Zeitschritt m¨ ussen wir eine Gleichung der Form v − kn f (v) = osen, wobei U n−1 gegeben ist. An dieser Stelle k¨onnen wir versuchen, U n−1 l¨ eine ged¨ ampfte Fixpunkt-Iteration der Form v (m) = v (m−1) − α(v (m−1) − kn f (v (m−1) ) − U n−1 ) einzusetzen, mit einer geeigneten Matrix α (oder im einfachsten Fall einer Konstanten). W¨ ahlen wir α = I und iterieren wir einmal mit v 0 = 0, so erhalten wir das explizite Euler Verfahren. Damit die Fixpunkt-Iteration konvergiert, muss I + kn αf (v) < 1 f¨ ur wichtige Werte von v sein, was ein kleines α erzwingen k¨onnte (d.h. f¨ ur den steifen Fall, wenn f (v) große negative Eigenwerte besitzt) und zu langsamer Konvergenz f¨ uhrt. Als ersten Versuch k¨onnten wir α als Diagonalmatrix w¨ ahlen, mit αi = (fii (v m−1 ))−1 (dies entspricht diagonaler Skalierung) und hoffen, dass die Zahl der Iterationen nicht zu groß wird. In einigen F¨ allen muss auf effektivere iterative L¨osungsmethoden zur¨ uckgegriffen werden.
876
57. Adaptive L¨ oser f¨ ur AWP
57.8 Explizite Zeitschrittwahl fu ¨ r steife Probleme Wir haben eben gesehen, dass explizite Zeitschrittwahl f¨ ur steife Probleme ¨ auch außerhalb von Ubergangszust¨ anden zu kleinen Zeitschritten f¨ uhrt und daher sehr ineffektiv sein kann. Wir werden nun eine M¨oglichkeit andeuten, um diese Einschr¨ ankung durch einen Stabilisationsprozess zu u ¨berwinden, wobei ein großer Zeitschritt von einer Reihe kleiner Zeitschritte begleitet ¨ wird. Das Ergebnis besitzt Ahnlichkeiten mit dem Kontrollsystem eines modernen (instabilen) Kampfjets wie der schwedischen JAS Gripen, bei dem der Flug durch schnelle kleine Schl¨ age kleiner zus¨atzlicher Fl¨ ugel, die vor dem Hauptfl¨ ugel angebracht sind, kontrolliert wird oder, falls wir eher an einer allt¨ aglichen Anwendung interessiert sind, mit der Balancierung eines senkrechten Stocks auf einer Fingerspitze. Wir wollen nun die zentrale (einfache) Idee hinter dieser Stabilisierung erkl¨ aren und sie mit einigen Beispielen unterf¨ uttern, die die zentralen Gesichtspunkte adaptiver L¨ oser f¨ ur AWP und steifer Probleme verdeutlichen sollen. Daher beginnen wir mit der Anwendung des expliziten Euler Verfahrens auf das skalare Problem u(t) ˙ + λu(t) = 0
f¨ ur t > 0. 0
u(0) = u ,
(57.26)
mit λ > 0. Wir machen zun¨ achst einen großen Zeitschritt K mit Kλ > 2 und dann m kleine Zeitschritte k mit kλ < 2. So erhalten wir das Verfahren U n = (1 − kλ)m (1 − Kλ)U n−1 ,
(57.27)
mit einer Gesamtschrittweite von kn = K + mk. Hierbei bedeutet K einen großen instabilen Zeitschritt mit |1 − Kλ| > 1 und k einen kleinen Zeitschritt mit |1 − kλ| < 1. Nach Definition des Polynoms p(x) = k k¨ onnen wir das Verfahren (57.27) in der Form (1 − θx)m (1 − x) mit θ = K U n = p(Kλ)U n−1 schreiben. F¨ ur die Stabilit¨ at ben¨ otigen wir |p(Kλ)| ≤ 1, bzw. m≥
das heißt
|1 − kλ|m (Kλ − 1) ≤ 1,
log(Kλ − 1) ≈ 2 log(Kλ), − log |1 − kλ|
(57.28)
mit kλ ≈ 1/2, um ein definites Problem zu erhalten. Wir folgern, dass m auch f¨ ur große Kλ ziemlich klein sein kann, da der Logarithmus langsam anw¨ achst, so dass also nur ein kleiner Bruchteil der Gesamtzeit mit stabilisierenden Zeitschrittweiten der Gr¨oße k zugebracht wird.
57.8 Explizite Zeitschrittwahl f¨ ur steife Probleme
877
Zur Absch¨ atzung des Effektivit¨ atsgewinns f¨ uhren wir α=
1+m ∈ (1/K, 1/k) K + km
ein, was der Anzahl der Zeitschritte pro Einheitsintervall mit dem stabilisierten expliziten Euler Verfahren entspricht. Nach (57.28) gilt: α≈
1 + 2 log(Kλ) log(Kλ) ≈ 2λ 2λ, K + log(Kλ)/λ Kλ
(57.29)
f¨ ur Kλ 1. Auf der anderen Seite betr¨ agt die Zahl der Zeitschritte pro Einheitsintervall mit dem normalen expliziten Euler Verfahren α0 = 1/k = λ/2,
(57.30)
wenn wir eine maximale Schrittl¨ ange von k = 2/λ w¨ahlen. Somit betr¨ agt die Ersparnis f¨ ur das stabilisierte explizite Euler Verfahren 4 log(Kλ) α , ≈ α0 Kλ was f¨ ur große Werte von Kλ betr¨ achtlich sein kann. Wir wollen nun einige Beispiele mit einem adaptiven cG(1) AWP-L¨oser in der stabilisierten expliziten Form mit einigen wenigen Iterationen in jedem Zeitschritt, wodurch wir große Zeitschritte machen k¨onnen, vorstellen. ¨ Bei allen Problemen beobachten wir den anf¨ anglichen Ubergangszustand, in dem die L¨ osungskomponenten sich schnell ver¨andern, und die oszillie¨ rende Natur der Zeitschrittfolge nach dem Ubergangszustand mit großen Zeitschritten, die von einigen kleinen stabilisierenden Zeitschritten begleitet werden. Beispiel 57.1. Wir wenden das vorgestellte Verfahren auf die skalare Gleichung (57.26) mit u0 = 1 und λ = 1000 an und stellen das Ergebnis in Abb. 57.1 dar. Die Ersparnis zum u ¨ blichen expliziten Verfahren ist groß: α/α0 ≈ 1/310. Beispiel 57.2. Wir betrachten nun das diagonale 2 × 2-System 100 0 u(t) ˙ + u(t) = 0 f¨ ur t > 0, 0 1000
(57.31)
u(0) = u0 mit u0 = (1, 1). Hierbei treten zwei Eigenmoden mit großen Eigenwerten auf, die stabilisiert werden m¨ ussen. Die Ersparnis dabei betr¨agt α/α0 ≈ 1/104.
57. Adaptive L¨ oser f¨ ur AWP
1
1
0.8
0.8
U (t)
U (t)
878
0.6
0.6
0.4
0.4
0.2
0.2
0
0
0
2
4
t
6
8
0
10
2
4
t
6
8
10 −3
x 10
0
k(t)
10
−2
10
0
1
2
3
5
4
6
t
7
8
9
10
1
1
0.8
0.8
U (t)
U (t)
Abb. 57.1. L¨ osung und Zeitschrittfolge f¨ ur (57.26); α/α0 ≈ 1/310
0.6
0.6
0.4
0.4
0.2
0.2
0
0 0
2
4
6
t
0.05
0
10
8
0.1
t
0
k(t)
10
−2
10
0
1
2
3
4
5
t
6
7
8
9
10
Abb. 57.2. L¨ osung und Zeitschrittfolge f¨ ur (57.31); α/α0 ≈ 1/104
57.8 Explizite Zeitschrittwahl f¨ ur steife Probleme
879
Beispiel 57.3. Das sogenannte HIRES Problem ( High Irradiance RESpon” se“) der Pflanzenphysiologie besteht aus den folgenden acht Gleichungen: ⎧ u˙ 1 = −1, 71u1 + 0, 43u2 + 8, 32u3 + 0, 0007, ⎪ ⎪ ⎪ ⎪ u˙ 2 = 1, 71u1 − 8, 75u2, ⎪ ⎪ ⎪ ⎪ u ˙ 3 = −10, 03u3 + 0, 43u4 + 0, 035u5, ⎪ ⎪ ⎨ u˙ 4 = 8, 32u2 + 1, 71u3 − 1, 12u4 , (57.32) u˙ 5 = −1, 745u5 + 0, 43u6 + 0, 43u7 , ⎪ ⎪ ⎪ ⎪ u˙ 6 = −280, 0u6u8 + 0, 69u4 + 1, 71u5 − 0, 43u6 + 0, 69u7, ⎪ ⎪ ⎪ ⎪ ⎪ u˙ 7 = 280, 0u6u8 − 1, 81u7, ⎪ ⎩ u˙ 8 = −280, 0u6u8 + 1, 81u7.
1
1
0.8
0.8
U (t)
U (t)
Anfangswert sei u0 = (1; 0; 0; 0; 0; 0; 0; 0, 0057). Wir geben die L¨osung und die Zeitschrittfolge in Abb. 57.3 wieder. Der Aufwand betr¨agt nun α ≈ 8 und die Ersparnis α/α0 ≈ 1/33.
0.6
0.6
0.4
0.4
0.2
0.2
0
0
0
100
t
200
300
0
1
130
132
2
t
3
4
5
136
138
140
0
10
10
k(t)
k(t)
0
−1
10
−2
−1
10
−2
10
10
0
100
t
200
300
134
t
Abb. 57.3. L¨ osung und Zeitschrittfolge f¨ ur (57.32); α/α0 ≈ 1/33
Beispiel 57.4. Das chemische Akzo-Nobel“ Problem besteht aus den fol” genden sechs Gleichungen: ⎧ u˙ 1 = −2r1 + r2 − r3 − r4 , ⎪ ⎪ ⎪ ⎪ u˙ 2 = −0, 5r1 − r4 − 0, 5r5 + F, ⎪ ⎪ ⎨ u˙ 3 = r1 − r2 + r3 , (57.33) u˙ 4 = −r2 + r3 − 2r4 , ⎪ ⎪ ⎪ ⎪ u˙ 5 = r2 − r3 + r5 , ⎪ ⎪ ⎩ u˙ 6 = −r5 ,
880
57. Adaptive L¨ oser f¨ ur AWP −4
10
x 10
0.4
U (t)
U (t)
8
0.2
6
4
2
0
0
0
50
t
100
150
0
1
2
t
3
4
5
0
k(t)
10
−1
10
0
20
40
60
80
t
100
120
140
160
180
Abb. 57.4. L¨ osung und Zeitschrittfolge f¨ ur (57.33); α/α0 ≈ 1/9
mit F = 3, 3 · (0, 9/737 − u2) und die Reaktionsgeschwindigkeiten betragen √ r1 = 18, 7 · u41 u2 , r2 = 0, 58 · u3 u4 , r3 = 0, 58/34, 4 · u1 u5 , r4 = 0, 09 · u1 u24 √ und r5 = 0, 42 · u26 u2 . Wir integrieren u ¨ ber das Intervall [0, 180] mit der Anfangsbedingung u0 = (0, 437; 0, 00123; 0; 0; 0; 0, 367). Wenn wir eine maximale (beliebig gew¨ ahlte) Zeitschrittl¨ ange kmax = 1 zulassen, betr¨ agt der Aufwand nur α ≈ 2 und die Ersparnis ungef¨ ahr α/α0 ≈ 1/9. Der aktuelle Gewinn bei einer spezifischen Situation h¨ angt sowohl vom Quotienten zwischen den großen Zeitschritten und den kleinen D¨ ampfungsschritten als auch von der Zahl der D¨ ampfungsschritte ab. In diesem Fall ist die Zahl der D¨ ampfungsschritte klein, aber die großen Zeitschritte sind nicht so viel gr¨ oßer verglichen zu den kleinen D¨ ampfungsschritten. Die Ersparnis h¨ angt also sowohl von der Steifigkeit des Problems als auch der Toleranz (bzw. der maximal erlaubten Zeitschrittweite) ab. Beispiel 57.5. Wir betrachten nun die Van der Pol Gleichung: u ¨ + µ(u2 − 1)u˙ + u = 0, die wir in der Form
u˙ 1 u˙ 2
= =
u2 , −µ(u21 − 1)u2 − u1
(57.34)
schreiben. Wir w¨ ahlen µ = 1000 und l¨ osen auf dem Intervall [0, 10] mit dem alt sich wie gew¨ unscht Anfangswert u0 = (2, 0). Die Zeitschrittfolge verh¨ und erfordert nur einige wenige D¨ ampfungsschritte. Der Aufwand betr¨ agt nun α ≈ 140 und die Ersparnis α/α0 ≈ 1/75.
Aufgaben zu Kapitel 57
881
−4
0
1.998
−1
1.996
−2
−3
1.994
0 −4 2 x 10
4
6
8
10
−4
t
0
−5
−2
−6
U2 (t)
x 10
U2 (t)
U1 (t)
2
−4
−7
−6
1.994
−8
0
0.05
0.1
1.996 1.998 U1 (t)
2
t
−2
k(t)
10
−4
10
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
t
Abb. 57.5. L¨ osung und Zeitschrittfolge f¨ ur (57.34); α/α0 ≈ 1/75
Aufgaben zu Kapitel 57 57.1. Berechnen Sie die Stabilit¨ atsfaktoren Sd (T ) und Sc (T ) f¨ ur das lineare skalare AWP u(t) ˙ = −λ(t)u(t) f¨ ur t > 0, u(0) = u0 , wobei λ(t) von der Zeit t abh¨ angt und (a) λ(t) ≥ 0, (b) λ(t) < 0. ur das lineare 2 × 2-System u˙ 1 = u2 , 57.2. Berechnen Sie Sd (T ) und Sc (T ) f¨ ur t > 0, u(0) = u0 . u˙ 2 = −u1 f¨ 57.3. Implementieren Sie adaptive AWP-L¨ oser f¨ ur dG(0) und cG(1) und nutzen Sie die L¨ oser f¨ ur unterschiedliche Probleme. 57.4. Zeigen Sie, dass die a posteriori Fehlerabsch¨ atzung f¨ ur cG(1) auch in der Form e(T ) ≤ Sc (T ) max0≤t≤T k(t)(f (U (t)) − f¯(U (t))) + Sd (T ) e(0) geschrieben werden kann, wobei f¯(U (t)) der Mittelwert von f (U (t)) in jedem Zeitintervall ist. 57.5. Zeigen Sie, dass die Wahl des dualen Problems ϕ(T ) = ei zur Fehlerkonuhrt. trolle der Komponente ei (T ) f¨ 57.6. Entwickeln Sie explizite Versionen von dG(0) und cG(1), die auf der Fixpunkt-Iteration in jedem Zeitschritt beruhen. Zeigen Sie, dass sich solch ein Verfahren mit Diagonalskalierung sehr gut f¨ ur einige steife Probleme eignen kann.
58 Lorenz und das Wesentliche am Chaos*
Ich bin davon u ¨berzeugt, dass das Chaos, zusammen mit den vielen damit zusammenh¨ angenden Begriffen – seltsame Attraktoren, Beckengrenzen, die Periode verdoppelnde Bifokalisierungen und so weiter – ohne weiteres von Lesern, die weder mathematischen noch naturwissenschaftlichen Hintergrund besitzen, verstanden und sogar genossen werden kann . . . (E. Lorenz im Vorwort zu The Essence of Chaos)
58.1 Einleitung Am 29. Dezember 1972 hielt der Meteorologe Edward Lorenz in einer Sitzung zum Global Atmospheric Research Program“ auf der 139. Sitzung ” der American Association for the Advancement of Science“ in Washington ” D.C. eine Rede mit dem Titel Vorhersagbarkeit: Kann das Flattern eines Schmetterlings in Brasilien einen Tornado in Texas ausl¨osen? Die Rede von Lorenz mit seinem Schmetterlingseffekt“ wurde ein Jahrzehnt sp¨ater ” mit der Entwicklung der Chaos-Theorie“ schlagartig ber¨ uhmt. Die Chaos” Theorie, die in der Mathematik und Physik in den 80er-Jahren in Mode kam, maßte sich an, eine Vielzahl von Ph¨ anomenen, angefangen bei turbulenten Str¨ omungen bis zum B¨ orsenzusammenbruch, u ¨ ber ihre Gemeinsamkeit der Unvorhersehbarkeit erkl¨ aren zu k¨onnen. Ein Jahrzehnt fr¨ uher spielte die Katastrophen-Theorie“ eine ¨ ahnliche Rolle, wobei sich heute ” kaum jemand mehr an dieses faszinierende Thema erinnern kann. Nat¨ urlich ist Unvorhersagbarkeit bzw. Chaos“ ein Ph¨ anomen, das der Menschheit ”
884
58. Lorenz und das Wesentliche am Chaos*
seit langem bekannt ist. Das Wort Chaos“ entstammt der fr¨ uhen griechi” schen Kosmologie und bezeichnet das vollst¨ andige Fehlen einer Ordnung im Universum vor der Erschaffung von Gaea und Eros (Erde und Verlangen). Die Fragestellung von Lorenz h¨ angt mit der offensichtlichen Schwierigkeit zusammen, das t¨ agliche Wetter u ¨ ber einen l¨angeren Zeitraum als eine Woche zuverl¨ assig vorherzusagen. Eine Wettervorhersage entspringt einer numerischen L¨ osung eines AWP, das atmosph¨arische Ver¨anderungen modelliert und Variablen wie die Temperatur, die Windgeschwindigkeit und den Luftdruck beinhaltet. Es gibt f¨ ur diese Art von Wettervorhersage viele Fehlerquellen: Fehler in den Eingangsdaten, Modellierungsfehler und numerische Fehler. Es hat den Anschein, dass diese Fehler mit einer Geschwindigkeit vergr¨ oßert werden, die Vorhersagen auf einige wenige Stunden f¨ ur sehr lokalisierte Modelle bzw. Wochen in globalen Zirkulationsmodellen beschr¨ anken. Das Schmetterlingsanalogon von Lorenz deutet an, dass in bestimmten dynamischen Systemen sehr kleine Ursachen nach einer Zeit große Wirkungen ausl¨ osen k¨ onnen. Wir haben in dem u ¨ ber Kopf stehenden Pendel bereits ein derartiges System kennengelernt: Abh¨angig von der anf¨anglichen St¨ orung wird sich das Pendel nach kurzer Zeit in einer der m¨oglichen deutlich unterschiedlichen Positionen befinden (auf der einen Seite oder der anderen). In der Meteorologie treffen wir auf ¨ahnliche Verh¨altnisse, wenn bei der Wettervorhersage nicht klar ist, welchen Weg etwa ein Tiefdruckgebiet einschlagen wird, so dass keine Vorhersage dar¨ uber m¨oglich wird, ob es morgen in Berlin regnen wird oder nicht. In seinem Buch f¨ uhrt Lorenz weitere Beispiele von instabilen Systemen an wie etwa einen Flipper, bei dem marginale Einflussnahmen des Spielers zu v¨ollig unterschiedlichen Resultaten f¨ uhren kann. Nat¨ urlich gibt es viele andere Beispiele im t¨aglichen Leben, bei denen kleine Ursachen große Wirkungen haben k¨onnen, angefangen bei einem Fußballspiel bis zur Ermordung des Kronprinzen Francis Ferdinand am 28. Juni 1914 durch den serbischen Nationalisten Gavrilo Princip in Sarajevo, wodurch der erste Weltkrieg ausgel¨ost wurde.
58.2 Das Lorenz-System Lorenz formulierte ein AWP der Gestalt u˙ = f (u) f¨ ur f : R3 → R3 mit 8 f (u) = −10u1 + 10u2 , 28u1 − u2 − u1 u3 , − u3 + u1 u2 , 3 was als Lorenz-System ber¨ uhmt wurde. Lorenz fand heraus, dass die L¨osung dieses Systems sehr empfindlich auf St¨ orungen reagiert. Das System hat ¨ gewisse Ahnlichkeit mit einem sehr einfachen Modell f¨ ur das Fließen von Fl¨ ussigkeiten und wurde f¨ ur die Erkl¨ arung von Bewegungen, wie der Turbulenz, in Fl¨ ussigkeiten eingesetzt. Dies war urspr¨ unglich nicht die Idee von
58.2 Das Lorenz-System
885
Lorenz, dem nur an einer Verbindung zur offensichtlichen Unvorhersagbarkeit gelegen war und die St¨ orungsanf¨ alligkeit von u ¨ blichen meteorologischen Modellen in den Raum stellte. Wenn das scheinbar so harmlose und unschuldige Lorenz-System unvorhersagbare L¨ osungen haben kann, sollte es einen nicht u ¨ berraschen, dass auch das Wetter unvorhersehbar sein k¨onnte. Genauer formuliert, so fand Lorenz heraus, dass zwei verschiedene L¨osungen des Lorenz-Systems mit nahe beieinander liegenden Anfangswerten f¨ ur eine gewisse Zeit nahezu gleich verlaufen, aber schließlich vollst¨andig verschiedene Wege einschlagen werden. Das Lorenz-System l¨asst sich daher nur sehr schwer genau f¨ ur mehr als etwa 30 Zeiteinheiten numerisch l¨osen. Die numerische L¨ osung wird zun¨ achst nahezu gleich verlaufen wie die exakte L¨ osung, sich dann aber schließlich signifikant anders verhalten. Nat¨ urlich gibt es viele AWP, die ebenfalls diese Instabilit¨atseigenschaft besitzen. Sogar das einfache Pendel besitzt diese Eigenschaft, wenn sich das Pendel sehr langsam in die u ¨ ber Kopf“ Position bewegt. Daher ist es erstaun” lich, dass das Lorenz-System f¨ ur die wissenschaftliche Welt u ¨ berraschend zu sein schien. Aber so war es und es ist inzwischen ziemlich beliebt, unterschiedliche Ph¨ anomene, von der Turbulenz bis zur Politik, durch einen Hinweis auf die merkw¨ urdige Anziehung“ zu erkl¨aren, die scheinbar in ” Zeichnungen von L¨ osungen des Lorenz-Systems auftritt. Die einzelnen Komponenten des Lorenz-Systems lauten: ⎧ u˙1 = −10u1 + 10u2, ⎪ ⎪ ⎪ ⎨u˙ = 28u − u − u u , 2 1 2 1 3 (58.1) 8 ⎪ u ˙ = − u + u u , 3 3 1 2 ⎪ 3 ⎪ ⎩ u1 (0) = u01 , u2 (0) = u02 , u3 (0) = u03 mit gegebener Anfangsbedingung u0 . Das System (58.1) besitzt Gleich√ drei√ gewichtspunkte u ¯ mit f (¯ u) = 0: u ¯ = (0, 0, 0) und u¯ = (±6 2, ±6 2, 27). Der Gleichgewichtspunkt u ¯ = (0, 0, 0) ist instabil und die zugeh¨orige Jacobiu) besitzt einen positiven (instabilen) und Matrix f (¯ √ √ zwei negative Eigenwerte. Die Gleichgewichtspunkte u ¯ = (±6 2, ±6 2, 27) sind schwach instabil und die zugeh¨ origen Jacobi-Matrizen besitzen einen negativen (stabilen) Eigenwert und zwei imagin¨ are (schwach instabile) Eigenwerte mit einem sehr kleinen positiven Realteil. Um genauer zu sein, so lauten die Eigenwerte der Gleichgewichtspunkte ungleich Null λ1 ≈ −13, 9 und λ2,3 ≈ 0, 0939 ± 10, 1i. In Abb. 58.1 sind zwei verschiedene Blickwinkel auf eine L¨osung u(t) dargestellt, die bei u(0) = (1, 0, 0) beginnt und mit einer Fehlertoleranz TOL = 0, 5 bis zur Zeit 30 mit Hilfe eines adaptiven AWP-L¨osers, wie im Kapitel Adaptive AWP-L¨ oser“ vorgestellt, berechnet wurden. Wir k¨onnen ” uns u(t) = (x(t), y(t), z(t)) als die Position zur Zeit t f¨ ur ein Teilchen denken, das sich entsprechend der Gleichung u˙ = f (u) bewegt. In Abb. 58.1 haben wir daher die Bahnlinie oder die Trajektorie, den das Teilchen mit der Zeit zur¨ ucklegt, dargestellt. Die gezeichnete Bahnlinie ist typisch: Das
886
58. Lorenz und das Wesentliche am Chaos*
z
z Ansicht von oben
Ansicht von unten
50
50
40
40
30
30 30
20
20
20 10
0
10
-20
(x0 , y0 , z0 )
-10 0
x
10 20 -20
-10
0
10
20
30
0
y -10
(x0 , y0 , z0 )
y -30
-20
-10
0
10
10 -20 20
-30 30
x
Abb. 58.1. Zwei Blickwinkel einer numerischen Bahnlinie des Lorenz-Systems im Zeitintervall [0, 30]. Die Berechnung beginnt in (1, 0, 0) mit einer absoluten Fehlertoleranz von TOL = 0, 5
Teilchen wird vom instabilen Punkt (0, 0, 0) f¨ormlich weggestoßen und bewegt sich zu einem der von Null verschiedenen Gleichgewichtspunkte. Es entfernt sich kreisf¨ ormig von diesem Punkt, um nach einer bestimmten Zeit zu beschließen, sich zu dem anderen Gleichgewichtspunkt zu bewegen. Dort ¨ wiederholt sich das Spiel: Kreisf¨ ormige Entfernung, Ubergang zum anderen Punkt, kreisf¨ ormige Entfernung usw. Das Muster der Kreise um einen ¨ von Null verschiedenen Gleichgewichtspunkt, gefolgt von einem Ubergang zum anderen Gleichgewichtspunkt, wird mit scheinbar zuf¨alliger Zahl von Umdrehungen um jeden Gleichgewichtspunkt wiederholt. Wie Lorenz bereits bemerkte, so l¨ asst eine genaue Untersuchung der Bahnlinie in Abb. 58.1 einige Struktur im Verhalten der L¨osung erkennen. Der Weg der Bahnlinie scheint, schlicht formuliert, zwei flache Lappen“ ” zu bilden, in denen sich die Kreise um die von Null verschiedenen Gleichgewichtspunkte bewegen. In jedem Lappen scheinen die spiralf¨ormigen Teile der Bahnlinie in Streifen“ gruppiert zu sein, die aus Teilen der Bahnli” nie bestehen, die sich kreisf¨ ormig vom Gleichgewichtspunkt entfernen, und Teilen der Bahnlinie, die Spr¨ unge vom anderen Gleichgewichtspunkt anzeigen. Nur die Bahnlinien im ¨ außersten Streifen wechseln zu dem anderen Gleichgewichtspunkt. Dadurch kommt eine scharfe Trennung zwischen den Bahnlinien im ¨ außersten Streifen und den Bahnlinien im n¨achsten inneren Streifen zustande. Wir bezeichnen dies als Schnitt mit einer Klinge“, wo” durch die Bahnlinien in ¨ außere Streifen getrennt werden. Die Bahnlinien im außersten Streifen dehnen sich in der Breite aus, wenn sie sich dem anderen ¨ Gleichgewichtspunkt ann¨ ahern, wobei die Bahnlinien umso n¨aher an den Fixpunkt kommen, je weiter außen sie verlaufen. Wir bezeichnen dies mit Ausdehnung und Wegklappen. Wie weit sich eine Bahnlinie an den Gleichgewichtspunkt ann¨ ahert, bestimmt die Anzahl der Kreise, die die Bahnlinie in diesem Lappen beschreibt, bevor sie sich dem anderen Gleichgewichts-
58.3 Die Genauigkeit der Berechnungen
887
punkt zuwendet. Schließlich erkennen wir, dass die Kreise in einem Streifen nach einer Umdrehung nahe an den n¨ achsten ¨außeren Streifen ankommen. Dies passiert in jedem Streifen der Bahnlinie, bis sie alle schließlich im ¨außersten Streifen enden und zum anderen Gleichgewichtspunkt springen. Wir bezeichnen dies als verflechten. Zusammengefasst, so k¨onnen wir die Dynamik des Lorenz-Systems als nie endenden Vorgang des Schneidens, Ausdehnens, Wegklappens und des Verflechtens beschreiben.
58.3 Die Genauigkeit der Berechnungen Unsere erste Aufgabe ist es, die Verl¨ asslichkeit der berechneten Fehlergrenzen einer a posteriori Fehlerabsch¨ atzung, wie wir sie im Kapitel Ad” aptive L¨ oser f¨ ur AWP“ vorgestellt haben, zu messen. Da wir die exakte L¨ osung nicht kennen, f¨ uhren wir das folgende Experiment aus: Mit Hilfe der Anfangsdaten (0, 1, 0) f¨ uhren wir die Berechnungen mit den Residualatzen den Fehler in der weniger toleranzen 10−5 und 10−9 durch und sch¨ genauen Berechnung, wobei wir den Unterschied zwischen den Ergebnissen beiden Berechnungen als Maßstab nehmen. In Abb. 58.2 stellen wir die berechnete Fehlergrenze und den gesch¨ atzten Fehler dar. Die Gr¨oße des Fehlers wird trotz der Sensitivit¨ at der L¨ osung gegen¨ uber St¨orungen durch die Fehlergrenze ziemlich gut vorhergesagt. Wir erhalten f¨ ur eine Vielzahl von Anfangsdaten ¨ ahnliche Ergebnisse. Damit wir eine Vorstellung von dem Verhalten der Fehlerkontrolle bekommen, stellen wir die Schrittweiten, die wir bei einer Berechnung mit absoluter Fehlertoleranz 0, 75 benutzen, in Abb. 58.3 dar. Die Schrittweiten variieren ungef¨ ahr mit einem Faktor 6 im Berechnungsintervall. In 20
100
10
10-1
U1 (t)
Fehler und Fehlergrenze
101
10-2
0
10-3 10-4
-10
10-5 10-6
0
5
10
15
20
t Fehler vs. Berechnung mit Resiudaltoleranz 10-9 berechnete Fehlergrenze mit Resiudaltoleranz 10 -5
-20
0
10 Residualtoleranz:
Residualtoleranz= 10-9
t
10-4
20
10-6 10-8 10-5 10-7
30
Abb. 58.2. Links sind die Ergebnisse des Verl¨ asslichkeitstests der berechneten Fehlergrenze f¨ ur die Anfangsdaten (0, 1, 0) dargestellt. Rechts stellen wir ¨ den Einfluss einer Anderung der Residualtoleranz auf die Genauigkeit der ur die Anfangsdaten (0, 1, 0) dar U1 (t)-Komponente f¨
888
58. Lorenz und das Wesentliche am Chaos* 0.004
k(t)R(t)
7.6 ·10-07
k(t)
0.003
0.002
7.4 ·10-07
7.2 ·10-07
0.001
7 ·10-07
0 0
5
10
15
20
0
5
10
15
20
t
t
Abb. 58.3. Zeitschritte und Residuum × Zeitschrittweite einer Berechnung als Funktion der Zeit mit den Anfangsdaten (1, 0, 0) und absoluter Fehlertoleranz 0, 75
Abb. 58.3 stellen wir das Produkt der Schrittweite mit dem Residuum f¨ ur diese Berechnung dar. Wir k¨ onnen beobachten, dass sich diese Werte innerhalb von 10% um einen konstanten Wert herum bewegen. Mit gr¨oßerem Berechnungsaufwand k¨ onnen die Schwankungen reduziert werden, wodurch wir eine glattere Fehlergrenze erhalten.
58.4 Berechenbarkeit des Lorenz-Systems Von diesen Ergebnissen ermutigt, verringern wir die Toleranz oder ¨aquivalent den Zeitschritt und versuchen eine exakte L¨osung des Lorenz-Systems f¨ ur ein noch l¨ angeres Zeitintervall zu berechnen. Mit Hilfe der im Kapitel Adaptive L¨ oser f¨ ur AWP“ beschriebenen cG(1)-Methode berechnen wir ” die L¨ osungen mit immer kleineren Zeitschritten, k = 0, 01, k = 0, 001 und k = 0, 0001 und erhalten so immer genauere L¨osungen. Wir stellen die osung in Abb. 58.4 dar, wobei wir auch den Punkt U1 -Komponente der L¨ eintragen, ab dem die L¨ osung nicht mehr genau ist. Wir sehen, dass die L¨ osung selbst mit 300.000 Zeitschritten nicht l¨anger als bis t = 26 genau ist. Selbst wenn wir den Zeitschritt nochmals um einen Faktor 10 oder 100 verkleinern, f¨ uhrt uns das nicht wesentlich weiter. Wir folgern, dass es schwierig ist, die L¨ osung f¨ ur das Lorenz-System f¨ ur l¨angere Zeitintervalle zu berechnen. Um die Berechenbarkeit des Lorenz-Systems im Detail zu untersuchen, kehren wir zur Fehlerabsch¨ atzung zur¨ uck, die wir f¨ ur den Fehler e(t) der cG(1)-Methode hergeleitet haben: e(t) ≤ Sc (T ) max k(t)R(t). 0≤t≤T
(58.2)
58.4 Berechenbarkeit des Lorenz-Systems
889
Beachten Sie, dass der Stabilit¨ atsfaktor Sc (T ) f¨ ur das Lorenz-System mit Hilfe der L¨ osung f¨ ur das duale linearisierte Problem definiert ist: T Sc (T ) = max3
0
ϕ0 ∈R
ϕ(t) ˙ dt . ϕ0
Wenn wir nur die Fehlerabsch¨ atzung betrachten, sollten wir so lange sinnvoll rechnen k¨ onnen, wie wir wollen, wenn wir nur den Zeitschritt k(t) und das Residuum R(t) klein genug halten. Eine etwas sorgf¨altigere Analyse ergibt jedoch, dass ein weiterer Fehlerbeitrag vorhanden ist, der meistens vernachl¨ assigt wird. Wenn wir diesen Ausdruck bei unserer Fehlerabsch¨atzung ber¨ ucksichtigen, erhalten wir: e(t) ≤ Sc (T ) max k(t)R(t) + S0 (T ) max /k(t), 0≤t≤T
0≤t≤T
(58.3)
wobei die Maschinengenauigkeit des Computers ist, d.h. die kleinste Zahl, f¨ ur die (mit Computer-Arithmetik) 1 + = 1 gilt; S0 (T ) ist ein neuer Stabilit¨ atsfaktor. F¨ ur einen normalen Computer (im Jahr 2002) mit sogenannter doppelt-genauer Arithmetik“, betr¨agt die Maschinengenauigkeit ” atsfaktor S0 (T ) wird mit Hilfe der dualen L¨osung ≈ 10−16 . Der Stabilit¨ definiert als: T ϕ(t) dt . S0 (T ) = max3 0 ϕ0 ∈R ϕ0 Der zus¨ atzliche Ausdruck in unserer verfeinerten Fehlerabsch¨atzung (58.3) ber¨ ucksichtigt den Rundungsfehler, den wir in jedem Zeitschritt bei der k = 0, 01
20
10
0
−10
k = 0, 001
−20
5
10
15
20
25
30
0
5
10
15
20
25
30
0
5
10
15
20
25
30
10 0
−10 −20
k = 0, 0001
0
20
20
10
0
−10
−20
t
Abb. 58.4. Die U1 -Komponente der cG(1)-L¨ osung f¨ ur verschiedene Zeitschritte. Die kleinen Kreise geben jeweils den Punkt an, ab dem die L¨ osung nicht l¨ anger genau ist
890
58. Lorenz und das Wesentliche am Chaos*
Berechnung machen; wenn wir in jedem Zeitschritt den neuen Wert U (tn ) bei der cG(1)-L¨ osung berechnen, so kommen wir nicht umhin, einen Rundungsfehler der Gr¨ oße zu begehen. Wie wir erkennen werden, so limitiert dieser zweite Ausdruck die Berechenbarkeit des Lorenz-Systems; der zweite Ausdruck in (58.3) kann groß werden, auch wenn der erste Ausdruck klein ist. Die Schwierigkeit bei der Berechnung genauer L¨osungen des LorenzSystems wird deutlich, wenn wir die Gr¨ oße der Stabilit¨atsfaktoren betrachten. In Abb. 58.5 haben wir die Gr¨ oße des Anteils des Rundungsfehlers im Stabilit¨ atsfaktor S0 (T ) als Funktion des Endzeitpunkts T dargestellt. Beachten Sie die logarithmische Einteilung der y-Achse. Eine einfache N¨ahe16
10
14
10
12
S0 (T )
10
10
10
8
10
6
10
4
10
2
10
0
10
0
5
10
15
20
25
t
30
35
40
45
50
Abb. 58.5. Wachstum des Stabilit¨ atsfaktors S0 (T ) f¨ ur das Lorenz-System
rung f¨ ur das Wachstum des Stabilit¨atsfaktors lautet S0 (T ) ≈ 10T /3 , wonach der Rundungsfehler wie Er = 10T /3 × 10−16 /k = 10T /3−16 /k anw¨achst. Beachten Sie, dass der Fehler anw¨achst, wenn wir die Zeitschritte verkleinern! Dies ist nat¨ urlich (wenn auch un¨ ublich), da wir mit kleineren Zeitschritten eine gr¨oßere Anzahl von Zeitschritten machen m¨ ussen, wodurch der Rundungsfehler vergr¨oßert wird. Um den Einfluss des Rundungsfehlers klein zu halten, verwenden wir besser einen großen Zeitschritt, etwa k = 0, 1; dann w¨achst der Rundungsfehler wie 10T /3−15 . Zur Zeit T = 3 · 15 = 45 betr¨agt der akkumulierte Rundungsfehler folglich Er = 1, was bedeutet, dass wir nicht erwarten k¨onnen, betr¨achtlich weiter als zur Zeit T = 45 rechnen zu k¨onnen, da ab dann der Rundungsfehler dominieren wird. Mit der cG(1)-Methode werden wir noch nicht einmal T = 45 erreichen, da wir kleinere Zeitschritte als k = 0, 1 benutzen m¨ ussen (was wir aus
58.5 Die Herausforderung
891
Abb. 58.4 erkennen), um den ersten Ausdruck bei der Fehlerabsch¨atzung klein zu halten.
58.5 Die Herausforderung Aus der vorangegangenen Diskussion ist nun klar, dass die mysteri¨ose Unvorhersagbarkeit und das chaotische“ Verhalten des Lorenz-Systems nur ” bedeutet, dass die Stabilit¨ atsfaktoren schnell anwachsen und es uns dadurch schwer machen, L¨ osungen u angere Zeit genau zu berechnen. ¨ ber l¨ Offensichtlich stehen wir vor der Herausforderung, mit einer Methode unserer Wahl, eine genaue L¨osung f¨ ur das Lorenz-System ¨ uber ein so groß wie m¨ogliches Zeitintervall [0, T ] zu berechnen. Wir mussten im vorangegangenen Abschnitt eingestehen, dass schiere Gewalt keine Antwort f¨ ur unser Problem ist. Es gen¨ ugt nicht, einen sehr schnellen Computer f¨ ur sehr kleine und sehr viele Zeitschritte zu benutzen. Mit der cG(1)-Methode k¨ onnen wir nicht weiter als bis T = 30 gelangen, unabh¨ angig davon, wie klein wir die Zeitschritte w¨ahlen, da der akkumulierte Rundungsfehler dann schnell anwachsen wird. Eine L¨osung f¨ ur unser Problem w¨ are, eine neue Methode, ¨ ahnlich wie cG(1), zu entwerfen, die mit gr¨ oßeren Zeitschritten als die cG(1)-Methode arbeiten kann. Wie wir bereits vermuten, so existieren entsprechende Methoden wie cG(2), cG(3) usw., die mit gr¨ oßeren Zeitschritten verwendet werden k¨onnen. Es kann gezeigt werden, dass f¨ ur diese cG(q)-Methode der Fehler mit k 2q anw¨achst, d.h. wir finden a priori Fehlerabsch¨ atzungen der Gestalt e(T ) ≤ C(T )k 2q , wobei C(T ) eine (unbekannte!) Konstante ist, die von der exakten L¨osung u(t) abh¨ angt. Wir sagen, dass die cG(q)-Methoden die Ordnung 2q besitzen. Die normale cG(1)-Methode ist daher eine Methode zweiter Ordnung. (Dies stimmt mit (58.2) u ¨berein, da in R(t) noch ein Faktor k(t) enthalten ist.) Mit einer Methode h¨ oherer Ordnung, d.h. q > 1, k¨onnen wir daher mit gr¨ oßeren Zeitschritten kleinere Fehler erhalten. Daraus folgt wiederum, dass wir mit einer Methode h¨ oherer Ordnung den Rundungsfehler kleiner halten k¨ onnen und somit l¨ anger sinnvoll rechnen k¨onnen, als es mit der cG(1)-Methode m¨ oglich ist. In Abb. 58.6 haben wir die U1 -Komponenten der L¨ osungen f¨ ur das Lorenz-System dargestellt, die f¨ ur den Zeitschritt k = 0, 1 f¨ ur eine Folge von Methoden h¨ oherer Ordnung berechnet wurden. Wir sehen, dass die L¨ osungen bei einer Methode mit gen¨ ugend großer Ordnung bis zu einem Punkt kurz hinter T = 45 exakt sind, wie wir vorhergesagt haben; der erste Ausdruck in unserer Fehlerabsch¨atzung (58.3) wird dadurch reduziert, dass die Ordnung der Methode vergr¨oßert wird, weswegen der zweite Ausdruck dominiert. Man kann bis jenseits T = 50 gelangen, vielleicht zu T = 100, aber dazu m¨ ussen wir von doppelter Genauigkeit zu vierfacher Genauigkeit u ¨ bergehen.
892
58. Lorenz und das Wesentliche am Chaos*
cG(11)
20 0 20
0
10
20
30
40
50
60
70
80
90
100
0
10
20
30
40
50
60
70
80
90
100
0
10
20
30
40
50
60
70
80
90
100
0
10
20
30
40
50
60
70
80
90
100
0
10
20
30
40
50
60
70
80
90
100
cG(12)
20 0
20
cG(13)
20
0 20
cG(14)
20 0 20
cG(15)
20
0
20
Abb. 58.6. Die U1 -Komponenten von cG(q)-Methoden f¨ ur q = 11, 12, 13, 14, 15 mit Zeitschrittweite k = 0, 1. Bei den gestrichelten Linien ist die L¨ osung nicht mehr genau
Aufgaben zu Kapitel 58 58.1. Zeigen Sie, dass die drei Gleichgewichtspunkte, die im Text angef¨ uhrt wurden, die Gleichung f (u) = 0 erf¨ ullen. Linearisieren Sie das System in diesen Gleichgewichtspunkten, d.h., berechnen Sie die Eigenwerte (und Eigenvektoren) f¨ ur die Jacobi-Matrix von f in den drei Gleichgewichtspunkten. 58.2. Berechnen Sie die L¨ osung f¨ ur das Lorenz-System und zeichnen Sie die Kreisbahnen (x(t), y(t), z(t)) f¨ ur t ∈ [0, T ]. Stimmen Sie mit der Beschreibung der Dynamik des Lorenz-Systems als nie endender Vorgang des Schneidens, Ausdehnens, Wegklappens und des Verflechtens u ¨ berein? 58.3. Wiederholen Sie das Experiment, dass wir in Abschnitt 58.4 beschrieben haben, d.h. berechnen Sie die L¨ osungen f¨ ur das Lorenz-System mit der cG(1)Methode mit einer Folge kleiner werdender Zeitschritte und untersuchen Sie die Genauigkeit der L¨ osungen (indem Sie sie untereinander vergleichen). Gelangen Sie weiter als T = 25? 58.4. Wiederholen Sie das Experiment aus der vorangegangenen Aufgabe, aber nur mit Verfahren geringerer Ordnung; dem expliziten Euler und dem impliziten Euler Verfahren. Wie weit gelangen Sie nun? 58.5. Implementieren Sie eine einfache Version der cG(2)-Methode vierter Ordnung: U (tn−1/2 )
=
U (tn−1 ) +
U (tn )
=
U (tn−1 ) +
tn n ttn−1
tn−1
f (U (t), t) · (5 − 6(t − tn−1 )/kn )/4 dt, f (U (t), t) dt,
Aufgaben zu Kapitel 58
893
wobei U (t) das quadratische Polynom auf [tn−1 , tn ] ist, das durch die drei Werte U (tn−1 ), U (tn−1/2 ) und U (tn ) bestimmt wird. Wie weit gelangen Sie mit dieser Methode? 58.6. Liefern Sie eine Begr¨ undung f¨ ur den zus¨ atzlichen Ausdruck in der verfeinerten Fehleranalyse (58.3), indem Sie bei der N¨ aherung beginnen, die durch fehlerhafte Anfangsbedingungen verursachte Fehler ber¨ ucksichtigt (vgl. Kapitel L¨ oser f¨ ur adaptive AWP“). ” 58.7. Stellen Sie sich der Herausforderung des Lorenz-Systems, d.h. berechnen Sie eine exakte L¨ osung f¨ ur [0, T ] mit so groß wie m¨ oglichem T . Keine Regeln; alles ist erlaubt! Aber Aristarchus ver¨ offentlichte ein Buch, das bestimmte Hypothesen enthielt. Scheinbar als Folge der getroffenen Annahmen ist das Universum um vieles gr¨ oßer als das eben angesprochene Univer” sum“. Seine Hypothesen besagen, dass die Fixsterne und die Sonne unver¨ andert bleiben und die Erde sich auf einem Kreis um die Sonne dreht, wobei die Sonne im Mittelpunkt des Kreises liegt. Die Sph¨ are der Fixsterne, die oberhalb desselben Zentrums wie die Sonne liegt, sei so groß, dass der Kreis, auf dem seiner Meinung nach die Erde sich bewegt, etwa im selben Verh¨ altnis zum Abstand von den Fixsternen steht, wie das Verh¨ altnis zwischen dem Zentrum der Sph¨ are zu seiner Fl¨ ache. (Archimedes u ¨ ber Aristharcus von Samos)
59 Das Sonnensystem*
Es ward gedacht eines neuen Astrologi, der wollte beweisen, dass die Erde bewegt w¨ urde und umginge, nicht der Himmel oder das Firmament, Sonne und Monde; gleich als wenn einer auf einem Wagen oder einem Schiffe sitzt und bewegt wird, er s¨ aße still und ruhete, das Erdreich aber und die B¨ aume gingen um und bewegten sich. Aber es gehet jtzt also: wer da will klug seyn, der soll ihm nichts lassen gefallen, was Andere machen, er muß ihm etwas Eigens machen, das muß das Allerbeste seyn, wie ers machet. Der Narr will die ganze Kunst Astronomiae umkehren. Aber wie die heilige Schrift anzeiget, so hieß Josua die Sonne still stehen, und nicht das Erdreich. (M. Luther in seinen Tischreden“, als Antwort auf Kopernikus’ Pamphlet ” Commentariolus, 1514)
59.1 Einleitung Das Problem der mathematischen Modellierung unseres Sonnensystems, inklusive der Sonne und den neun Planeten Venus, Merkur, Tellus (die Erde), Mars, Jupiter, Saturn, Uranus, Neptun und Pluto und einer großen Anzahl von Monden, Asteroiden und gelegentlichen Kometen war seit alters her einer der Hauptfragen der Menschheit. Die abschließende Herausforderung besch¨ aftigt sich mit der mathematischen Modellierung des Universums, das aus Milliarden von Galaxien besteht, von denen jede aus Milliarden von Sternen besteht, von denen einer unsere eigene Sonne ist, die sich in den ¨außeren Bereichen der Milchstraße befindet.
896
59. Das Sonnensystem*
Das geozentrische Weltbild, das Aristoteles (384–322 v.Chr.) in Vom ” Himmel“ vorstellte und von Ptolem¨ aus (87–150 n.Chr.) in Hypotheses ” planetarum“ weiterentwickelt wurde, beherrschte die Vorstellung der Menschen u ¨ ber 1800 Jahre. Danach ist die Erde das Zentrum des Universums, um das sich die Sonne, der Mond, die anderen Planeten und die Sterne in einem komplizierten Muster von Kreisen (sogenannten Epizyklen) bewegen. Kopernikus (1473–1543) ver¨ anderte das Weltbild in De revolutionibus ” orbium coelestium“ und stellte die Sonne in das Zentrum in einer neuen heliozentrischen Theorie, behielt dabei allerdings das komplizierte System von Epizyklen (erweitert zu einem sehr komplizierten System von 80 Kreisen in Kreisen). Johannes Kepler (1572–1630) entdeckte, basierend auf ausgedehnten genauesten Beobachtungen durch den schwedischen/d¨anischen Wissenschaftler Tycho Brahe (1546–1601), dass sich die Planeten in elliptischen Kreisbahnen bewegen, in deren einem Brennpunkt sich die Sonne befindet. Sie gehorchen dabei den Keplerschen Gesetzen, die eine enorme Vereinfachung und wissenschaftliche Rationalisierung gegen¨ uber dem System von Epizyklen bedeuteten.
Abb. 59.1. Die Erde mit dem Mond und einigen anderen Planeten auf Umlaufbahnen; Jupiter und die galileischen Satelliten, Io, Europa, Ganymed und Callisto
Tats¨ achlich verstand bereits Aristarchus von Samos (310–230 v.Chr.), dass die Erde sich um ihre Achse drehte und er konnte damit die (offensichtliche) Bewegung der Sterne erkl¨ aren, aber Aristoteles widersprach diesen Ansichten mit folgender Argumentation: Sollte die Erde sich drehen, wie kann dann ein nach oben geworfener K¨ orper auf denselben Punkt zur¨ uckfallen? Sollte diese Drehung nicht einen sehr starken Wind bewirken? Vor Kopernikus konnte niemand diese Argumente hinterfragen. K¨onnen Sie es?
59.1 Einleitung
897
Abb. 59.2. Tycho Brahe: Ich glaube, dass die Sonne und der Mond um die ” Erde kreisen, aber dass die anderen Planeten sich um die Sonne bewegen“
Abb. 59.3. Johannes Kepler: Ich glaube, dass die Planeten durch unsichtbare ” regul¨ are Vielecke voneinander getrennt sind: Tetraeder, W¨ urfel, Oktaeder, Dodekaeder und Ikosaeder und außerdem, dass die Planeten, inklusive der Erde, sich in elliptischen Bahnen um die Sonne bewegen“
Newton (1642–1727) bereinigte die Theorien, indem er zeigte, dass sich die Bewegung der Planeten durch eine einzige Hypothese erkl¨aren l¨asst: Das Gravitationsgesetz mit inverser Proportionalit¨at zum Quadrat des Abstands, vgl. das Kapitel Der Albtraum von Newton“. Insbesondere leitete ” Newton das Keplersche Gesetz f¨ ur das Problem zweier K¨orper her, bei dem ein (kleiner) Planet in einer elliptischen Bahn eine (große) Sonne umkreist,
898
59. Das Sonnensystem*
vgl. das Kapitel Lagrange und das Prinzip der kleinsten Wirkung“. Leib” niz kritisierte Newton, weil dieser keine Erkl¨arung f¨ ur das Gravitationsgesetz liefern konnte. Leibniz glaubte, dass es von einer zentralen Eigenschaft herr¨ uhrte und nicht nur, wie die vorherrschende Meinung vertrat, auf gegenseitiger Liebe“ beruhte, die ziemlich beliebt war. Eine gewisse ” Erkl¨ arung lieferte Einstein (1879–1955) in seiner Allgemeinen Relativit¨ats” theorie“, bei der sich die Gravitation als Folge einer durch eine Masse verursachten Kr¨ ummung“ der Raumzeit ergibt. Einstein revolutionierte die ” Kosmologie, die Lehre von der Entstehung und Entwicklung des Weltalls, aber relativistische Effekte f¨ uhrten nur zu kleinen Korrekturen im Newtonschen Modell unseres Sonnensystems, das auf der inversen Proportionalit¨at zum Abstandsquadrat beruhte. Einstein konnte nicht erkl¨aren, warum die Raumzeit durch Massen gekr¨ ummt wird und selbst heute gibt es keine u ¨ berzeugende Theorie f¨ ur die Gravitation, die nahezu mystisch u ¨ ber einen noch zu entdeckenden Mechanismus aus der Entfernung wirkt“. Im Kapitel La” ” placesche Modelle“ geben wir eine Herleitung f¨ ur das Gravitationsgesetz, wie es von Laplace vorgestellt wurde. Trotz der mangelnden physikalischen Erkl¨ arung des Gravitationsgesetzes bedeutete die Newtonsche Theorie f¨ ur die mathematischen Wissenschaften einen enormen Schub und eine entsprechende Stimulation f¨ ur das Selbstbewusstsein der Wissenschaftler: Wenn das menschliche Gehirn in der Lage ist, (so einfach und endg¨ ultig) die Geheimnisse des Sonnensystems zu verstehen, dann sollte es keine Grenzen f¨ ur die M¨oglichkeiten des wissenschaftlichen Fortschritt mehr geben. . .
59.2 Die Newtonsche Gleichung Die Grundlage f¨ ur die Himmelsmechanik ist das zweite Newtonsche Gesetz F = m · a,
(59.1)
nachdem die Kraft F f¨ ur einen K¨ orper der Masse m zu einer Beschleunigung der Gr¨ oße a f¨ uhrt, zusammen mit der Formel f¨ ur die Gravitationskraft im Gesetz mit der inversen Proportionalit¨ at zum Abstandsquadrat: mma F =G 2 , (59.2) r wobei G ≈ 6, 67 · 10−11 Nm2 /kg2 die Gravitationskonstante ist, ma ist die Masse des anziehenden K¨ orpers und r der Abstand zum anziehenden K¨ orper. (59.1) und (59.2) ergeben zusammen eine Menge von Differentialgleichungen f¨ ur die Bewegung im Sonnensystem. Wenn wir die Anfangspositionen und -geschwindigkeiten f¨ ur alle K¨ orper im Sonnensystem kennen, dann k¨ onnen wir mit denselben Techniken, die wir oben im Kapitel Adap” tive AWP-L¨ oser“ vorgestellt haben, das Differentialgleichungssystem l¨osen.
59.3 Die Einsteinsche Gleichung
899
Wir diskutieren dies ausf¨ uhrlich im Abschnitt 59.4. Zur Vorbereitung bringen wir (59.1) und (59.2) in eine dimensionslose Gestalt, was sich als sehr bequem erweisen wird. Die drei zentralen Einheiten, die in den Gleichungen auftreten, sind der Raum, die Zeit und die Masse, die durch die Variablen x (oder r), t und m repr¨ asentiert werden. Wir f¨ uhren nun neue dimensionslose Variablen x = x/AU, t = t/Jahr und m = m/M ein, wobei 1/AU der durchschnittliche Abstand der Sonne zur Erde ist und M die Masse der Sonne. Mit Hilfe der Kettenregel erhalten wir f¨ ur die dimensionslose dt d dt d Jahr2 x/AU = Beschleunigung a = dtd dtd x = dt dt dt dt AU a. Wenn wir mit unseren neuen dimensionslosen Variablen in die Gleichungen (59.1) und (59.2) einsetzen, erhalten wir: m M
AU m M · ma M a =G , 2 Jahr r2 AU2
bzw. a = G
ma , r2
(59.3)
(59.4)
wobei die neue Gravitationskonstante nun folgendermaßen lautet: G =
G · Jahr2 M . AU3
(59.5)
¨ Wir u zu zeigen, dass mit sinnvollen Definitio¨ berlasen es Ihnen als Ubung, nen der Einheiten Jahr und AU die neue dimensionslose Gravitationskonstante, wie folgt, lautet: G = 4π 2 . (59.6)
59.3 Die Einsteinsche Gleichung Bei der allgemeinen Relativit¨ atstheorie ist nicht die Kraft die zentrale Gr¨ oße, wie in der Newtonschen Theorie, sondern die Kr¨ ummung der Raumzeit. Einstein erkl¨ art die Bewegung der Planeten in unserem Sonnensystem folgendermaßen: Die Planeten bewegen sich durch die Raumzeit entlang Gerader, sogenannter Geod¨asien, die sich nur deswegen als kreisf¨ormige (oder elliptische) Bahnen zeigen, weil die Raumzeit durch die große Masse der Sonne gekr¨ ummt ist. Wir wollen nun versuchen, eine Vorstellung davon zu vermitteln, wie dies funktionieren kann. Die Kr¨ ummung der Raumzeit ergibt sich durch ihre Metrik. Eine Metrik definiert den Abstand zwischen zwei benachbarten Punkten in der Raumzeit. In der euklidischen Geometrie, die wir ausf¨ uhrlich in diesem Buch untersucht haben, wird der Abstand zwischen zwei Punkten x = (x1 , x2 , x3 ) und y = (y1 , y2 , y3 ) durch die Quadratwurzel des Skalarprodukts dx · dx
900
59. Das Sonnensystem*
gegeben, wobei dx der Differenz dx = x−y entspricht. Mit der Schreibweise ds = |x − y| gilt daher: ds =
√
dx · dx =
3
1/2 dx2i
,
(59.7)
i=1
bzw. ds2 =
3
dx2i .
(59.8)
i=1
In der Schreibweise der allgemeinen Relativit¨ atstheorie wird die euklidische Metrik mit Hilfe der Matrix (des Tensors) ⎡ ⎤ 1 0 0 g = ⎣ 0 1 0 ⎦, (59.9) 0 0 1 als ds2 = dxT gdx
(59.10)
gegeben. In der Raumzeit nutzen wir die Zeit t als vierte Koordinate und jeder Vorgang in der Raumzeit wird durch den Vektor (t, x1 , x2 , x3 ) beschrieben. Bei der Minkowskischen Raumzeit ist die Kr¨ ummung bei Abwesenheit von Massen Null, und die Metrik wird gegeben durch ⎡ ⎤ −1 0 0 0 ⎢ 0 1 0 0 ⎥ ⎥ g=⎢ (59.11) ⎣ 0 0 1 0 ⎦, 0 0 0 1 wodurch wir ds2 = −dt2 + dx21 + dx22 + dx23
(59.12)
erhalten. Unter Ber¨ ucksichtigung von Massen erhalten wir eine andere Metrik, die nicht einmal diagonal sein muss. Aus der Metrik g lassen sich die Geraden der Raumzeit bestimmen, wodurch wir die Umlaufbahnen der Planeten erhalten. Die Metrik selbst wird durch die Verteilung der Masse in der Raumzeit bestimmt. Sie ergibt sich als L¨ osung aus der Einsteinschen Gleichung 1 Rij − Rgij = 8πTij , 2
(59.13)
wobei (Rij ) der sogenannte Ricci-Tensor ist. R ist die sogenannte skalare Kr¨ ummung und (Tij ) ist der sogenannte Spannungs-Energie-Tensor. (Rij ) und R h¨ angen von den Ableitungen der Metrik g = (gij ) ab, d.h., (59.13) ist eine partielle Differentialgleichung f¨ ur die Metrik g.
59.4 Ein System von gew¨ ohnlichen Differentialgleichungen
901
Die L¨ osung f¨ ur die Umlaufbahnen der Planeten, die sich aus der Einsteinschen Gleichung ergeben, unterscheiden sich leicht von den L¨osungen, die aus (59.4) nach Newton erzielt werden. Obwohl der Unterschied nur gering ist, so konnte die Einsteinsche Gleichung doch bei Beobachtungen der Umlaufbahn des Planeten Merkur, dem Planeten, der der Sonne am n¨ achsten ist, verifiziert werden. Wir werden diese relativistischen Effekte“ ” im n¨ achsten Abschnitt, in dem wir die Berechnung der Bewegungen im Sonnensystem fortsetzen, vernachl¨ assigen.
59.4 Das Sonnensystem als ein System von gew¨ohnlichen Differentialgleichungen Damit wir die Techniken aus dem Kapitel Adaptive L¨oser f¨ ur AWP“ ” f¨ ur die Beschreibung der Bewegungen im Sonnensystem benutzen k¨onnen, m¨ ussen wir das System von gew¨ ohnlichen Differentialgleichungen (ODEs von engl. ordinary differential equations), das wir mit (59.4) erhalten, in die Standardform u˙ = f bringen. Wir beginnen dabei mit der Einf¨ uhrung ur alle K¨orper im Sonnender Koordinaten xi (t) = (xi1 (t), xi2 (t), xi3 (t)) f¨ system, inklusive der Planeten, der Sonne und dem Mond. Wir erhalten insgesamt n = 9 + 2 = 11 K¨ orper und in Summe 3n = 33 Koordinaten. Damit wir die Gleichungen in ein System von Gleichungen erster Ordnung u˙ = f umschreiben k¨ onnen, m¨ ussen wir die Geschwindigkeiten aller K¨orper uhren, wodurch wir insgesamt N = 6n = 66 x˙ i (t) = (x˙ i1 (t), x˙ i2 (t), x˙ i3 (t)) einf¨ Koordinaten erhalten. Wir fassen alle diese Koordinaten im Vektor u(t) der L¨ ange N mit der folgenden Reihenfolge zusammen: u(t) = (x11 (t), x12 (t), x13 (t), . . . , xn1 (t), xn2 (t), xn3 (t), x˙ 11 (t), x˙ 12 (t), x˙ 13 (t), . . . , x˙ n1 (t), x˙ n2 (t), x˙ n3 (t)),
(59.14)
d.h. die erste H¨ alfte des Vektors u(t) enth¨alt die Ortskoordinaten aller K¨ orper und die zweite H¨ alfte die zugeh¨ origen Geschwindigkeiten. Damit wir die Differentialgleichung f¨ ur u(t) erhalten, bilden wir die Ableitung nach der Zeit und beachten dabei, dass die Ableitung der ersten H¨ alfte von u(t) der zweiten H¨ alfte von u(t) entspricht: u˙ i (t) = u3n+i (t),
i = 1, . . . , 3n,
(59.15)
d.h. f¨ ur n = 11 gilt u˙ 1 (t) = x˙ 11 (t) = u34 (t) usw. Die Ableitung der zweiten H¨ alfte von u(t) enth¨alt dann die zweite Ableitung der Ortskoordinaten, d.h. die Beschleunigungen, die durch (59.4) gegeben sind. Die Gleichung (59.4) ist als skalare Gleichung formuliert und muss in Vektorform umformuliert werden. F¨ ur jeden K¨orper im Sonnensystem muss der Anteil der Gesamtkraft auf jeden K¨orper als Summe der Beitr¨ age durch alle anderen K¨ orper berechnet werden. Wenn wir davon
902
59. Das Sonnensystem*
ausgehen, dass wir mit dimensionslosen Variablen arbeiten (aber dennoch aus Bequemlichkeit x anstelle von x , mi anstelle von mi usw. schreiben), dann m¨ ussen wir die folgenden Summen berechnen: x¨i (t) =
G mj xj − xi , |xj − xi |2 |xj − xi |
j=i
wobei der Einheitsvektor der Kraft angibt.
xj −xi |xj −xi |
(59.16)
wie in Abb. 59.4 dargestellt die Richtung
m2 mj m1 xj − xi mi
Abb. 59.4. Die Gesamtkraft auf den K¨ orper i entspricht der Summe der Beitr¨ age aller anderen K¨ orper
Unsere endg¨ ultige Differentialgleichung f¨ ur die Bewegungen im Sonnensystem in der Form u˙ = f lautet somit ⎡ ⎤ u3n+1 (t) .. ⎢ ⎥ ⎢ ⎥ . ⎢ ⎥ ⎢ ⎥ (t) u 6n ⎢ ⎥ j 1 ⎥ ⎢ G mj x1 − x1 ⎥ ⎢ ⎥ (59.17) u(t) ˙ = f (u(t)) = ⎢ ⎢ j=1 |xj − x1 |2 |xj − x1 | ⎥ , ⎢ ⎥ ⎢ ⎥ .. ⎢ ⎥ . ⎢ ⎥ j ⎢ G m n ⎥ x − x j ⎣ 3 ⎦ 3 |xj − xn |2 |xj − xn | j=n
wobei wir der Einfachheit halber die Schreibweise x1 = (x11 , x12 , x13 ) anstelle von (u1 , u2 , u3 ) usw. auf der rechten Seite benutzen. Die Bewegungen unseres Sonnensystems k¨ onnen nun mit den Anfangswerten in Tabelle 59.1 mit
59.4 Ein System von gew¨ ohnlichen Differentialgleichungen
903
Mond
Sonne
Pluto
Neptun
Uran
Saturn
Jupiter
Mars
Erde
Venus
Merkur
Table 59.1. Anfangswerte f¨ ur das Sonnensystem zur Zeit 00:00 Universal Time (UT1, etwa GMT) am 1. Januar 2000 mit dimensionslosen Ortskoordinaten und Geschwindigkeiten, die mit 1 AU = 1, 49597870 · 1011 m (einer astronomischen Einheit), 1 Jahr = 365, 24 Tage und M = 1, 989 · 1030 kg (einer Sonnenmasse) skaliert sind Position −0, 147853935 x1 (0) = −0, 400627944 −0, 198916163 −0, 725771746 x2 (0) = −0, 039677000 0, 027897127 −0, 175679599 x3 (0) = 0, 886201933 0, 384435698 1, 383219717 x4 (0) = −0, 008134314 −0, 041033184 3, 996313003 x5 (0) = 2, 731004338 1, 073280866 6, 401404019 x6 (0) = 6, 170259699 2, 273032684 14, 423408013 x7 (0) = −12, 510136707 −5, 683124574 16, 803677095 x8 (0) = −22, 983473914 −9, 825609566 −9, 884656563 x9 (0) = −27, 981265594 −5, 753969974 −0, 007141917 x10 (0) = −0, 002638933 −0, 000919462 −0, 177802714 x11 (0) = 0, 884620944 0, 384016593
Geschwindigkeit 7, 733816715 x˙ 1 (0) = −2, 014137426 −1, 877564183 0, 189682646 x˙ 2 (0) = −6, 762413869 −3, 054194695 −6, 292645274 x˙ 3 (0) = −1, 010423954 −0, 438086386 0, 275092348 x˙ 4 (0) = 5, 042903370 2, 305658434 −1, 664796930 x˙ 5 (0) = 2, 146870503 0, 960782651 −1, 565320566 x˙ 6 (0) = 1, 286649577 0, 598747577 0, 980209400 x˙ 7 (0) = 0, 896663122 0, 378850106 0, 944045755 x˙ 8 (0) = 0, 606863295 0, 224889959 1, 108139341 x˙ 9 (0) = −0, 414389073 −0, 463196118 0, 001962209 x˙ 10 (0) = −0, 002469700 −0, 001108260 −6, 164023246 x˙ 11 (0) = −1, 164502534 −0, 506131880
Masse 1, 0/6023600
1, 0/408523, 5
1, 0/328900, 5
1, 0/3098710
1, 0/1047, 355
1, 0/3498, 5
1, 0/22869
1, 0/19314
1, 0/150000000
1 1, 0/2, 674 · 107
904
59. Das Sonnensystem*
den Standardtechniken berechnet werden, die wir im Kapitel Adaptive ” L¨ oser f¨ ur AWP“ vorgestellt haben.
59.5 Vorhersagbarkeit und Berechenbarkeit Die zwei wichtigen Fragen, die sich nat¨ urlicherweise stellen, wenn wir numerische L¨ osungen der Bewegung in unserem Sonnensystem wie in Abb. 59.5 untersuchen, sind die Fragen nach der Vorhersagbarkeit und der Berechenbarkeit. Die Vorhersagbarkeit des Sonnensystems ist die Frage nach der Genauigkeit einer Berechnung bei vorgegebener Genauigkeit der Anfangsdaten. Sind die Anfangsdaten etwa mit einer Genauigkeit von f¨ unf Dezimalstellen bekannt, wie lange dauert es dann, bis selbst bei genauer numerischer Rechnung die L¨ osung nicht einmal mehr in einer Dezimalstelle genau ist? Die Berechenbarkeit des Sonnensystems ist die Frage nach der Genauigkeit einer numerischen L¨ osung, wenn die Anfangsdaten exakt sind, d.h. wie lange wir eine genaue L¨ osung mit den verf¨ ugbaren Methoden und der verf¨ ugbaren Rechenleistung berechnen k¨ onnen. Sowohl die Vorhersagbarkeit als auch die Berechenbarkeit werden durch die Wachstumsrate der Fehler bestimmt. Gl¨ ucklicherweise w¨achst der Fehler nicht wie beim Lorenz-System exponentiell. Wenn wir uns vorstellen, die Erde leicht aus ihrer Umlaufbahn zu entfernen und dann die Berechnung zu beginnen, wird die Umlaufbahn und die Geschwindigkeit der Er-
U (t)
10
5
0
−5
−10
0
0.5
1
1.5
2
2.5
3
t
3.5
4
4.5
5
U (t)
6
z
0.5
4 2
0 1 −0.5 1
0
0 0.5
0
−0.5
y
−1
−1
x
−2 3.2
3.4
3.6
t
3.8
Abb. 59.5. Eine numerische Berechnung der Bewegungen im Sonnensystem, inklusive der Erde, der Sonne und des Mondes
59.6 Adaptive Zeitschrittwahl
905
de etwas anders sein, was zu einem Fehler f¨ uhrt, der mit der Zeit linear anw¨ achst. Das bedeutet, dass die Vorhersagbarkeit des Sonnensystems ziemlich gut ist, da jede weitere genaue Dezimalstelle in den Anfangsdaten bedeutet, dass die Vorhersagbarkeitsgrenze um einen Faktor zehn erh¨oht wird. Wird jedoch die L¨ osung mit einer numerischen Methode, wie der adaptiven cG(1)-Methode, berechnet, wird dies zu einem zus¨atzlichen Fehler f¨ uhren. Wir k¨ onnen uns vorstellen, dass der Fehler, den eine numerische Methode bewirkt, einer kleinen St¨ orung in jedem neuen Zeitschritt gleicht. Wenn wir die Beitr¨ age aus allen Zeitschritten zusammenz¨ahlen, finden wir, dass der numerische Fehler quadratisch anw¨ achst, vgl. Aufgabe 59.2. Es zeigt sich jedoch, dass der Fehler bei der cG(1)-Methode nicht quadratisch anw¨ achst, sondern nur linear, wie in Abb. 59.6 verdeutlicht: Die Energie wird erhalten. Als Folge davon zeigt die cG(1)-Methode in einer Langzeitstudie bessere numerische Eigenschaften als die (genauere) dG(2)Methode h¨ oherer Ordnung. cG(1)
dG(1) 0.5
0
0
e(t)
0.5
−0.5
−0.5 0
10
20
40
50
0
cG(2)
−4
x 10
e(t)
30
10
20
5
0
0
−5
40
50
40
50
dG(2)
−3
x 10
5
30
−5 0
10
20
30
40
50
0
t
10
20
30 t
Abb. 59.6. Das Wachstum des numerischen Fehlers bei Simulationen des Sonnensystems mit verschiedenen numerischen Methoden. Die beiden Methoden links erhalten die Energie, wodurch der Fehler linear statt quadratisch anw¨ achst
59.6 Adaptive Zeitschrittwahl Wenn wir die Bewegungen im Sonnensystem mit der adaptiven cG(1)Methode berechnen, so erkennen wir, dass die Zeitschritte klein genug sein m¨ ussen, um der Umlaufbahn des Mondes (oder von Merkur, falls der Mond
906
59. Das Sonnensystem*
unber¨ ucksichtigt bleibt) zu folgen. Dies ist ineffektiv, da die Zeitskalen der anderen K¨ orper bedeutend gr¨ oßer sind: Die Periode des Mondes betr¨agt einen Monat, aber die Periode von Pluto dauert 250 Jahre, weswegen die Zeitschritte f¨ ur Pluto ungef¨ ahr um einen Faktor 3000 gr¨oßer sein sollten als die Zeitschritte f¨ ur den Mond. Erst k¨ urzlich konnte gezeigt werden, dass die Standardverfahren cG(q), inklusive cG(1), und dG(q) auf individuelle multi-adaptive Zeitschrittwahl f¨ ur unterschiedliche K¨orper erweitert werden k¨ onnen. In Abb. 59.7 stellen wir eine Berechnung mit individuellen Zeitschritten f¨ ur unterschiedliche Planeten dar. Beachten Sie, dass der Fehler quadratisch anw¨ achst, woran wir erkennen, dass die Energie bei dieser Methode nicht erhalten bleibt. (Es k¨ onnen auch multi-adaptive Methoden konstruiert werden, die die Energie erhalten.) t1
−3
4
x 10
x 10
2
e(t)
e(t)
2
0
−2
−4
t2
−5
4
0
−2
0
1
0
0.5
2
t
3
4
−4
5
0
1
2
t
3
4
5
4.5
5
−1
k(t)
10
−2
10
−3
10
1
1.5
2
2.5
t
3
3.5
4
Abb. 59.7. Eine Berechnung der Bewegungen im Sonnensystem mit individuellen, multi-adaptiven Zeitschritten f¨ ur unterschiedliche Planeten
59.7 Grenzen der Berechenbarkeit und Vorhersagbarkeit Mit Hilfe der multi-adaptiven cG(2) scheint die Grenze der Berechenbarkeit des Sonnensystems (f¨ ur den Mond und die neun Planeten) mit Berechnungen in doppelter Genauigkeit bei etwa 106 Jahren zu liegen. Bei der Vorhersagbarkeit desselben Systems scheint es, dass wir f¨ ur jede genaue Dezimalstelle mehr als die 5. Stelle, einen Faktor zehn in der Zeit
Aufgaben zu Kapitel 59
907
gewinnen, so dass beispielsweise eine Vorhersagbarkeit des Mondes f¨ ur die n¨ achsten 1000 Jahre eine Genauigkeit von etwa 8 genauen Dezimalstellen bei den Anfangspositionen, den Geschwindigkeiten, den Massen und der Gravitationskonstante erfordert. Wir folgern, dass u ¨blicherweise die Genauigkeit der Daten eine Grenze f¨ ur genaue Simulationen der Bewegungen im Sonnensystem zu setzen scheint, wenn wir einen multi-adaptiven L¨oser hoher Ordnung benutzen.
Aufgaben zu Kapitel 59 59.1. Zeigen Sie, dass mit geeigneten Definitionen der Einheiten f¨ ur das Jahr agt. Hinweis: Gehen Sie davon und AU die Gravitationskonstante G = 4π 2 betr¨ aus, dass die Erde eine Kreisbahn beschreibt, bei der die Zentrifugalkraft mv 2 /r der Gravitationskraft GmM/r 2 entspricht. 59.2. Begr¨ unden Sie das quadratische Anwachsen des numerischen Fehlers f¨ ur das Sonnensystem. Hinweis: Gehen Sie davon aus, dass der Fehlereintrag zur Geschwindigkeit in jedem Zeitschritt in der Gr¨ oßenordnung von liegt. 59.3. (Schwierig!) Zeigen Sie im Allgemeinen, dass f¨ ur ein bestimmtes Anfangswertproblem ein Fehlerwachstum mit |e(T )| ≤ S(T )|e(0)| zu einem Fehler in der numerischen L¨ osung des Anfangswertproblems mit T S(t) dt |e(T )| 0
anw¨ achst, vorausgesetzt, dass der zus¨ atzliche Fehler in jedem Zeitschritt unterhalb von kn bleibt. 59.4. Zeigen Sie, dass die cG(1)-Methode die Energie f¨ ur ein Hamiltonsches System erh¨ alt, d.h., zeigen Sie, dass f¨ ur ein System, f¨ ur das x ¨ = F = −∇x P (x) gilt, die Gesamtenergie E(t) = K(x(t)) ˙ + P (x(t)) 2
erh¨ alt. Hierbei ist P (x) ein gegebenes Potential und K(x) ˙ = x˙2 die kinetische Energie. Hinweis: Formulieren Sie ein System erster Ordnung f¨ ur den Vektor [u, v] = [x, x], ˙ benutzen Sie [v, ˙ u] ˙ als Testfunktion und nutzen Sie die Kettenregel. 59.5. Untersuchen Sie die Vorhersagbarkeit und Berechenbarkeit des Sonnensystems numerisch. K¨ onnen Sie das lineare Fehlerwachstum f¨ ur die cG(1)-Methode verifizieren?
60 Optimierung
1. Alle Lebewesen werden durch den Wunsch nach maximaler Freude getrieben. 2. Es gibt dabei Freude f¨ ur den K¨ orper und Freude f¨ ur die Seele. Bei der Freude f¨ ur die Seele kann der K¨ orper keinen Anteil nehmen, wohingegen die Freude f¨ ur den K¨ orper beiden gleichermaßen gemeinsam ist. (Die beiden ersten von 14 zentralen Prinzipien in Anthropologica physica, von K¨ onig Karl XII von Schweden, 1717)
60.1 Einleitung In diesem Kapitel werden wir einige wichtige Gesichtspunkte der Optimierung weiter ausf¨ uhren, die wir bereits im vorangegangenen Kapitel in Verbindung mit der Minimierung angesprochen haben. Optimierung ist ein sehr breites Themengebiet und wir werden unten auf weitere Gesichtspunkte stoßen. Hier werden wir vor allem solche Themen aufgreifen, die eng mit zentralen Aspekten der Infinitesimalrechnung verkn¨ upft sind. Sie gelten als tief gehend“ und als nur verst¨andlich f¨ ur ” die besten fortgeschrittenen Mathematikstudenten. Sie k¨onnen sich eine eigene Meinung zu den hier vorgestellten Untersuchungen bilden. Falls Sie dabei das zu erwartende Gef¨ uhl der Verwirrung u ¨ berkommt, sollte Sie das nicht weiter beunruhigen. Fahren Sie dann einfach mit dem n¨achsten Kapitel fort. Wenn Sie andererseits das Gef¨ uhl bekommen, dass sie wider alle Erwartungen die Hauptgedanken verstehen, so k¨onnen Sie sich gratulieren und Sie sind besser zur Mathematik geeignet, als Sie bisher dachten!
910
60. Optimierung
In unserer modernen Welt ist Optimierung ein Kodewort. Etwas zu optimieren bedeutet, vorhandene Ressourcen so effektiv wie m¨oglich zu benutzen oder die bestm¨ ogliche Alternative zu finden. In unserem Privatleben, k¨onnen wir uns beispielsweise das Ziel setzen, dass unser Auto so wenig Benzin wie m¨ oglich verbraucht, dass wir etwas zum kleinstm¨oglichen Preis kaufen, dass wir mit dem geringstm¨ oglichen Aufwand das Haus putzen oder dass wir auf einer Urlaubsreise das gr¨ oßtm¨ ogliche Vergn¨ ugen erleben. Bei der automatisierten Herstellung ist die Optimierung das f¨ uhrende Prinzip, um so wenig Energie, Material und Arbeitskr¨afte bei der Herstellung einer gewissen Menge von G¨ utern einzusetzen wie m¨oglich. Eine der wichtigsten Vorstellungen unserer kapitalistischen Gesellschaft ist es, dass auf lange Sicht das effektivste Herstellungsverfahren den Markt beherrschen wird. Das zentrale Problem der Optimierung ist die Suche nach einem Maximum oder Minimum f¨ ur eine gegebene Funktion f : Ω → R, die auf einer ¨ bestimmten Zahlenmenge Ω definiert ist. Ublicherweise ist Ω ein Gebiet d ankt oder unbeschr¨ankt sein kann, in R mit d = 1, 2, 3, . . ., das beschr¨ oder aber Ω ist eine endliche Menge, wie die Menge der nat¨ urlichen Zahlen 1, 2, . . . , 100. Genauer formuliert, so bedeutet die Suche nach einem Minimum x ¯ in Ω, dass wir einen Punkt x ¯ ∈ Ω suchen, so dass f (x) ≥ f (¯ x) f¨ ur alle x ∈ Ω.
(60.1)
Wir sagen dann, dass f (¯ x) der Minimalwert von f : Ω → R ist. Beachten Sie, dass es zwar mehrere Minima geben kann, aber nat¨ urlich nur einen einzigen Minimalwert. Wenn in einem olympischen 100m Lauf drei Wettk¨ ampfer die Bestzeit von 9,99 Sekunden laufen, dann kann an alle drei L¨ aufer die Goldmedaille verliehen werden. Es kann jedoch keine zwei Wettk¨ ampfer mit unterschiedlichen Endzeiten geben, die beide die Goldmedaille erhalten. Als N¨ achstes wollen wir das Problem betrachten, den Minimalwert und das zugeh¨ orige Minimum, oder die Minima, f¨ ur eine gegebene Funktion f : Ω → R zu finden. Wir k¨ onnen zwei F¨ alle unterscheiden: (a) Ω ist ein Gebiet in Rd mit unendlich vielen Punkten, wie etwa, wenn Ω die Einheitsscheibe {x ∈ Rd : x ≤ 1} ist; (b) Ω enth¨alt endlich viele Punkte, wie beispielsweise f¨ ur Ω = {1, 2, 3, . . . , 10}. Fall (a) wird als kontinuier” lich“ und Fall (b) wird als diskret“ bezeichnet. Die beiden F¨alle sind nicht ” ¨ vollst¨ andig voneinander verschieden; es kann einen fließenden Ubergang von diskret“ zu kontinuierlich“ geben, wenn die Zahl der Elemente in Ω ” ” anw¨ achst. Im diskreten Fall mit endlich vielen Punkten k¨onnen wir den Minimalwert und zugeh¨ orige Minima von f : Ω → R durch verschiedene Sortieralgorithmen finden. Ist Ω kontinuierlich mit unendlich vielen Punkten, kann das Sortieren unm¨ oglich werden und oft werden andere Algorithmen, die Informationen u ¨ ber die Ableitung von f (x) verlangen, in Kombination mit verschiedenartigen Methoden des steilsten Abstiegs eingesetzt.
60.2 Sortieren f¨ ur endliches Ω
911
60.2 Sortieren fu ¨r endliches Ω Ist Ω eine endliche Zahlenmenge, beispielsweise Ω = {1, 2, . . . , 9, 10}. Dann k¨ onnen wir eine Liste der zugeh¨ origen 10 Funktionswerte f (1), . . . , f (10) aufstellen, diese nach aufsteigenden Funktionswerten sortieren und somit den Minimalwert f (¯ x) und das zugeh¨ orige Argument x ¯ finden. Nat¨ urlich m¨ ussen wir nicht alle Zahlen entsprechend ihrer Gr¨oße sortieren, um die Kleinste zu finden. Wir ben¨ otigen nur das erste Element in der Liste, die nach aufsteigender Gr¨ oße sortiert ist. Wenn wir diesen Vorgang wiederholen, gelangen wir zu einer vollst¨ andig sortierten Liste. Beispiel 60.1. Sei beispielsweise Ω = {1, 2, . . . , 9, 10} und f (1) = 143, f (2) = 538, f (3) = 67, f (4) = 964, f (5) = 287, f (6) = 64, f (7) = 123, f (8) = 333, f (9) = 63 und f (10) = 88. Einfaches Betrachten liefert uns das Minimum in x ¯ = 9 mit dem Minimalwert f (¯ x) = 63. Sortieren klingt zwar einfach, effektiv zu sortieren ist aber durchaus ein ernst zu nehmendes schwieriges Problem, wenn eine Vielzahl von Werten sortiert werden muss. Es gibt verschiedene Algorithmen zur Sortierung und Sortierungsalgorithmen spielen in der Informatik eine wichtige Rolle. Das folgende Verfahren ist ein einfacher Algorithmus, um das Minimum m von N Zahlen f (1), . . . , f (N ) zu finden: ¯ = 1. 1. Sei m = f (1) und x 2. F¨ ur x = 2, . . . , N ist m = f (x) und x ¯ = x, falls f (x) < m. Der Minimalwert ist dann m = f (¯ x) und das Minimum tritt in x = x ¯ auf. Der Algorithmus beruht auf dem sich wiederholenden Vergleich von Zahlenpaaren (falls f (x) < m, wird m und x ¯ ver¨andert). Die Anzahl der n¨ otigen Vergleiche im vorgestellten Algorithmus ist offensichtlich gleich N − 1. Wenn wir den Algorithmus ohne f (¯ x) wiederholen, erhalten wir eine vollst¨ andig sortierte Liste mit Hilfe von (N − 1) + (N − 2) + · · · + 1 ≈ 12 N 2 Vergleichen.
60.3 Was tun, wenn Ω nicht endlich ist? Ist Ω ein Intervall reeller Zahlen, beispielsweise Ω = [0, 1], dann enth¨alt Ω unendlich viele Punkte. An eine Sortierung durch paarweises Vergleichen der Werte f (x) f¨ ur x ∈ Ω ist dann f¨ ur eine gegebene Funktion f : Ω → R nicht zu denken, da wir nicht unendlich viele Vergleiche durchf¨ uhren k¨ onnen. Nat¨ urlich ersetzen wir Ω in der Praxis durch eine endliche Zahlenmenge, indem wir beispielsweise mit einer Zahlendarstellung der Punkte in Ω in einfacher Genauigkeit arbeiten. Daher k¨onnen wir im Prinzip die oben vorgestellte Sortierungsstrategie anwenden. Aber
912
60. Optimierung
die Berechnung wird sehr berechnungsaufw¨ andig sein. Mit sieben Dezimalstellen m¨ ussten wir 107 Werte von f (x) vergleichen, was mit dem obigen otigen w¨ urde, um das Minimum zu Algorithmus etwa 107 Vergleiche ben¨ finden. Ist das Intervall Ω und die gew¨ unschte Genauigkeit gr¨oßer, dann w¨ are auch die Zahl der notwendigen Vergleiche entsprechend gr¨oßer. Der Berechnungsaufwand enth¨ alt außerdem die Kosten f¨ ur die Auswertung der Funktionswerte f (x) f¨ ur jedes x als multiplikativen Faktor, was f¨ ur jede Auswertung viele arithmetische Operationen erfordern wird. Die Gesamtkosten f¨ ur den Vergleichsalgorithmus werden daher viel zu hoch sein. Wir suchen nun nach effektiven Algorithmen, um den Fall zu behandeln, dass Ω ein Gebiet in Rd ist und die Funktion f (x) Lipschitz-stetig ist zur Lipschitz-Konstanten L. F¨ ur diesen Fall k¨ onnen sich die Funktionswerte f (x) nicht mehr ver¨ andern, als das Produkt aus L mit x. Wollen wir den Minimalwert bis auf eine bestimmte Toleranzgrenze T OL genau bestimmen, ben¨ otigen wir in etwa (L/T OL)d Vergleiche, falls der Durchmesser von Ω in der Gr¨ oßenordnung von Eins ist. Abh¨angig von der Wahl der Toleranz T OL und von L mag dies akzeptabel sein oder nicht. Ist die Funktion f (x) differenzierbar, k¨ onnen wir die Suche weiter einschr¨ anken, indem wir Informationen der Ableitung zur Hilfe nehmen, wie wir unten noch sehen werden.
60.4 Die Existenz eines Minimums Wie k¨ onnen wir uns davon u ¨ berzeugen, dass tats¨achlich ein Minimum existiert? Wir untersuchen unten den Beweis des folgenden wichtigen Satzes als Antwort auf diese Frage. Satz 60.1 Sei f : Ω → R Lipschitz-stetig und Ω eine abgeschlossene und ¯ ∈ Ω, so dass beschr¨ankte Teilmenge des Rd . Dann existiert ein Minimum x f (¯ x) ≤ f (x) f¨ ur alle x ∈ Ω. Die Annahme, dass Ω abgeschlossen und beschr¨ankt ist, ist unbedingt erforderlich, um die Existenz eines Minimums zu garantieren, wie wir an folgendem Beispiel sehen. Beispiel 60.2. Die Funktion f : (0, 1) → R mit f (x) = x besitzt kein Minimum in (0,1). Bei diesem Beispiel ist Ω nicht abgeschlossen. Beispiel 60.3. Die Funktion f : [1, ∞) → R mit f (x) = 1/x besitzt kein Minimum in [1, ∞). Bei diesem Beispiel ist Ω nicht beschr¨ankt. Wir wollen jedoch darauf hinweisen, dass eine Funktion f : Ω → R durchaus ein Minimum besitzen kann, wenn Ω unbeschr¨ankt ist. Insbesondere werden wir, wenn f (x) gegen Unendlich strebt falls x anw¨achst, die Suche nach einem Minimum ganz einfach auf ein beschr¨anktes Intervall einschr¨ anken.
60.5 In einem inneren Minimum ist die Ableitung gleich Null
913
Beispiel 60.4. Die Funktion f : [0, ∞) mit f (x) = x2 − 2x besitzt einen Minimalwert f (1) = −1; da f (x) ≥ 0 f¨ ur x ≥ 2, k¨onnen wir die Suche nach einem Minimum auf [0, 2] einschr¨ anken.
60.5 In einem inneren Minimum ist die Ableitung gleich Null Wir setzen voraus, dass f : Ω → R eine gegebene Lipschitz-stetige differenzierbare Funktion ist, wobei Ω ein Gebiet in Rd ist. Wir wollen nun beweisen, dass in einem inneren Minimum von f : Ω → R, d.h. x¯ ist ein ur ein δ > 0 in Ω Minimum und die Kugel {x ∈ Rd : x − x¯ < δ} ist f¨ enthalten, f¨ ur den Gradienten f = ∇f von f gilt, dass f (¯ x) = ∇f (¯ x) = 0. Dies ergibt sich aus x) · (x − x¯) + Ef (x, x¯) f (x) = f (¯ x) + f (¯ x)x − x ¯2 . Ist nun f (¯ x) = 0, so k¨onnen wir x = mit Ef (x, x¯) ≤ Kf (¯ x ¯ − f (¯ x) ∈ Ω f¨ ur ein > 0 w¨ ahlen und absch¨atzen: f (x) ≤ f (¯ x) − f (¯ x)2 + 2 Kf (¯ x)f (¯ x)2 = f (¯ x) − f (¯ x)2 (1 − Kf (¯ x)) < f (¯ x). Ist gen¨ ugend klein, so f¨ uhrt uns dies zu einem Widerspruch zu der Annahme, dass x ¯ ein Minimum ist. Wir haben somit das folgende wichtige Ergebnis bewiesen, vgl. Abb. 60.1 und Abb. 60.2: Satz 60.2 Angenommen, f : Ω → R habe ein Minimum in einem inneren Punkt x¯ in Ω und sei ferner f : Ω → R in x ¯ differenzierbar. Dann gilt: f (¯ x) = 0. y
y = f (x) y = f (¯ x)
x a
x ¯
b
Abb. 60.1. In einem inneren Minimum x ¯ gilt: f (¯ x) = 0
914
60. Optimierung y
y = f (x) y = f (¯ x) y = f (¯ x) + f (¯ x)(x − x ¯) a
x ¯
x
b
x) < 0 folgt, dass f (x) < f (¯ x) f¨ ur ein x nahe bei x ¯ mit x ¯ > x, Abb. 60.2. Aus f (¯ d.h. x ¯ kann kein Minimum sein
Mit Hilfe dieses Ergebnisses k¨ onnen wir die Nullstellen der Ableitung f (x) in Ω nach einem Minimum von f (x) durchsuchen. Um diese Nullstellen zu bestimmen, k¨ onnen wir einen beliebigen Algorithmus f¨ ur die Nullstellensuche verwenden, wie die Fixpunkt-Iteration, die Newton-Methode oder die Bisektion. Es gibt daher eine enge Verbindung zwischen Algorithmen f¨ ur die Suche nach einem inneren Minimum von f : Ω → R und Algorithmen f¨ ur die Berechnung der L¨ osung von f (x) = 0. Bitte beachten Sie, dass f (x) ungleich Null sein kann, wenn das Minimum x ¯ von f : Ω → R kein innerer Punkt von Ω ist, d.h. wenn x¯ auf einer Grenze von Ω liegt, vgl. Abb. 60.3. y
y = f (x)
y = f (a) + f (a)(x − a), f (a) > 0
x a
b
Abb. 60.3. f (¯ x) kann in einem Minimum x ¯, das auf der Grenze liegt, ungleich Null sein
Beispiel 60.5. Angenommen, wir wollten das Minimum von f : Ω → R mit Ω = [0, 2] und f (x) = x2 − 2x bestimmen. Da Ω abgeschlossen und beschr¨ ankt ist und f (x) Lipschitz-stetig ist, wissen wir, dass ein Minimum x ¯ ∈ [0, 2] existiert. Ist x ¯ ein innerer Punkt in [0, 2], d.h. 0 < x ¯ < 2, dann gilt x) = 2¯ x − 2 = 0 und folglich x ¯ = 1. Wir vergleichen den Wert f (1) = −1 f (¯ mit den Werten f (0) = 0 und f (2) = 0 auf den Grenzen von [0, 2] und
60.5 In einem inneren Minimum ist die Ableitung gleich Null
915
folgern, dass f (1) = −1 der Minimalwert mit zugeh¨origem Minimum in x ¯ = 1 ist. Beispiel 60.6. Angenommen, wir wollten das Minimum von f : Ω → R mit f (x) = f (x1 , x2 ) = x21 + x22 − 2x1 − x2 auf einem abgeschlossenen Quadrat Q = [0, 2] × [0, 2] bestimmen, vgl. Abb. 60.4. Wir wissen, dass in Q ein Minimum existiert. Wir berechnen zun¨ achst die inneren Punkte x ˆ f¨ ur die x) = 0 gilt. Da f (x) = (2x1 − 2, 2x2 − 1), ist x ˆ = (1; 0, 5) mit dem f (ˆ Funktionswert f (1; 0, 5) = −1, 25. Nun m¨ ussen wir nur noch f (x) auf der Begrenzung von Q kontrollieren, um festzustellen, ob dort Werte kleiner als −1, 25 vorkommen. Wir betrachten dazu jedes Teilst¨ uck der Grenze f¨ ur sich. Auf dem St¨ uck x2 = 0 gilt: f (x) = x21 − 2x1 mit x1 ∈ [0, 2] und wir erkennen mit Hilfe des vorangegangenen Beispiels, dass der Minimalwert f (1, 0) = −1 ist. Auf dem St¨ uck x2 = 2 gilt: f (x1 , 2) = x21 − 2x1 + 3 mit Minimalwert f (1, 2) = 2. Auf dem St¨ uck x1 = 0 gilt: f (0, x2 ) = x22 − x2 mit Minimalwert f (0; 0, 5) = −0, 25 und auf dem St¨ uck x1 = 2 gilt f (2, x2 ) = x22 − x2 mit Minimalwert f (2; 0, 5) = −0, 25. Wir fassen zusammen, dass der innere Punkt x ¯ = (1; 0, 5) auch Minimum ist und dass der Minimalwert f (1; 0, 5) = −1, 25 betr¨ agt.
Abb. 60.4. Die Suche nach einem Minimum f¨ ur f (x) = x21 + x22 − 2x1 − x2 auf Q = [0, 2] × [0, 2]
Beispiel 60.7. Ihnen wird die Aufgabe gestellt, eine Schachtel (ohne Deckel) mit einem vorgegebenen Volumen zu entwerfen und dabei so wenig Material wie m¨ oglich zu verwenden. Es seien x1 , x2 und x3 die Seiten der Schachtel und das Volumen folglich V = x1 x2 x3 . Die zu minimierende Fl¨ache lautet uhrt zu x1 x2 + 2x1 x3 + 2x2 x3 . Elimination von x3 f¨ 1 1 f (x1 , x2 ) = x1 x2 + 2V + , x1 x2
916
60. Optimierung
was auf Ω = [0, ∞)×[0, ∞) minimiert werden soll. Die Suche nach Punkten x ˆ mit f (ˆ x) = (0, 0) liefert x ˆ1 = x ˆ2 = (2V )1/3 mit zugeh¨origer H¨ohe x ˆ3 = 1 1/3 (2V ) und Fl¨ a che 2 f (ˆ x) = (2V )2/3 + 2(2V )2/3 . Ein Vergleich mit (x1 , x2 ) mit sehr großem oder sehr kleinem x1 und x2 f¨ uhrt zu großen Werten von f (x1 , x2 ) und daher ist x ˆ das Minimum. Die L¨ osung ergibt eine Schachtel mit quadratischem Boden und einer H¨ohe, die halb so groß ist wie die Breite. Wir wollen noch betonen, dass ein Minimum auch an einem inneren Punkt bestimmt werden kann, wenn die Funktion dort nicht differenzierbar ist. So erh¨ alt man das Minimum der Funktion f (x) = |x − 1| auf [0, 2] in x¯ = 1 mit Minimalwert f (¯ x) = f (1) = 0. Diese Art von Minimum muss besonders untersucht werden. Daher m¨ ussen wir, um alle m¨oglichen x) = 0 betrachten, zus¨atzlich noch Minima zu finden, alle Punkte x¯ mit f (¯ die Grenzen der Definitionsmenge und die inneren Punkte, in denen f (x) nicht differenzierbar ist.
60.6 Die Rolle der Hesseschen Matrix Wir wissen, dass f¨ ur ein inneres Minimum einer Funktion f : Ω → R, x) = 0 gilt. Aber es ist im Allgemeinen nicht wahr, dass x ¯ ein Minimum f (¯ ist, wenn f (¯ x) = 0. Ein Punkt x ¯ mit f (¯ x) = 0 kann auch ein Maximum oder ein Wendepunkt sein, vgl. Abb. 60.5. Ist die Hessesche Matrix H von x) = 0, dann gilt nach dem f : Ω → R nahe bei x¯ positiv-definit und f (¯ Satz von Taylor: 1 f (x) = f (¯ x) + (x − x ¯) H(y) · (x − x ¯) > f (¯ x) 2 f¨ ur x nahe bei x¯ und ein y zwischen x und x¯ und folglich ist x ¯ ein lokales Minimum. y
y y = f (x) y = f (x)
x ¯
x
x ¯
x
x) = 0 kann ebenso auf ein Maximum oder auf einen Wendepunkt Abb. 60.5. f (¯ hinweisen
60.7 Minimierungsalgorithmen: Der steilste Abstieg
917
Wir wiederholen, dass eine n × n-Matrix A positiv-definit genannt wird, falls v Av > 0 f¨ ur alle von Null verschiedenen v ∈ Rn . Nach dem Spektralsatz ergibt sich, dass A genau dann und nur dann positiv-definit ist, wenn alle Eigenwerte von A positiv sind. Beispiel 60.8. Sei A = (aij ) eine symmetrische 2 × 2-Matrix. Dann ist A positiv-definit, falls a11 a22 − a212 > 0
und a11 > 0.
Dies ergibt sich durch quadratische Erg¨ anzung aus v Av = a11 v12 + a22 v22 + 2a12 v1 v2 .
60.7 Minimierungsalgorithmen: Der steilste Abstieg Wir werden kurz diskutieren, wie wir Kandidaten f¨ ur Minima f¨ ur eine gegebene Funktion f : Ω → R finden k¨ onnen, wobei Ω ein Gebiet in Rd ist. Wir setzen voraus, dass f : Ω → R Lipschitz-stetig und differenzierbar auf Ω ist. Bei der Methode des steilsten Abstiegs konstruieren wir eine Folge {xi } in Rd , die hoffentlich nach der Iterationsvorschrift xi+1 = xi − αi f (xi )
(60.2)
gegen ein (lokales) Minimum konvergiert, wobei αi ein positiver Parameter ist. Da αi > 0, ist xi+1 < xi , wenn f (xi ) > 0. Und ist f (xi ) < 0, dann ist xi+1 > xi . Somit wird, wenn f (xi ) > 0 und folglich f (x) in x = xi anw¨ achst, die Wahl von xi+1 < xi zu f (xi+1 ) < f (xi ) f¨ uhren. Daher sollte aher am Minimum liegen als xi . F¨ ur f (xi ) < 0 k¨onnen wir ¨ahnlich xi+1 n¨ argumentieren. Es ist klar, dass die Wahl des Parameters αi wichtig ist. Ist αi zu klein, dann wird die Konvergenz langsam und falls αi zu groß ist, kann die Folge {xi } hin und her schwingen. Beachten Sie, dass wir die Gradienten-Methode (60.2) zur Minimierung von f (x) als Fixpunkt-Iteration zur Berechnung der Nullstelle von f (x) betrachten k¨ onnen. Falls uns der steilste Abstieg an die Grenze Γ von Ω f¨ uhrt, dann k¨onnen wir die Methode des steilsten Abstiegs durch die projizierte GradientenMethode xi+1 = xi − αi P f (xi )
918
60. Optimierung
ersetzen, wobei P f (xi ) die Projektion von f (xi ) auf die Tangentialebene zu Γ in xi ∈ Γ beschreibt. Die prinzipielle Idee f¨ ur die Minimierung von f (x) ist folglich, Nullstellen von f (x) mit Hilfe der Methode des steilsten Abstiegs zu finden oder aquivalent, die Fixpunkt-Iteration f¨ ur f (x) = 0 anzuwenden. Wurden die ¨ Nullstellen von f (x) erst einmal bestimmt, so kann die Minimierung auf die Suche auf der Grenze von Ω und auf innere Nullstellen von f (x) reduziert werden.
60.8 Existenz eines Minimalwerts und eines Minimums Wir kehren zum wichtigen Ergebnis zur¨ uck, dass f¨ ur eine Lipschitz-stetige Funktion f : Ω → R auf einem abgeschlossenen und beschr¨ankten Gebiet Ω in Rd ein Minimum x¯ ∈ Ω mit zugeh¨ origem Minimalwert f (¯ x) existiert und wollen es nun beweisen. Wir f¨ uhren den Beweis f¨ ur d = 1 durch, so dass also Ω = [a, b] ein abgeschlossenes Intervall ist. Der Beweis f¨ ur d > 1 verl¨ auft ¨ ahnlich. Dass eine Lipschitz-stetige Funktion f : [a, b] → R auf einem abgeschlossenen und beschr¨ ankten Intervall [a, b] ein Minimum besitzt, werden wir so beweisen, dass wir dabei ein Minimum mit dem Bisektionsalgorithmus konstruieren“. Wir werden bei der Konstruktion auf einen umstrittenen ” Schritt stoßen. Wenn es uns gelingt, diese Streitfrage zu kl¨aren, werden wir dadurch zus¨ atzliche Einblicke in das Prinzip von Minimierungsalgorithmen gewinnen. Normalerweise wird der hier vorgestellte Beweis als so schwierig“ ange” sehen, dass er nur fortgeschrittenen“ Studierenden pr¨asentiert wird. Mit ” unserer guten Vorbereitung bez¨ uglich des Bisektionsalgorithmuses und der Natur der reellen Zahlen, wollen wir nun in den Beweis eintauchen und dabei werden wir feststellen, dass er, abgesehen von den nicht-konstruktiven Gesichtspunkten, einfach“ ist. ” Wir wiederholen zun¨ achst, dass aus der Lipschitz-Stetigkeit von f (x) und der Tatsache dass [a, b] beschr¨ ankt ist, folgt, dass f : [a, b] → R von unten und oben beschr¨ ankt ist. Insbesondere gibt es ein m ∈ R, so dass f (x) ≥ m
ur alle x ∈ [a, b]. f¨
(60.3)
Wir sagen, dass m eine untere Schranke von f : [a, b] → R ist, wenn (60.3) gilt. Nat¨ urlich gibt es viele untere Schranken, da jede Zahl m < m auch eine untere Schranke ist, wenn m eine untere Schranke ist. In unserem Beweis werden wir den Begriff der gr¨oßten unteren Schranke benutzen, die wie folgt definiert ist: Wir sagen, dass m eine gr¨oßte untere
60.8 Existenz eines Minimalwerts und eines Minimums
919
Schranke von f : [a, b] → R ist, wenn f (x) ≥ m f¨ ur alle x ∈ [a, b] und f¨ ur alle M > m,
(60.4)
gibt es ein x ∈ [a, b] so dass f (x) < M.
In Worten formuliert, ist m eine gr¨ oßte untere Schranke von f : [a, b] → R, wenn m eine untere Schranke von f : [a, b] → R ist und jede Zahl gr¨oßer als m keine untere Schranke von f : [a, b] → R ist. Der Begriff der gr¨oßten unteren Schranke spielte eine wichtige Rolle bei der Entwicklung der Infinitesimalrechnung im Laufe des 20. Jahrhunderts. Der Beweis vollzieht sich nun in zwei Schritten: Schritt 1: Existenz einer gr¨ oßten unteren Schranke m f¨ ur f : [a, b] → R Wir werden die Existenz einer gr¨ oßten unteren Schranke m mit Hilfe des Bisektionsalgorithmuses beweisen. Wie oben ausgef¨ uhrt, existiert eine untere Schranke m von f : [a, b] → R. Sei y0 = m und Y0 = f (b). Nun definieren wir yˆ1 = 12 (y0 + Y0 ) = 12 (m + f (b)). Beachten Sie, dass y0 ≤ yˆ1 ≤ Y0 . Ist f (x) ≥ yˆ1 f¨ ur alle x ∈ [a, b], dann setzen wir y1 = yˆ1 und Y1 = Y0 . Falls dies nicht der Fall ist, dann gibt es ein x ∈ [a, b], so dass f (x) < yˆ1 und wir setzen y1 = m und Y1 = yˆ1 . Dadurch gelangen wir vom Paar (y0 , Y0 ) oder vom Intervall (y0 , Y0 ) zum Intervall (y1 , Y1 ). Nach unserer Konstruktion ist ur alle x ∈ [a, b] und i = 0, 1 und es gibt ein x ∈ [a, b], so dass f (x) ≥ yi f¨ f (x) < Yi , falls nicht Y0 oder Y1 bereits gr¨ oßte untere Schranken sind. Wenn wir diesen Vorgang wiederholen, erhalten wir die Folgen {yi } und ur i = 0, 1, 2, . . . gilt: {Yi }, so dass f¨ yi < Yi ,
yi+1 ≥ yi
Yi+1 ≤ Yi ,
−i
0 < Yi − yi = 2 (Y0 − m), f (x) ≥ yi f¨ ur alle x ∈ [a, b], es gibt ein x ∈ [a, b], so dass f (x) < Yi , oßte untere Schranke. Wie im Kapitel Wurzel oder eines der Yi ist eine gr¨ ” Zwei“, sind die Folgen {yi } und {Yi } Cauchy-Folgen und beide konvergieren gegen eine reelle Zahl, die wir als m bezeichnen. Die Zahl m ist die gr¨oßte untere Schranke von f : [a, b] → R, da m die folgenden beiden Bedingungen erf¨ ullt: f (x) ≥ m f¨ ur alle M > m
f¨ ur alle x ∈ [a, b],
gibt es ein x ∈ [a, b] so dass f (x) < M.
Somit haben wir die Existenz einer gr¨ oßten unteren Schranke f¨ ur eine Lipschitz-stetige Funktion f : [a, b] → R auf einem abgeschlossenen und beschr¨ ankten Intervall [a, b] bewiesen. Beachten Sie, dass dieses Ergebnis auch gilt, wenn (a, b) ein beschr¨ anktes offenes Intervall ist. Wir haben n¨amlich bisher nicht davon Gebrauch gemacht, dass [a, b] abgeschlossen ist.
920
60. Optimierung
Schritt 2: Existenz eines Minimums Wir konstruieren nun eine konvergente Folge {xi } mit xi ∈ [a, b] und lim f (xi ) = m.
i→∞
Wenn wir x ¯ = limi→∞ xi setzen, so erhalten wir, dass f (¯ x) = m und folglich ist x ¯ ein Minimum, womit wir mit dem Beweis fertig sind. Zur Konstruktion von {xi } nutzen wir wiederum den Bisektionsalgorithmus: Wir beginnen mit x0 = a und X0 = b und definieren x ˆ1 = 12 (x0 + X0 ). ur alle x mit x ˆ1 < x ≤ X0 , dann setzen wir x1 = x0 und Ist f (x) > m f¨ X1 = xˆ1 . Falls nicht, setzen wir x1 = x ˆ1 und X1 = X0 . Wenn wir diesen Vorgang wiederholen, erhalten wir eine konvergente Folge {xi } mit dem Grenzwert x ¯ und nach Konstruktion gilt f (¯ x) = m. Beachten Sie, dass [a, b] abgeschlossen sein muss, um zu garantieren, dass x ¯ ∈ [a, b]. Wir stellen fest, dass das Minimum (nat¨ urlich) mit der gr¨oßten unteren Schranke u ¨ bereinstimmt. Wir fassen dies in folgendem Satz zusammen: Satz 60.3 (Existenz eines Minimums) Sei f : I → R Lipschitz-stetig und I = [a, b] ein abgeschlossenes und beschr¨anktes Intervall. Dann existiert ein Punkt x ¯ ∈ [a, b], in dem f : I → R einen Minimalwert m annimmt, ur alle x ∈ [a, b] und f (¯ x) = m. d.h., f (x) ≥ m f¨ Beim Beweis dieses Satzes haben wir den Bisektionsalgorithmus zweimal eingesetzt. Wenn wir y = f (x) setzen, k¨onnen wir sagen, dass wir zun¨ achst den Bisektionsalgorithmus in der Variablen y benutzt haben, um die Existenz einer gr¨ oßten unteren Schranke m zu beweisen und danach in der Variablen x, um die Existenz eines Minumums x ¯ zu beweisen, f¨ ur das f (¯ x) = m gilt.
60.9 Existenz einer gr¨oßten unteren Schranke Wenn wir uns den Beweis zur Existenz einer gr¨oßten unteren Schranke f¨ ur die Lipschitz-stetige Funktion f : I → R vergegenw¨artigen, erkennen wir, dass der entscheidende Schritt beim Beweis der ist, dass f : [a, b] → R von unten beschr¨ ankt ist, d.h., dass es eine reelle Zahl m gibt, so dass f (x) ≥ m f¨ ur alle x ∈ [a, b]. Wir k¨ onnen dies als Eigenschaft des Wertebereichs W (f ) = {y : y = f (x) f¨ ur ein x ∈ D(f ) = [a, b]} interpretieren, n¨ amlich dass y ≥ m, f¨ ur alle y ∈ W (f ). Dies besagt, dass die Menge W (f ) von unten beschr¨ankt ist. Noch allgemeiner sagen wir, dass eine Menge A reeller Zahlen von unur ten beschr¨ ankt ist, wenn eine reelle Zahl m existiert, so dass y ≥ m f¨
60.10 Konstruierbarkeit eines Minimums und eines Minimalwerts
921
alle y ∈ A. Mit Hilfe derselben Argumentation, die wir eben f¨ ur den Fall A = W (f ) benutzt haben, erhalten wir die folgende zentrale Eigenschaft reeller Zahlen: Satz 60.4 (Existenz einer gr¨ oßten unteren Schranke) Angenommen, A sei eine Menge reeller Zahlen, die von unten beschr¨ankt ist, d.h. es gibt eine reelle Zahl m, so dass x ≥ m f¨ ur x ∈ A. Dann besitzt die Menge ur alle x ∈ A und f¨ ur A eine gr¨oßte untere Schranke m ∈ R mit x ≥ m f¨ alle M > m existiert ein x ∈ A, so dass x < M .
60.10 Konstruierbarkeit eines Minimums und eines Minimalwerts Wir wollen nun untersuchen, bis zu welchem Grad der obige Beweis konstruktiv ist. Es gibt zwei wichtige Schritte: (i) Die Konstruktion der gr¨oßten unteren Schranke, die dem Minimalwert entspricht, und (ii) die Konstruktion eines Minimums. Bei der Anwendung des Bisektionsalgorithmuses in (i) m¨ ussen wir u ¨ berpr¨ ufen, ob ur alle x ∈ [a, b], f (x) ≥ yˆi f¨ w¨ ahrend wir bei der Anwendung in (ii) pr¨ ufen m¨ ussen, ob ur alle x, so dass x ˆ 1 < x ≤ X0 . f (x) > m f¨ ¨ Beide Uberpr¨ ufungen scheinen eine unendliche Zahl von x Werten zu betreffen, was im schlimmsten Fall unendlich viele Vergleiche ben¨otigen w¨ urde. Diese Zahl kann verringert werden, wenn f (x) differenzierbar ist und wir die Informationen aus f (x) ausnutzen. So zeigt uns beispielsweise das Vorzeichen von f (x), ob f (x) ansteigend oder abfallend ist, wodurch wir die Zahl der Vergleiche verringern k¨ onnen. Daher ist der vorgestellte Beweis zur Existenz eines Minimalwerts und eines Minimums in Abh¨ angigkeit von den Eigenschaften der gegebenen Funktion f : I → R mehr oder weniger konstruktiv. L¨ asst sich der Beweis so ver¨ andern, dass wir die Minimierung stets praktisch durchf¨ uhren k¨ onnen? Wir nehmen an, dass dies m¨oglich ist, wenn wir uns damit zufrieden geben, den Minimalwert bis auf eine Toleranz T OL > 0 genau zu bestimmen. Angenommen, die Funktion f (x) sei Lipschitz-stetig zur Lipschitz-Konstanten L. Wir k¨ onnen dann die Vergleiche auf ein diskretes Gitter der Gitterweite L1 T OL zwischen benachbarten Punkten einschr¨ anken. Um zusammenzufassen, so k¨ onnen wir f¨ ur eine Lipschitz-stetige Funktion f : I → R auf einem abgeschlossenen I den Minimalwert bis auf eine Toleranz T OL mit einer endlichen Zahl von Operationen bestimmen.
922
60. Optimierung
Um ein inneres Minimum zu finden, m¨ ussen wir eine Nullstelle von f (x) bestimmen, wodurch sich die Konstruktion eines Minimums auf die Konstruktion einer Nullstelle von f (x) reduzieren l¨asst. Wir haben den Berechnungsaufwand f¨ ur die Bestimmung von Nullstellen bereits in den Kapiteln Fixpunkte“ und Newton-Methode“ untersucht. ” ”
60.11 Eine beschr¨ankte abnehmende Folge konvergiert! Sei {xi } eine beschr¨ ankte abnehmende Folge, so dass x1 ≥ x2 ≥ · · · ≥ ur alle n mit einer Zahl m. Dann xn ≥ xn+1 ≥ . . . und es gelte xn ≥ m f¨ ist die Menge aller Zahlen xn von unten beschr¨ankt und besitzt daher eine gr¨ oßte untere Schranke m. Wir wollen zeigen, dass limn→∞ xn = m. Aus der Definition der gr¨ oßten unteren Schranke folgt, dass f¨ ur alle > 0 ein ur n ≥ N und xn ≥ m, ¯ xN existiert, so dass m ≤ xN ≤ m+ . Da xn ≤ xN f¨ folgt, dass m ≤ xn ≤ m + f¨ ur alle n ≥ N , womit der Beweis abgeschlossen ist. Wir fassen dies in dem folgenden Satz zusammen, der ein Eckstein der Funktionalanalysis reeller Variablen ist. Satz 60.5 Sei {xi }∞ ankt i=1 eine abnehmende Folge, die von unten beschr¨ ist oder eine anwachsende Folge, die von oben beschr¨ankt ist. Dann konvergiert {xi }∞ i=1 .
Aufgaben zu Kapitel 60 60.1. Bestimmen Sie Maximal- und Minimalwert der Funktion f (x1 , x2 ) = x21 + 2x22 − x1 auf dem Einheitskreis x21 + x22 ≤ 1. 60.2. Bestimmen Sie den Punkt in der Ebene 3x1 + 4x2 − x3 = 26, der dem Ursprung am n¨ achsten kommt. 60.3. Bestimmen Sie die Form einer Schachtel (mit Deckel), die bei vorgegebener Oberfl¨ ache das gr¨ oßte Volumen besitzt. 60.4. Bestimmen Sie Maximalwerte und Minimalwerte f¨ ur folgende Funktionen: ur (x1 , x2 ) ∈ R2 , (b) f (x1 , x2 ) = x1 x2 f¨ ur (a) f (x1 , x2 ) = (1 + x21 + x22 )−1 f¨ ur x21 + x22 + x23 ≤ 1. x21 + x22 ≤ 1, (c) f (x1 , x2 , x3 ) = x1 + x2 + x3 f¨ 60.5. Zeigen Sie, dass die Funktion x41 +x42 +x43 −4x1 x2 x3 in (x1 , x2 , x3 ) = (1, 1, 1) ein Minimum besitzt. 60.6. Bestimmen Sie das Dreieck mit der gr¨ oßten Fl¨ ache, das in einen vorgegeben Kreis eingebettet werden kann.
Aufgaben zu Kapitel 60
923
60.7. Bestimmen Sie den Punkt auf der Kurve x2 = x21 , der dem Punkt (0, 1) am n¨ achsten kommt. ur eine gegebene Funktion 60.8. Bestimmen Sie die Konstanten a0 und a1 , die f¨ f : [0, 1] → R das Integral 1 (f (x) − a0 − a1 x)2 dx 0
minimieren. 60.9. Bestimmen Sie den Maximalwert von x1 +x2 +· · ·+xn unter der Bedingung, dass x21 + x22 + . . . + x2n ≤ 1. 60.10. Ein station¨ arer Punkt einer Funktion f : Rn → R ist ein Punkt x ∈ Rn , aren Punkte der folgenden f¨ ur den f (x) = 0. Bestimmen Sie, welche der station¨ Funktionen ein Maximum oder ein Minimum ist: (a) f (x1 , x2 , x3 ) = x21 + x22 + x23 − x1 − x2 + x3 + 1, (b) f (x1 , x2 , x3 ) = x21 + x22 + 2x23 + 4x1 − x2 + x3 + 5, (c) f (x1 , x2 , x3 ) = cos(x1 ) + cos(x2 ) + cos(x3 ).
61 Divergenz, Rotation und Laplace-Operator
. . . Stokes besaß einen sehr wichtigen pr¨ agenden Einfluss auf die folgenden Generationen von Cambridge-Studenten, unter ihnen auch Maxwell. Zusammen mit Green, der ihn auch beeinflusst hatte, folgte Stokes den Arbeiten der Franzosen, insbesondere Lagrange, Laplace, Fourier, Poisson und Cauchy. Dies wird in seinen theoretischen Untersuchungen zur Optik und Hydrodynamik deutlich; aber wir sollten nicht vergessen, dass Stokes sogar schon als Student unaufh¨ orlich experimentierte. Dennoch gingen seine Interessen und Untersuchungen u ¨ ber die Physik hinaus, da sein Wissen in Chemie und Botanik betr¨ achtlich war und seine Arbeiten in der Optik f¨ uhrten ihn oft auf diese Gebiete. (Parkinson) Amp`ere wurde 1809 zum Professor f¨ ur Mathematik an der Ecole Polytechnique ernannt und er hatte diese Stelle bis 1828 inne. Amp`ere und Cauchy teilten sich die Lehrveranstaltungen in Analysis und Mechanik, aber es herrschte ein betr¨ achtlicher Unterschied zwischen den beiden. Cauchy lehrte strikt analytisch, was zu großen mathematischen Fortschritten f¨ uhrte, aber von den Studierenden als extrem schwierig angesehen wurde, die daher Amp`eres eher herk¨ ommlichen Zugang zur Analysis und Mechanik bevorzugten. (O’Connor und Robertson)
61.1 Einleitung Wir haben oben gesehen, dass der Gradient einer Funktion mehrerer Variablen ein in der Praxis n¨ utzlicher Differentialoperator ist. In diesem Ka-
926
61. Divergenz, Rotation und Laplace-Operator
pitel werden wir noch weitere n¨ utzliche Operatoren einf¨ uhren, inklusive der Divergenz, der Rotation und dem Laplace-Operator, die zusammen mit dem Gradienten eine wichtige Rolle bei der mathematischen Modellierung in den Naturwissenschaften und den Ingenieurwissenschaften spielen. Wir werden diese Operatoren zun¨ achst in R2 und dann in R3 definieren und dabei feststellen, dass die Rotation in R2 und R3 etwas unterschiedliche Formen annimmt.
Abb. 61.1. Napoleon zu Laplace (1749–1827): Sie haben dieses gewaltige Buch ” u ¨ ber das System der Welt geschrieben, ohne den Autor des Universums zu nennen“. Laplace zu Napoleon: Sire, eine derartige Annahme war nicht n¨ otig“ ”
61.2 Betrachtung fu ¨r R2 Wir wiederholen, dass der Gradient einer Funktion u : R2 → R, den wir mit grad u oder ∇u bezeichnen, der vektorwertigen Funktion entspricht, die durch die partiellen Ableitungen erster Ordnung von u gebildet wird: ∂u ∂u , grad u = ∇u = . ∂x1 ∂x2 Die Divergenz einer Vektorfunktion u = (u1 , u2 ) : R2 → R2 , die div u oder ∇ · u bezeichnet wird, ist die folgendermaßen definierte skalare Funktion: div u = ∇ · u =
∂u2 ∂u1 + . ∂x1 ∂x2
61.3 Der Laplace-Operator in Polarkoordinaten
927
Rein formal gilt ∇·u =
∂ ∂ , ∂x1 ∂x2
· (u1 , u2 ),
∂ wobei wir uns ( ∂x , ∂ ) als einen Vektor“ denken k¨onnen und den Punkt 1 ∂x2 ” als Zeichen f¨ ur das Skalarprodukt“ auffassen. Diese Vorstellung kann f¨ ur ” alle Formeln unten verwendet werden, in denen ∇ mit dem Operator · kombiniert wird. Die Rotation einer Vektorfunktion u : R2 → R2 , die rot u oder ∇ × u bezeichnet wird, ist die skalare Funktion ∂ ∂u1 ∂ ∂u2 − = , rot u = ∇ × u = × (u1 , u2 ). ∂x1 ∂x2 ∂x1 ∂x2
Ist u : R2 → R eine skalare Funktion, dann wird rot u = ∇ × u als die Vektorfunktion ∂u ∂u ,− rot u = ∇ × u = ∂x2 ∂x1 definiert. Das unterschiedliche Aussehen von rot u = ∇ × u f¨ ur eine skalare Funktion u und eine Vektorfunktion u = (u1 , u2 ) wird unten beim ¨ Ubergang zu R3 analysiert. F¨ ur den Augenblick kann es hilfreich sein, sich das unterschiedliche Aussehen von a × b f¨ ur a, b ∈ R2 und a, b ∈ R3 ins Ged¨ achtnis zu rufen. Die folgenden Gleichungen f¨ ur jede beliebige Funktion u ergeben sich direkt aus den Definitionen: ∇ · (∇ × u) = div (rot u) = 0, ∇ × (∇u) = rot (grad u) = 0,
(u : R2 → R2 ) (u : R2 → R).
(61.1)
Schließlich ist der Laplace-Operator ∆u einer Funktion u : R2 → R definiert durch ∆u = ∇ · (∇u) = div (grad u) = mit
∂2u ∂x2i
=
∂ 2 u ∂ 2u + 2, ∂x21 ∂x2
∂ ∂u ∂xi ( ∂xi ).
61.3 Der Laplace-Operator in Polarkoordinaten In Polarkoordinaten x = (x1 , x2 ) = (r cos(θ), r sin(θ)) mit r ≥ 0 und 0 ≤ θ < 2π nimmt der Laplace-Operator folgende Form an: 1 ∂ ∂u 1 ∂2u (61.2) ∆u = r + 2 2. r ∂r ∂r r ∂θ
928
61. Divergenz, Rotation und Laplace-Operator
Dies ergibt sich aus einer Routine-Rechnung mit Hilfe der Tatsache, dass die Jacobi-Matrix der Abbildung x = (r cos(θ), r sin(θ)) in der Schreibweise von (54.9) die Form d(x1 , x2 ) cos(θ) −r sin(θ) = sin(θ) r cos(θ) d(r, θ) annimmt, so dass also d(r, θ) = d(x1 , x2 )
cos(θ) − sin(θ)/r
sin(θ) cos(θ)/r
und folglich mit Hilfe der Kettenregel ∂ sin(θ) ∂ ∂ − = cos(θ) ∂x1 ∂r r ∂θ
und
∂ cos(θ) ∂ ∂ + . = sin(θ) ∂x2 ∂r r ∂θ
61.4 Einige wichtige Beispiele Die Funktion u : R2 → R2 mit u(x) = 12 (x1 , x2 ) erf¨ ullt ∇ · u(x) = 1. Die Funktion v : R2 → R2 mit v(x) = 12 (−x2 , x1 ) erf¨ ullt ∇ × v(x) = 1. Die Funktion w : R2 → R2 mit w(x) = 14 (x21 + x22 ) erf¨ ullt ∆w = 1. Wir haben diese wichtigen Beispiele in Abb. 61.2 dargestellt. Wir k¨onnen erkennen, dass u(x) explodiert“, v(x) rotiert“, und w(x) bildet einen ” ” umgedrehten H¨ ocker“. ”
61.5 Der Laplace-Operator bei starren Koordinatentransformationen Aus der Formulierung des Laplace-Operators in Polarkoordinaten folgt, dass der Laplace-Operator unter Rotationen und Translationen in R2 , das sind sogenannte starre Koordinatentransformationen der Form x ˜1 = cos(α)x1 + sin(α)x2 + a1 , x ˜2 = − sin(α)x1 + cos(α)x2 + a2 ,
61.6 Betrachtung f¨ u r R3
929
Abb. 61.2. Wichtige Beispiele mit ∇ · u = 1, ∇ × v = 1 und ∆w = 1
invariant ist. Dabei sind (x1 , x2 ) die alten Koordinaten und (˜ x1 , x ˜2 ) die neuen. Anders formuliert, so nimmt der Laplace-Operator in den beiden Koordinatensystemen exakt dieselbe Gestalt an: ∂2u ∂2u ∂ 2u ∂ 2 u + = + 2. ∂x21 ∂x22 ∂x ˜21 ∂x ˜2 Diese Tatsache spiegelt sich in der Beobachtung wider, dass der LaplaceOperator u ¨ blicherweise in isotropen Modellen auftritt, die in allen Richtungen dieselben Eigenschaften besitzen.
61.6 Betrachtung fu ¨r R3 Der Gradient einer Funktion u : R3 → R, den wir grad u oder ∇u bezeichnen, ist die vektorwertige Funktion, die durch die partiellen Ableitungen erster Ordnung von u gebildet wird: ∂u ∂u ∂u , , grad u = ∇u = . ∂x1 ∂x2 ∂x3 F¨ ur eine Vektorfunktion u : R3 → R3 bezeichnet die Divergenz div u folgende skalare Funktion: 3 ∂ui div u = ∂xi i=1
930
61. Divergenz, Rotation und Laplace-Operator
und rot u die Vektorfunktion ∂u3 ∂u2 ∂u1 ∂u3 ∂u2 ∂u1 rot u = ∇ × u = − , − , − . ∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2 Wir wollen nun die Beziehung des Rotationsoperators ∇× in R3 zum uhrt haben, erkl¨aren. Rotationsoperator ∇× in R2 , den wir oben eingef¨ Dazu betrachten wir zun¨ achst eine Funktion u : R3 → R3 der Form u = (u1 , u2 , 0) mit von x3 unabh¨ angigem u1 und u2 , so dass also ui : R2 → R ur i = 1, 2. Es gilt dann mit ui = ui (x1 , x2 ) f¨ ∂u1 ∂u2 − = (0, 0, ∇ × (u1 , u2 )). ∇ × u = 0, 0, ∂x1 ∂x2 Als N¨ achstes gilt, wenn u : R3 → R3 die Form u = (0, 0, u3 ) besitzt mit von x3 unabh¨ angigem u3 , so dass also u3 : R2 → R, dass: ∂u3 ∂u3 ∇×u = ,− , 0 = (∇ × u3 , 0). ∂x2 ∂x1 Wir folgern, dass ∇ × u f¨ ur u : R2 → R und ∇ × u f¨ ur u : R2 → R2 , als 3 3 Spezialf¨ alle von ∇ × u f¨ ur u : R → R betrachtet werden k¨onnen. Der Laplace-Operator ∆u einer Funktion u : R3 → R wird definiert durch: ∆u = ∇ · (∇u) = div (grad u) =
3 ∂2u i=1
∂x2i
.
Durch direkte Berechnungen erhalten wir die folgenden Gleichungen: ∇ · (∇ × u) = 0, ∇ × (∇u) = 0,
(61.3)
∇ × (∇ × u) = −∆u + ∇(∇ · u).
61.7 Weitere wichtige Beispiele F¨ ur die Funktion u : R3 → R3 mit u(x) = 13 x gilt: ∇ · u(x) = 1. F¨ ur die Funktion v : R3 → R3 mit v(x) = 12 (−x2 , x1 , 0) gilt: ∇ × v(x) = (0, 0, 1). F¨ ur die Funktion w : R3 → R mit w(x) = 16 x2 gilt: ∆w = 1. Wir haben zwei dieser wichtigen Beispiele in Abb. 61.3 dargestellt. Wir sehen wiederum, dass u(x) explodiert“ und v(x) parallel zur x3 -Achse ” rotiert“. Der H¨ ocker“ von w(x) ist graphisch schwer darstellbar. ” ”
61.8 Der Laplace-Operator in sph¨ arischen Koordinaten
1.5
1.5 1
0.5
0.5
x3
1
x3
931
0
0. 5
0
0. 5
1
1
1. 5 1.5
1. 5 1.5 1
1.5
0.5
1 0
1
x2
1 1. 5
1. 5
1 0
0.5 0
0. 5
0. 5
1
1.5
0.5
0.5 0
0. 5
x2
x1
0. 5
1
1 1. 5
1. 5
x1
Abb. 61.3. Wichtige Beispiele in R3 mit ∇ · u = 1, ∇ × v = 1
61.8 Der Laplace-Operator in sph¨arischen Koordinaten In den sph¨arischen Koordinaten x = (x1 , x2 , x3 ) = (r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ)), wobei r ≥ 0, 0 ≤ θ < 2π und 0 ≤ ϕ < π, nimmt der Laplace-Operator die folgende Form an: 1 ∂ ∂2u ∂ ∂u 1 ∂u 1 ∆u = 2 . (61.4) r2 + 2 sin(θ) + 2 2 r ∂r ∂r r sin(θ) ∂θ ∂θ r sin (θ) ∂ϕ2 Der Laplace-Operator ist gegen¨ uber orthogonalen Koordinatentransformationen in R3 invariant. Beispiel 61.1. Wir betrachten das Geschwindigkeitsfeld, das durch Rotation um einen Vektor ω ∈ R3 mit der Winkelgeschwindigkeit ω erzeugt wird, d.h. das Vektorfeld v(x) = ω × x. Wir berechnen ∇ × v(x) = ∇ × (ω2 x3 − ω3 x2 , ω3 x1 − ω1 x3 , ω1 x2 − ω2 x1 ) = (2ω1 , 2ω2 , 2ω3 ) = 2ω. Wir folgern, dass die Rotation ∇ × v(x) eines Geschwindigkeitfelds v(x), das durch Rotation um einen Vektor ω erzeugt wird, gleich 2ω ist. Daher der Name Rotation“ f¨ ur den Differentialoperator ∇×. ” Beispiel 61.2. Eine wichtige Formel der Elektromagnetik, die das Amp`eresche Gesetz ausdr¨ uckt, besagt, dass das magnetische Feld H, das durch
932
61. Divergenz, Rotation und Laplace-Operator
1
0.5
x3
0
0. 5
1 1.5 1
1.5
0.5
1 0
0.5 0
0. 5
0. 5
1
1 1. 5
x2
1. 5
x
1
Abb. 61.4. Das magnetische Feld um einen Strom durch die x3 -Achse
einen durch die x3 -Achse in positiver Richtung fließenden elektrischen Einheitsstrom erzeugt wird, lautet: H(x) = H(x1 , x2 , x3 ) = Wir berechnen 1 ∇ × H(x) = 2π
1 (−x2 , x1 , 0) , 2π x21 + x22
f¨ ur x21 + x22 > 0.
(61.5)
∂ ∂ x1 −x2 = 0 f¨ ur x21 + x22 > 0. − 0, 0, ∂x1 x21 + x22 ∂x2 x21 + x22
Folglich ist ∇ × H(x) = 0 f¨ ur x21 + x22 > 0, was dem Amp`ereschen Gesetz ∇×H = J entspricht, wobei J die Stromdichte ist. Folglich ist J(x) = 0 f¨ ur x21 + x22 > 0, d.h. außerhalb der x3 -Achse. Das Amp`eresche Gesetz ist einer der Maxwellschen Gleichungen. Unten werden wir zeigen, wie die Gleichung ∇ × H(x) = J(x) f¨ ur x21 + x22 = 0 interpretiert werden kann und dabei den 1 Faktor 2π in (61.5) begr¨ unden.
Aufgaben zu Kapitel 61 61.1. Sei F = (5x1 − 3x1 x2 + x23 , sin(x1 ) cos(x1 ) + x1 , sin(x1 ) exp(x1 x2 )). Berechnen Sie f¨ ur x = (1, 2, 3) (a) ∇ · F , (b) ∇ × F , (c) ∇(∇ · F ), (d) ∇ × (∇ × F ). 61.2. Interpretieren Sie den Ausdruck (∇×∇)u auf vern¨ unftige Weise und zeigen Sie, dass (∇ × ∇)u = 0 f¨ ur alle u. Vergleichen Sie dies mit ∇ × (∇ × u). 61.3. Zeigen Sie, dass das Geschwindigkeitsfeld v(x) = ω × x f¨ ur einen gegebenen ullt. Interpretieren Sie das Ergebnis Vektor ω ∈ R3 die Gleichung ∇ · v(x) = 0 erf¨ aus str¨ omungsmechanischer Sicht.
Aufgaben zu Kapitel 61
933
61.4. Zeigen Sie, dass f¨ ur geeignete Funktionen u und v gilt: 1. ∇(uv) = (∇u)v + u(∇v), 2. ∇ · (uv) = (∇u) · v + u(∇ · v), 3. ∇ × (uv) = (∇u) × v + u(∇ × v), 4. ∇ · (u × v) = v · (∇ × u) − u · (∇ × v), 5. ∇ × (u × v) = (v · ∇)u − (∇ · u)v − (u · ∇)v + (∇ · v)u, 6. ∇(u · v) = (u · ∇)v + (v · ∇)u + u × (∇ × v) + v × (∇ × u). 61.5. Berechnen Sie ∇(r · F (r)) f¨ ur r = x . 61.6. Zeigen Sie direkt mit Hilfe der Kettenregel, dass der Laplace-Operator in R2 und R3 unter starren Koordinatentransformationen invariant ist. 61.7. Beweisen Sie (61.3), (61.2) und (61.4). 61.8. Zeigen Sie, dass f¨ ur u : R2 → R gilt: ∇ × (∇ × u) = rot (rot u) = −∆u. ur u(x) = c1 log( x ) + c2 mit 61.9. Zeigen Sie, dass die Funktion u : R2 → R f¨ ur x = 0 l¨ ost. Konstanten c1 und c2 die Laplace-Gleichung ∆u(x) = 0 in R2 f¨ 61.10. Beweisen Sie, dass die Funktion u : R3 → R f¨ ur u(x) = c1 x −1 + c2 mit ur x = 0 l¨ ost. Konstanten c1 und c2 die Laplace-Gleichung ∆u(x) = 0 in R3 f¨ 61.11. Zeigen Sie, dass die Divergenz unter starren Koordinatentransformationen invariant ist. Besitzt die Rotation dieselbe Eigenschaft? Alle Wirkungen der Natur sind nur mathematische Folgerungen einer kleinen Zahl von unver¨ anderlichen Gesetzen. (Laplace)
62 Meteorologie und Corioliskraft*
Jeder Lehrer, der sich vor eine Klasse stellt und behauptet, dass die Corioliskraft daf¨ ur verantwortlich ist, wie das Wasser in einem Abfluss oder einer Badewanne abfließt, sollte Frasers WWW-Seite (www.ems.psu.edu/∼fraser/Bad/BadCoriolis.html) nicht nur lesen, sondern gezwungen werden, sie 100mal an die Tafel zu schreiben. (Jack Williams, USA TODAY)
62.1 Einleitung Eine normale Wetterkarte zeigt Konturlinien des Luftdrucks p, die sogenannten Isobaren. Unsere Intuition sagt uns, dass der Wind aus Gebieten mit hohem Druck zu Gebieten mit geringem Druck bl¨ast, d.h. entgegen dem Druckgradienten ∇p und orthogonal zu den Isobaren. Dies stellt sich jedoch als v¨ ollig falsch heraus. Stattdessen zirkuliert der Wind auf der Nordhalbkugel entgegen dem Uhrzeigersinn um ein Zentrum mit niedrigem Druck und auf der S¨ udhalbkugel im Uhrzeigersinn. F¨ ur Hochdruckzentren gilt jeweils die entgegengesetzte Richtung. Somit bl¨ast der Wind also entlang der Isobaren statt senkrecht zu den Isobaren. Dieser Sachverhalt ist bei Seglern wohl bekannt, da dadurch die Windrichtung einfach und genau vorhergesagt werden kann, wenn nur die Lage der Tiefdruckgebiete und der Hochdruckgebiete bekannt ist. Der Grund liegt darin, dass die Erde rotiert, wodurch eine Beschleunigungskraft entsteht, die Corioliskraft genannt wird. Dadurch wird der Wind auf der Nordhalbkugel nach rechts ¨ abgelenkt und nach links auf der S¨ udhalbkugel (vom Aquator weg). Als
936
62. Meteorologie und Corioliskraft*
Folge davon rotiert der Wind um Tiefdruckzentren entgegen dem Uhrzeigersinn auf der Nordhalbkugel, so wie es die Wetterkarte in jeder Zeitung angibt. Wir sp¨ uren die Corioliskraft bei einer Umdrehung, wenn wir versuchen, die Position in radialer Richtung zu ver¨andern, wodurch wir eine (unerwartete) Kraft in tangentialer Richtung erfahren.
62.2 Ein grundlegendes meteorologisches Modell Wir wollen nun ein einfaches Modell f¨ ur die Bewegung der Atmosph¨are herleiten, um vorherzusagen, dass sich der Wind um Tief- und Hochdruckzentren drehen sollte. Die Modellgleichung lautet ∇p = ρ2ω × v,
(62.1)
wobei p der Druck ist, v die Windgeschwindigkeit, ω ∈ R3 die Winkelgeschwindigkeit der Erde und ρ die Dichte der Atmosph¨are. Die Coriolisbeschleunigung wird durch die Gr¨ oße 2ω × v angen¨ahert und die Gleichung ∇p = ρ2ω × v bringt die Balance zwischen der durch den Druckunterschied verursachten Kraft ∇p und der Corioliskraft ρ2ω × v zum Ausdruck. Dabei steht ∇p f¨ ur den Druckgradienten in einer ebenen Erdoberfl¨ache. Daher kann das Modell f¨ ur die Kappen“ im Norden und S¨ uden eingesetzt wer” den, etwa oberhalb oder unterhalb von 60 Grad geographischer Breite, wo die Oberfl¨ ache der Erde durch eine flache Scheibe angen¨ahert werden kann, vgl. Abb. 62.1. Dadurch scheint die Welt“ des Seglers und des Windes eine ” große ebene Umdrehung zu sein. Wir erkennen, dass nach (62.1) der Gradient ∇p zur Windrichtung orthogonal ist. Kennen wir den Druck p, so k¨ onnen wir die Windrichtung und -geschwindigkeit aus (62.1) bestimmen. ω
ω
ω×v v
Abb. 62.1. Nordhalbkugel
62.3 Rotierende Koordinatensysteme und die Coriolisbeschleunigung
937
62.3 Rotierende Koordinatensysteme und die Coriolisbeschleunigung Um in der Corioliskraft den Ausdruck 2ω × v herzuleiten, m¨ ussen wir Koordinatentransformationen von einem festen Koordinatensystem in ein sich rotierendes Koordinatensystem untersuchen. Sei daher {e1 , e2 , e3 } ein festes e1 , e¯2 , e¯3 } orthonormales Referenzkoordinatensystem f¨ ur den R3 und sei {¯ ein anderes orthonormales Koordinatensystem mit demselben Ursprung, das um den fest vorgegebenen Vektor ω ∈ R3 mit der Winkelgeschwindigkeit ω rotiert. Genauer gesagt, so gilt f¨ ur einen Punkt x mit den Referenzkoordinaten x(t) = x1 (t)e1 + x2 (t)e2 + x3 (t)e3 , der im rotierenden Koordinatensystem fest vorgegeben ist, in Anlehnung an Abb. 62.2: dx = ω × x, dt
(62.2)
dx da dx dt sowohl zu ω als auch x senkrecht ist und dt = ωx sin(θ), wobei θ ∈ [0, π] den Winkel zwischen ω und x bezeichnet. Insbesondere gilt f¨ ur die Basisvektoren des sich bewegenden Koordinatensystems:
d¯ ei = ω × e¯i , dt
i = 1, 2, 3.
(62.3)
ω dx x θ
Abb. 62.2. Ein Vektor x, der sich mit der Winkelgeschwindigkeit ω bewegt
Nun wollen wir einen sich bewegenden Punkt betrachten, der im Referenzsystem die Koordinaten x(t) besitzt und im rotierenden System die Koordinaten x ¯(t), so dass also x(t) = x1 (t)e1 + x2 (t)e2 + x3 (t)e3 , x ¯(t) = x¯1 (t)¯ e1 (t) + x ¯2 (t)¯ e2 (t) + x ¯3 (t)¯ e3 (t). Nat¨ urlich gilt x(t) = x ¯(t). Insbesondere k¨ onnen wir nun nach den Koordinaten der Basisvektoren e¯i (t) im festen System {e1 , e2 , e3 } fragen. Nun
938
62. Meteorologie und Corioliskraft*
berechnen wir die Geschwindigkeit ten:
dx dt ,
indem wir x(t) = x ¯(t) nach t ablei-
dx d d¯ x1 d¯ e1 d¯ e2 d¯ e3 d¯ x2 d¯ x3 = x ¯(t) = e¯1 + e¯2 + e¯3 + x +x ¯2 + x¯3 ¯1 dt dt dt dt dt dt dt dt d¯ x1 d¯ x2 d¯ x3 e¯1 + e¯2 + e¯3 + x = ¯1 (ω × e¯1 ) + x ¯2 (ω × e¯2 ) + x ¯3 (ω × e¯3 ). dt dt dt Hierbei haben wir noch (62.3) benutzt. Wir k¨onnen diesen Ausdruck in der Form ¯x dx d¯ = +ω×x (62.4) dt dt schreiben, wenn wir uns darauf einigen, ¯x d¯ d¯ x1 d¯ x2 d¯ x3 = e¯1 + e¯2 + e¯3 dt dt dt dt zu schreiben. Die Geschwindigkeit des Punktes x(t) = x¯(t) im festen Re¯x d¯ ferenzsystem ist nun dx dt , wohingegen dt die Geschwindigkeit des Punktes d¯ x¯i (t). Insgegen¨ uber dem rotierenden Systems ist, mit den Ableitungen dt besondere erhalten wir f¨ ur einen im rotierenden System festen Punkt mit ¯x d¯ dt = 0 wieder die Gleichungen (62.2) und (62.3). Nun suchen wir entsprechende Formeln f¨ ur die Beschleunigungen. Dazu leiten wir noch einmal nach t ab und erhalten mit Hilfe von (62.4) nach ¯x Ersetzen von x durch d¯ dt : d2 x d = dt2 dt
¯ ¯ d d¯ d¯ x x dx +ω×x = +ω× dt dt dt dt
¯ ¯ ¯x d¯ x d¯ d¯ x d¯ +ω× +ω×x . = +ω× dt dt dt dt Wir k¨ onnen dies auch in der Form ¯x ¯ d2 x d¯2 x d¯ +ω× ω×x (62.5) = + 2ω × dt2 dt2 dt schreiben. Hierbei steht ω × ω × x f¨ ur die zentripetale Beschleunigung 2 ¯x d¯ und 2ω × dt f¨ ur die Coriolisbeschleunigung. ddt2x ist die Beschleunigung ¯2 gegen¨ uber dem Referenzsystem und ddt2x¯ die Beschleunigung gegen¨ uber dem rotierenden System. Nach dem Newtonschen Gesetz f = ma h¨angt die Beschleunigung direkt mit einer Kraft zusammen, weswegen sowohl die zentripetale wie auch die Coriolisbeschleunigung im Referenzsystem als Kr¨afte auftreten. Beide Kr¨ afte haben nach wie vor einen etwas mysteri¨osen Charakter; w¨ahrend wir
Aufgaben zu Kapitel 62
939
im t¨ aglichen Leben mit der zentripetalen Beschleunigung vertraut sind, ruft die Corioliskraft bei den meisten von uns Erstaunen hervor. Ist die Drehgeschwindigkeit ω verh¨ altnism¨aßig gering, dann k¨onnen wir die zentripetale Beschleunigung vernachl¨assigen und erhalten: ¯x ¯ d¯2 x d¯ d2 x , ≈ + 2ω × 2 2 dt dt dt
(62.6)
womit wir wieder beim Modell (62.1) angelangen. Beachten Sie, dass wir dabei das rotierende Koordinatensystem in unserer Welt“ betrachten und ” ¯x dass somit d¯ ur uns relevante Geschwindigkeit ist. dt die f¨
Aufgaben zu Kapitel 62 62.1. Begr¨ unden Sie (62.1) und (62.6). 62.2. Untersuchen Sie die Isobaren auf einer Wetterkarte und berechnen Sie die Windrichtung aus (62.1) und vergleichen Sie ihr Ergebnis mit der Windrichtung auf der Karte. ¨ 62.3. Untersuchen Sie die Wirkung der Coriolisbeschleunigung am Aquator. 62.4. Zeigen Sie, dass die zentripetale Beschleunigung eines K¨ orpers, der sich auf 2 agt. einem Kreis mit Radius r mit der Geschwindigkeit v bewegt, vr betr¨ 62.5. Dem Golfstrom verdanken wir, dass Skandinavien nicht wie Alaska tiefgefroren ist. Erkl¨ aren Sie, warum der Golfstrom von Nordamerika nach Nordeuropa gebogen ist. 62.6. Stellen Sie sich ein Auto vor, das auf einem bestimmten Breitengrad von Osten nach Westen f¨ ahrt. Bei welcher Geschwindigkeit ist die Corioliskraft auf den Wagen gleich groß zur Zentripetalkraft? Bestimmen Sie diese Geschwindigkeit als Funktion vom Breitengrad und finden Sie heraus, in welchen Breitengraden das Minimum und das Maximum angenommen wird. 62.7. Ein Wassereimer drehe sich um sein Zentrum mit der Winkelgeschwindigkeit ω. Welche Form besitzt die Wasseroberfl¨ ache? 62.8. Ein Pendel der L¨ ange l schwinge hin und her mit einer Periode von t = l/g, wobei g die Erdbeschleunigung ist. Berechnen Sie die auf das Pendel im ¨ Breitengrad θ einwirkende Corioliskraft (d.h. im Winkel θ vom Aquator aus). Die Corioliskraft bewirkt, dass sich die Ebene, in der das Pendel schwingt, dreht, d.h., wenn das Pendel zu Beginn in Nord-S¨ ud-Richtung schwingt, so schwingt es sp¨ ater in West-Ost-Richtung. Bestimmen Sie die Zeit T als Funktion des Breitengrads, nachdem das Pendel wieder in dieselbe Richtung wie zu Anfang schwingt.
63 Kurvenintegrale
Wir k¨ onnen kaum glauben, dass Amp`ere tats¨ achlich das Wirkungsgesetz mit den Experimenten, die er beschreibt, entdeckt hat. Stattdessen m¨ ussen wir vermuten, wie er auch selbst zugibt, dass er das Gesetz auf eine andere Weise entdeckte, die er uns verheimlicht und dass er, nachdem er im Nachhinein eine perfekte Demonstration aufgebaut hat, alle Spuren des Ger¨ ustes entfernte, mit dem er sie konstruiert hat. (Maxwell u ¨ ber Amp`eres Memoir on the Mathematical ” Theory of Electrodynamic Phenomena, Uniquely Deduced from Experience“)
63.1 Einleitung In diesem Kapitel werden wir den Begriff des Integrals ¨ uber eine Kurve oder einfacher das Kurvenintegral einf¨ uhren und damit einige Anwendungen wie die Bogenl¨ange, die Arbeit und das Linienintegral einf¨ uhren. Wir beginnen mit ebenen Kurven, die durch Funktionen s : I → R2 parametrisiert werden, wobei I = [a, b] ein Intervall auf der reellen Zahlengeraden R ist. Danach werden wir auf Kurven in Rn verallgemeinern, die durch Funktionen s : I → Rn mit n ≥ 2 parametrisiert werden.
63.2 Die L¨ange einer Kurve in R2 Sei Γ eine Kurve in R2 , die durch die Funktion s : I → R2 beschrieben wird, wobei I = [a, b] ein Intervall in R ist, d.h., Γ = {s(t) ∈ R2 : t ∈ I}
942
63. Kurvenintegrale x2 |Γi | = |s (ti−1 )| hn Γi s (ti−1 ) Ii a
t
s(b)
s(t)
ti−1 ti
b
t
s(a)
x1 Abb. 63.1. Die Gesamtl¨ ange einer Kurve entspricht der Summe der L¨ angen kleiner Teile der Kurve
oder Γ = s(I), vgl. Abb. 63.1. Wir wollen nun versuchen, die L¨ange von Γ zu bestimmen. Wir werden sehen, dass wir dadurch zu Integralen u ¨ ber einer Kurve oder einfacher zu Kurvenintegralen gef¨ uhrt werden. Um die L¨ ange einer Kurve zu bestimmen, stellen wir uns die Kurve Γ als aus kleinen St¨ ucken zusammengesetzt vor. Sind die kleinen St¨ ucke gen¨ ugend klein, k¨ onnen wir sie ohne Probleme durch gerade Strecken approximieren und die L¨ ange von geraden Teilen einer Kurve kann einfach berechnet werden. Die Gesamtl¨ ange von Γ erhalten wir dann durch Summation der L¨ angen aller kleinen Teilst¨ ucke, die Γ bilden. Wir werden sehen, dass das Integral zu diesem Zweck n¨ utzlich sein wird. Sei a = t0 < t1 < . . . < tn = b eine Unterteilung von I in Teilintervalle Ii = (ti−1 , ti ]. Wir betrachten die folgende lineare N¨aherung der Abbildung s(t), die auf das Teilintervall Ii beschr¨ ankt ist, vgl. Abb. 63.1: s¯(t) = s(ti−1 ) + (t − ti−1 )s (ti−1 ). uck Γi der L¨ange Die Abbildung s¯ bildet Ii auf das Streckenst¨ s (ti−1 )(ti − ti−1 ) ab. Dies f¨ uhrt uns ganz nat¨ urlich auf Ln (Γ) =
n
s (ti−1 )(ti − ti−1 )
i=1
als N¨ aherung f¨ ur die L¨ ange von Γ. Wenn wir annehmen, dass s (t) auf I Lipschitz-stetig ist und dass maxi (ti − ti−1 ) gegen Null geht, wenn n gegen Unendlich strebt, k¨ onnen wir mit Hilfe der u ¨ blichen Argumente zeigen, eine Cauchy-Folge gebildet wird, die folglich gegen dass durch {Ln (Γ)}∞ n=1 einen Grenzwert konvergiert, den wir mit L(Γ) bezeichnen. Wir definieren diesen Grenzwert als die L¨ange von Γ: (63.1) L(Γ) = s (t) dt. I
63.3 Kurvenintegrale
943
In dieser Gleichung formulieren wir die L¨ ange einer Kurve Γ = s(I) als ein Integral u ¨ ber das Gebiet I, wobei der Betrag s (t) der Ableitung der zugeh¨ origen Funktion s : I → R2 als Gewicht auftritt. Rein formal gilt ds = s (t)dt, wobei ds f¨ ur das Anwachsen der L¨ange der Kurve in Verbindung mit einem Anwachsen von dt des Parameters t steht; die Funktion anderung“ zwischen den Elementen der s (t) liefert die lokale Einheits¨ ” ” Kurvenl¨ ange“ ds und den Parameterelementen“ dt, vgl. Abb. 63.1. Dies ” f¨ uhrt uns zur Schreibweise ds = s (t) dt, L(Γ) = Γ
I
auf die wir im n¨ achsten Abschnitt zur¨ uckkommen. Beispiel 63.1. Wir berechnen die L¨ ange des Umfangs Γ eines Kreises mit Radius 1, dessen Zentrum im Ursprung liegt. Die Kurve wird durch die Funktion s : [0, 2π) → R2 mit s(t) = (cos(t), sin(t)) f¨ ur 0 ≤ t < 2π gegeben. Es gilt s (t) = (− sin(t), cos(t)) und s (t) = 1 und folglich 2π 2π L(Γ) = s (t) dt = dt = 2π. 0
0
Wir folgern, dass der Umfang eines Kreises mit Radius 1 gleich 2π ist ¨ (keine große Uberraschung). Wir u ufen das Ergebnis anhand einer ¨ berpr¨ anderen Parametrisierung. Der obere Halbkreis Γ+ von Γ kann in der Form √ s : [−1, 1] → R2 mit s(t) = (t, 1 − t2 ) f¨ ur −1 ≤ t ≤ 1 parametrisiert werden. Dies f¨ uhrt uns zu t 1 , s (t) = √ s (t) = 1, − √ 2 1−t 1 − t2 und wir erhalten folglich L(Γ) = 2L(Γ+ ) 1 " π " π ## !1 1 √ − − = 2π. dt = 2 arcsin(t) −1 = 2 = 2 2 1 − t2 −1
63.3 Kurvenintegrale Sei Γ = s(I) eine Kurve in R2 , die durch die Funktion s : I → R2 gegeben ist. Dabei ist I = [a, b] ein Intervall in R. Sei ferner u : Γ → R eine auf Γ definierte Funktion. Wir setzen voraus, dass sowohl die Tangente s : I → R2 als auch die Funktion u : Γ → R Lipschitz-stetig sind, wodurch garantiert wird, dass s (t) und u(s(t)) auf I Lipschitz-stetig sind. Wir definieren das Integral von u ¨ uber Γ durch b u ds = u(x) ds(x) = u(s(t))s (t) dt. Γ
Γ
a
944
63. Kurvenintegrale
Rein formal gilt ds = ds(x) = s (t) dt mit x = s(t). Beispiel 63.2. Sei Γ ein Intervall [a, b] auf der x1 -Achse, das durch s(t) = (t, 0) f¨ ur a ≤ t ≤ b gegeben ist. Dann gilt s (t) = (1, 0), s (t) = 1 und
u ds = Γ
b
u(x1 , 0) dx1 = a
b
u(t, 0) dt. a
Beispiel 63.3. Sei Γ = s(I) ein Halbkreis mit s(t) = (cos(t), sin(t)), f¨ ur 0 ≤ t ≤ π und u(x) = u(x1 , x2 ) = x21 . Mit Hilfe von s (t) = 1 erhalten wir π 1 π π u ds = cos2 (t) dt = (1 − cos(2t)) dt = . 2 2 Γ 0 0
63.4 Reparametrisierung Eine wichtige Beobachtung, die wir bereits oben in Beispielen gesehen haben, ist, dass der Wert des Kurvenintegrals von der Parametrisierung der Kurve unabh¨ angig ist. Um dies im Allgemeinen zu zeigen, gehen wir von zwei verschiedenen Parametrisierungen s : [a, b] → Γ und σ : [c, d] → Γ einer Kurve Γ in R aus. Wir verkn¨ upfen mit jedem τ ∈ [c, d] einen eindeutigen Wert t ∈ [a, b], so dass s(t) = σ(τ ), wodurch t = t(τ ) als Funktion von τ definiert wird (unter der Annahme, dass die Kurve sich nicht kreuzt). Somit ist also σ(τ ) = s(t(τ )), vgl. Abb. 63.2.
a
t c
t
b τ
d
Γ s(t) σ(τ )
τ
Abb. 63.2. Reparametrisierung einer Kurve
Wir nutzen nun die Formel mit der ver¨ anderten Integrationsvariablen und beachten, dass nach der Kettenregel σ (τ ) =
ds dt dσ dt = = s (t) dτ dt dτ dτ
63.5 Arbeit und Linienintegrale
gilt. Daraus erhalten wir mit der Voraussetzung, dass
b
u(s(t))s (t) dt =
a
d
dt dτ
u(s(t(τ )))s (t(τ ))
c
=
d
945
≥ 0: dt dτ dτ
u(σ(τ ))σ (τ ) dτ.
c
Dadurch haben wir gezeigt, dass das Kurvenintegral u ds = u dσ Γ
Γ
von der Parametrisierung s : [a, b] → Γ oder σ : [c, d] → Γ von Γ unabh¨angig ist. Beispiel 63.4. Wir √ reparametrisieren den Halbkreis Γ aus Beispiel 63.3 durch s(t) = (t, 1 − t2 ) mit −1 ≤ t ≤ 1 und erhalten mit u(x) = x21 mit Hilfe von partieller Integration: 1 1 !1 t u ds = t√ dt = −t 1 − t2 −1 + 1 − t2 dt 1 − t2 −1 −1 Γ π 0 π 1 − cos2 (θ)(− sin(θ)) dθ = sin2 (θ) dθ = . = 2 −π 0
63.5 Arbeit und Linienintegrale Sei F : R2 → R2 eine Vektorfunktion, die eine variable Kraft oder ein Kraftfeld repr¨ asentiert und sei Γ eine Kurve in R2 , die durch s : [a, b] → R2 gegeben ist und in A = s(a) beginnt und in B = s(b) endet. Wir stellen uns nun ein Teilchen vor, auf das die Kraft F einwirkt, w¨ahrend es sich entlang Γ von A nach B bewegt, vgl. Abb. 63.3. Die Projektion Fs (s(t)) der Kraft F (s(t)) auf die Richtung s (t) der Tangente an s(t) lautet: Fs (s(t)) = F (s(t)) · s (t)
1 . s (t)
(63.2)
Mit der Vorstellung, dass die Arbeit gleich ist mit der Strecke × der ” Projektion der Kraft auf die Richtung der Strecke“, ergibt sich die Arbeit, die durch die Kraft F (s(t)) aufgebracht wird, um ein Teilchen von s(ti−1 ) nach s(ti ) zu bewegen, durch 1 s(ti ) − s(ti−1 ) s (ti ) 1 ≈ F (s(ti )) · s (ti ) s (ti )(ti − ti−1 ) = F (s(ti )) · s (t)(ti − ti−1 ). s (ti )
F (s(ti )) · s (ti )
946
63. Kurvenintegrale s (t) Fs (s(t))
Γ B
s(t) A
F (s(t))
Abb. 63.3. Kraftfeld F , Kurve Γ und Projektion von F auf s (t)
Sei a = t0 < . . . < ti−1 < ti < . . . < tn = b wie oben eine anwachsende Folge diskreter Zeiten, wobei wir uns vorstellen, dass die Zeitschritte ti − ti−1 gegen Null streben. Dies f¨ uhrt uns zur Definition der Gesamtarbeit W (F, Γ) f¨ ur die Bewegung des Teilchens von A = s(a) nach B = s(b) entlang Γ:
b
F (s(t)) · s (t) dt.
W (F, Γ) = a
Indem wir ds = s (t) dt setzen, k¨ onnen wir
b
F · ds = Γ
F (t) · s (t) dt
a
schreiben, was wir als Linienintegral bezeichnen. Um zusammenzufassen, so haben wir b F · ds = F (t) · s (t) dt W (F, Γ) = a Γ (63.3) b (F1 (t)s1 (t) + F2 (t)s2 (t)) dt.
= a
Alternativ k¨ onnen wir auch Fs ds = W (F, Γ) = Γ
a
b
Fs s (t) dt =
F · ds
(63.4)
Γ
schreiben, wobei Fs gem¨ aß (63.2) die Projektion von F auf s (t) ist. Beispiel 63.5. Wenn wir annehmen, dass F (x) = (x2 , −x1 ) und Γ durch s(t) = (cos(t), sin(t)) f¨ ur 0 ≤ t < 2π gegeben ist, erhalten wir:
F · ds =
W (F, Γ) =
(sin(t), − cos(t)) · (− sin(t), cos(t)) dt 0
Γ
2π
2π
dt = −2π.
=− 0
63.6 Arbeit und Gradientenfelder
947
63.6 Arbeit und Gradientenfelder Es gibt einen wichtigen Spezialfall. Ist F = ∇ϕ, d.h., das Kraftfeld F entspricht dem Gradientenfeld eines Potentials, dann ergibt sich mit der Kettenregel
F · ds =
W (F, Γ) =
Γ b
= a
b
∇ϕ(s(t)) · s (t) dt
a
d ϕ(s(t)) dt = ϕ(B) − ϕ(A). dt
Entspricht das Kraftfeld F dem Gradientenfeld F = ∇ϕ eines Potentials ϕ(x), dann ist die Arbeit, um ein Teilchen entlang der Kurve Γ von A nach B mit der Kraft F zu bewegen, gleich der Potentialdifferenz ϕ(B) − ϕ(A) zwischen dem Potential im Endpunkt B und dem Anfangspunkt A. Anders ausgedr¨ uckt, so ist die Arbeit unabh¨ angig von der Kurve zwischen A und B. Insbesondere ist die Arbeit Null, wenn die Kurve geschlossen ist, so dass B = s(b) = s(a) = A ist. Unten werden wir die Frage untersuchen, unter welchen Bedingungen eine gegebene Kraft F (x) dem Gradienten eines Potentials entspricht, so dass also F (x) = ∇ϕ(x) mit einer skalaren Funktion ϕ(x). Beispiel 63.6. Als eine wichtige Anwendung betrachten wir die anziehende Gravitationskraft F (x) = ∇ϕ(x) mit dem Newtonschen Potential ϕ(x) = 1/x, entsprechend einer Einheitsmasse im Ursprung, d.h., F (x) = −
x 1 , 2 x x
wobei die Gravitationskonstante auf Eins normiert ist. Wir erkennen, dass F (x) zum Ursprung hin gerichtet ist und zum inversen Abstandsquadrat proportional ist: F (x) = x−2 . Es gilt W (F, Γ) =
1 1 − B A
f¨ ur die Arbeit, um eine Einheitsmasse im Gravitationsfeld vom Abstand A zum Abstand B relativ zum Ursprung zu bewegen. Insbesondere ist bei A = ∞ die Arbeit W (F, Γ) = 1/B. Liegt ein anziehendes Gravitationsfeld mit Einheitsst¨ arke im Ursprung vor, so folgern wir, dass die Arbeit, die n¨ otig ist, um ein Teilchen mit Einheitsmasse aus einem Abstand r auf einen unendlichen Abstand anzuheben“, gleich 1/r ist. ”
948
63. Kurvenintegrale
63.7 Die Bogenl¨ange als Parameter Bedenken Sie, dass f¨ ur u(x) = 1 f¨ ur alle x ∈ Γ gilt, dass
ds =
1 ds =
Γ
b
u(x) ds(x) =
Γ
Γ
s (t) dt
a
die L¨ ange der Kurve Γ = s(I) mit I = [a, b] wiedergibt. Insbesondere ist σ(t¯) =
t¯
s (t) dt
a
die Bogenl¨ange der Teilkurve von s(a) nach s(t¯). Aus dem Fundamentalsatz der Infinitesimalrechnung folgt, dass σ (t¯) = s (t¯).
(63.5)
Wir k¨ onnen nun die Bogenl¨ ange σ = σ(t) anstelle von t als Parameter w¨ ahlen, da es f¨ ur jedes t eine eindeutige Bogenl¨ange σ(t) gibt und umgekehrt. Dadurch erhalten wir eine Reparametrisierung von s(t) = s¯(σ) mit ¯ s (σ) =
s (t) ds dt 1 | | = s (t) = = 1. dt dσ |σ (t)| s (t)
Wir folgern, dass s (σ) = 1 und, vgl. Abb. 63.4, L(Γ) =
L(Γ)
ds = Γ
dσ, 0
falls die Bogenl¨ange σ benutzt wird, um die Kurve s : I → R2 zu parametrisieren. x2 s(0)
s( )
x1
Abb. 63.4. Eine durch die Bogenl¨ ange σ parametrisierte Kurve Γ
63.8 Die Kr¨ ummung einer ebenen Kurve
949
63.8 Die Kru ¨mmung einer ebenen Kurve Die Kr¨ ummung einer Kurve s : [a, b] → R2 ist ein Maß daf¨ ur, wie schnell sich die Kurve beugt, wenn wir uns auf ihr bewegen. Sie wird durch dθ dσ definiert, wobei θ der Polarwinkel des Tangentenvektors s = (s1 , s2 ) ist, −1 der durch θ(t) = tan s2 /s1 definiert ist; σ ist die Bogenl¨ange. Im Falle einer Geraden ist der Polarwinkel θ(t) konstant und die Kr¨ ummung ist Null, vgl. Abb. 63.5. κ=
Abb. 63.5. Der Polarwinkel θ des Tangentialvektors einer Geraden ist konstant, wie links zu sehen ist. Der Tangentialvektor einer gebogenen Kurve, wie im Beispiel rechts, besitzt in jedem Punkt einen unterschiedlichen Polarwinkel
Die Bogenl¨ ange σ(t) erf¨ ullt, wenn wir uns an (63.5) erinnern, dt = |s |−1 . Mit der Kettenregel erhalten wir und somit ist dσ κ(t) =
dσ dt
= |s |
θ (t) dθ dt = . dt dσ s (t)
Die Berechnung von θ (t) liefert s (t)s (t) − s1 (t)s2 (t) κ(t) = 1 2 3/2 . s1 (t)2 + s2 (t)2 Besitzt f : R → R eine stetige zweite Ableitung und wird die Kurve durch ummung im s(x1 ) = (x1 , f (x1 )) parametrisiert, so wird insbesondere die Kr¨ Punkt (x1 , f (x1 )) durch folgende Gleichung gegeben: f (x1 ) κ(x1 ) = 3/2 . 1 + (f (x1 ))2 Wir definieren den Kr¨ ummungskreis im Punkt P = s(t) einer Kurve s : [a, b] → R2 , als den Kreis mit Radius |κ|−1 (t) (vorausgesetzt, dass κ = 0), der in P dieselbe Tangente besitzt wie Γ und auf der linken Seite von S liegt, wenn κ > 0 und auf der rechten Seite, falls κ < 0, vgl. Abb. 63.6. Der Kr¨ ummungsradius in P betr¨ agt |κ|−1 (t).
950
63. Kurvenintegrale
s s'
| |-1 P
Abb. 63.6. Der Kr¨ ummungskreis von Γ in P
63.9 Erweiterung auf Kurven in Rn Die Definitionen von Kurvenintegralen und Linienintegralen lassen sich direkt auf Kurven in Rn , die durch s : [a, b] → Rn mit n ≥ 2 beschrieben werden, erweitern. Beispiel 63.7. Wir betrachten die kreisf¨ ormige Helix Γ in R3 , die durch s(t) = (cos(t), sin(t), t) gegeben ist, mit√0 ≤ t ≤ 20π und u(x) = x23 . Da s (t) = (− sin(t), cos(t), 1), ist s (t) = 2 und es gilt
20π
u ds = Γ
t 0
2
√
√ 2 (20π)3 . 2 dt = 3
Aufgaben zu Kapitel 63 63.1. Berechnen Sie die L¨ ange von (a) einer h¨ angenden Kette, die durch s(t) = (t, cosh (t)) mit −1 ≤ t ≤ 1 beschrieben wird, (b) einer kreisf¨ ormigen Helix s(t) = (cos(t), sin(t), t) mit 0 ≤ t ≤ 4π, (c) des Zykloids s(t) = (t − sin(t), 1 − cos(t)) mit 0 ≤ t ≤ 2π, (d) der semi-kubischen Parabel s(t) = (t3 , t2 ) mit 0 ≤ t ≤ 2, (e) des Hyperzykloids mit vier Zacken s(t) = (cos3 (t), sin3 (t)). 63.2. Sei Γ die kreisf¨ ormige Helix s(t) = ur t ∈ [0, 2π). Berech (cos(t), sin(t), t) f¨ ur (a) u(x) = 1, (b) u(x) = x3 , nen Sie den Wert des Kurvenintegrals Γ u ds f¨ (c) u(x) = x1 x2 x3 . 63.3. Berechnen Sie das Kurvenintegral Γ x1 x2 ds, wenn (a) Γ einen Teil des Einheitskreises in der x1 x2 -Ebene von (1, 0, 0) nach (0, 1, 0) beschreibt, (b) Γ einen Teil des Einheitsquadrats in der x1 x2 -Ebene von (1, 0, 0) nach (0, 1, 0) beschreibt und (c) Γ der k¨ urzester Weg von (1, 0, 0) nach (0, 1, 0) ist.
Aufgaben zu Kapitel 63
951
63.4. (a) Berechnen Sie das Linienintegral Γ F · ds, wobei Γ der Einheitskreis in der x1 x2 -Ebene ist. (b) Setzen Sie andere geschlossene Kurven Γ an und berechnen Sie das Integral. 63.5. Berechnen Sie das Linienintegral Γ F · ds, wobei Γ der Einheitskreis in (−x2 ,x1 ) 1 ,x2 ) . H¨ angt das der x1 x2 -Ebene ist und (a) F (x) = (x|x| 2 , (b) F (x) = |x|2 Ergebnis davon ab, ob Sie mit oder gegen den Uhrzeigersinn um den Einheitskreis integrieren? 63.6. Ein Teilchen wird gegen den Uhrzeigersinn um das Quadrat 0 ≤ x1 , x2 ≤ 1, x3 = 0 unter der Einwirkung eines Kraftfelds f (x) = ((x1 − x2 )2 , 2x2 + x21 , x1 ) bewegt. Berechnen Sie die verrichtete Arbeit. ur Γ als (a) 63.7. Sei f (x) = (2x1 + x2 , 3x1 − 2x2 ). Berechnen Sie Γ f · ds f¨ die Gerade von (0, 0) nach (1, 1), (b) die Parabel x2 = x21 von (0, 0) nach (1, 1), (c) die Kurve x2 = sin(πx1 /2) von (0, 0) nach (1, 1), (d) die Kurve x2 = xn 1 mit n > 0 von (0, 0) nach (1, 1). 63.8. Berechnen Sie das Integral von u = x1 x2 u ¨ ber den Rand des Einheitsquadrats [0, 1] × [0, 1]. 63.9. Bestimmen Sie den Kr¨ ummungskreis von x2 = x21 in x1 = 0. 63.10. Bestimmen Sie die Kr¨ ummung der ebenen Kurve R cos(θ), R sin(θ) , wobei R konstant ist. Folgern Sie daraus, dass die Kr¨ ummung eines Kreises vom agt. Radius R stets R−1 betr¨ 63.11. Beweisen Sie die zwei Formeln f¨ ur die Kr¨ ummung. 63.12. Berechnen Sie die Kr¨ ummung der Kurven (a) (x1 , x21 ), (b) (x1 , x31 ). Diskutieren Sie das Geschehen im Beugungspunkt. 63.13. Betrachten Sie eine h¨ angende Kette, die durch die Funktion y(x) mit −1 ≤ x ≤ 1 und y(−1) = y(1) gegeben ist. Sei f¨ ur 0 ≤ x ≤ 1 in x der Betrag der Kettenkraft gleich T (x) und sei s(x) die L¨ ange der Kette von 0 nach x. Leiten Sie die vertikale Gleichgewichtsgleichung 1 1 + (y (x))2 dx, y (x) = cs(x) = c 0
mit der Konstanten c her. Zeigen Sie, dass diese Gleichung mit y (x) = sinh( xc ) erf¨ ullt ist und folgern Sie, dass y(x) = c cosh( xc ). 63.14. Bestimmen Sie die Richtung der Tangente im Punkt (1, 1, 1) des Kurvenausschnitts auf der Fl¨ ache x21 + x21 x2 + x22 x3 + x23 = 0. Hinweis: Nutzen Sie implizite Ableitung. 63.15. Zeigen Sie, dass, wenn eine ebene Kurve Γ in Polarkoordinaten (ρ(θ), θ) dargestellt wird, wobei ρ(θ) eine Funktion von θ ist und a ≤ θ ≤ b, dass dann ds2 = ρ2 dθ2 + dρ2 gilt und somit b (ρ2 + (ρ )2 )1/2 dθ. L(Γ) = a
Berechnen Sie die L¨ ange des Kardoids ρ = (1 − cos(θ)) mit 0 ≤ θ ≤ 2π.
952
63. Kurvenintegrale
63.16. Berechnen Sie die L¨ ange eines Fadens, der auf einen kreisf¨ ormigen Kegel mit gleichf¨ ormiger Neigung gewickelt ist.
64 Doppelintegrale
Um dies mit seinen Sinnen zu verstehen, braucht ein Mann nicht notwendigerweise ein Geometriker oder Logiker zu sein, sondern er sollte verr¨ uckt sein. [ Dies“ bezieht sich darauf, dass das Volumen, ” das durch Drehung des Bereichs unterhalb von 1/x entsteht, beginnend bei 1 und endend bei Unendlich, ein endliches Volumen ist.] (Hobbes 1588–1679) Er war 40 Jahre alt, als er sich der Geometrie zuwandte; was rein zuf¨ allig war. In einer Bibliothek lag 47 El. Buch I“ von Euklids ” Elementen offen [der Satz von Pythagoras]. Er las die Behauptung. Bei Gott“, sagte er, das ist unm¨ oglich“. Also las er den Beweis, ” ” der ihn zu einer anderen Behauptung f¨ uhrte, deren Beweis er las. Die f¨ uhrte ihn zu einer weiteren Behauptung, die er auch las. Et sic deinceps, dass er schließlich v¨ ollig von der Wahrheit der Behauptung ¨ u ¨ berzeugt war. Damit hatte er sich in die Geometrie verliebt. (Uber Thomas Hobbes von John Aubrey 1626–1697)
64.1 Einleitung Wir haben das Integral
1
f (x) dx, 0
f¨ ur eine Lipschitz-stetige Funktion f : [0, 1] → R einer Variablen untersucht. Wir bezeichnen dies als ein ein-dimensionales Integral. Nun wollen
954
64. Doppelintegrale
wir diese Vorstellung auf Doppelintegrale
1
1
f (x1 , x2 ) dx1 dx2 0
(64.1)
0
erweitern, die zwei Integrationsvariable x1 und x2 besitzen, die sich von 0 nach 1 bewegen. Hierbei sei f : Q → R eine Lipschitz-stetige Funktion, die auf dem Einheitsquadrat Q = [0, 1] × [0, 1] = {x = (x1 , x2 ) : 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1} definiert ist und f¨ ur die gilt: |f (x) − f (y)| ≤ Lf x − y
f¨ ur x, y ∈ Q.
(64.2)
64.2 Doppelintegrale u ¨ ber dem Einheitsquadrat Wir erinnern daran, dass wir das ein-dimensionale Integral durch
1
f (x) dx = lim
n→∞
0
N
f (xni )hn ,
(64.3)
i=1
definiert haben, mit einer Unterteilung 0 = xn0 < xn1 < . . . < xnN = 1 des Intervalls [0, 1] f¨ ur xni = ihn , i = 1, . . . , N mit hn = 2−n und N = 2n . Um das Doppelintegral zu definieren, seien 0 = xn1,0 < xn1,1 < . . . < n x1,N = 1 und 0 = xn2,0 < xn2,1 < . . . < xn2,N = 1 Unterteilungen des Intervalls [0, 1] f¨ ur xn1,i = ihn , i = 0, . . . , N , und xn2,j = jhn , j = 0, . . . , N , mit −n hn = 2 und N = 2n . Dadurch wird das Einheitsquadrat Q = [0, 1] × [0, 1] ache hn hn unterteilt, mit Iin = in kleine Quadrate Qnij = Iin × Jjn mit der Fl¨ n n n n n (x1,i−1 , x1,i ] und Jj = (x2,j−1 , x2,j ], f¨ ur i, j = 1, . . . , N , vgl. Abb. 64.1.
Qn ij
Qnm ij
hn
hm
hn
hn
Abb. 64.1. Unterteilung des Einheitsquadrats Q in quadratische oder rechteckige nm Teilgebiete Qn ij bzw. Qij
Wir wollen zeigen, dass der Grenzwert limn→∞ Sn existiert, wobei Sn =
N N i=1 j=1
f (xn1,i , xn2,j )hn hn
(64.4)
64.2 Doppelintegrale u ¨ ber dem Einheitsquadrat
955
die Riemannsche Summe u ¨ber alle kleinen Quadrate Qnij ist. Wir definieren dann
1
1
f (x1 , x2 ) dx1 dx2 = lim 0
n→∞
0
N N
f (xn1,i , xn2,j )hn hn .
(64.5)
i=1 j=1
Wir beginnen zun¨ achst mit der Absch¨ atzung der Differenz Sn − Sn+1 , um so zu beweisen, dass {Sn } eine Cauchy-Folge bildet. Jedes Quadrat Qnij n+1 n+1 n+1 besteht aus 4 kleinen Quadraten Qn+1 2i,2j , Q2i−1,2j , Q2i,2j−1 und Q2i−1,2j−1 , vgl. Abb. 64.2. Es gilt daher Sn − Sn+1 =
N N
aij hn hn ,
i=1 j=1
mit, vgl. Abb. 64.2, aij = f (xn1,i , xn2,j ) −
1 n+1 n+1 n+1 f (xn+1 1,2i , x2,2j ) + f (x1,2i−1 , x2,2j ) 4 n+1 n+1 n+1 + f (xn+1 1,2i , x2,2j−1 ) + f (x1,2i−1 , x2,2j−1 ) . +1 n+1 n+1 n+1 n n (xn 2i−1, x2j ) (x2i , x2j ) = (xi , xj )
n+1 n+1 +1 n+1 (xn 2i−1, x2j−1 ) (x2i−1, x2j )
3
2.5
2
1.5
1
0.5
0
Abb. 64.2. Oben: Qn ij und vier Teilquadrate mit Quadraturpunkten. Unten: uckweise auf Qn Eine Funktion f (x1 , x2 ) und ihre st¨ ij und den vier Teilquadraten konstante N¨ aherung
956
64. Doppelintegrale
Aus der Annahme der Lipschitz-Stetigkeit (64.2) folgt |aij | ≤
# √ 1 " Lf hn+1 + hn+1 + 2hn+1 ≤ Lf hn+1 4
und somit |Sn − Sn+1 | ≤
N N
|aij |hn hn ≤ Lf hn+1
i=1 j=1
N N
hn hn = Lf hn+1 .
i=1 j=1
Mit den u onnen wir zeigen, dass f¨ ur ein m > n gilt: ¨ blichen Argumenten k¨ |Sn − Sm | ≤ 2Lf hn+1 = Lf hn , womit wir bewiesen haben, dass {Sn } eine Cauchy-Folge ist und folglich gegen eine reelle Zahl konvergiert. Auf den Spuren unserer lieb gewonnenen Freunde Leibniz und Cauchy beschließen wir, wie u ¨blich, diese reelle Zahl als
1
1
f (x1 , x2 ) dx1 dx2 = lim Sn = lim 0
n→∞
0
n→∞
N N
f (xn1,i , xn2,j )hn hn
i=1 j=1
zu schreiben. Wir werden auch die Schreibweise 1 1 f (x) dx = f (x1 , x2 ) dx1 dx2 . 0
Q
0
benutzen. Wir fassen zusammen: Satz 64.1 Sei f : [0, 1] × [0, 1] → R Lipschitz-stetig. Dann existiert der Grenzwert lim
n→∞
N N
f (xn1,i , xn2,j )hn hn ,
i=1 j=1
mit hn = 2−n , N = 2n , xn1,i = ihn und xn2,j = jhn , und wir definieren
1
1
f (x) dx = Q
f (x1 , x2 ) dx1 dx2 = lim 0
n→∞
0
N N
f (xn1,i , xn2,j )hn hn .
i=1 j=1
(64.6) Im Allgemeinen k¨ onnen die Einteilungen f¨ ur x1 und x2 voneinander unabh¨ angig sein, was uns zu Riemannschen Summen der Form Snm =
N M i=1 j=1
f (xn1,i , xm 2,j )hn hm
(64.7)
64.3 Doppelintegrale mit Hilfe ein-dimensionaler Integration
957
f¨ uhrt, mit hn = 2−n , N = 2n , hm = 2−m und M = 2m . Dies entspricht n m einer Unterteilung von Q in kleine Rechtecke Qnm ij = Ii × Jj . Der obige Beweis l¨ asst sich direkt verallgemeinern und wir k¨onnen beweisen, dass f¨ ur n ≥ n und m ≥ m |Snm − Snm | ≤ Lf max(hn , hm ) gilt. Damit haben wir die folgende Verallgemeinerung des obigen Satzes gezeigt: Satz 64.2 Sei f : [0, 1] × [0, 1] → R Lipschitz-stetig. Dann existiert der folgende Grenzwert: lim
n,m→∞
mit hn = 2
−n
f (xn1,i , xm 2,j )hn hm ,
i=1 j=1
, N = 2 , hm = 2−m , M = 2m , xn1,i = ihn , xm 2,j = jhm und n
1
f (x) dx =
1
f (x1 , x2 ) dx1 dx2 = 0
Q
N M
0
lim
N M
n,m→∞
f (xn1,i , xm 2,j )hn hm .
i=1 j=1
(64.8)
64.3 Doppelintegrale mit Hilfe ein-dimensionaler Integration Um die Riemannsche Summe Snm zu berechnen, m¨ ussen wir u ¨ber alle Teilrechtecke Qnm in Q summieren. Die Summation kann dabei in verij schiedenen Reihenfolgen, d.h. zeilenweise, spaltenweise oder einer anderen Reihenfolge, erfolgen. So erhalten wir die folgenden alternativen Ausdr¨ ucke f¨ ur das Doppelintegral von f (x1 , x2 ) u ¨ber Q: 1 1 N M f (x1 , x2 ) dx1 dx2 = lim f (xn1,i , xm 2,j )hn hm 0
n,m→∞
0
=
=
lim
n,m→∞
lim
n,m→∞
i=1 j=1 N i=1
⎛ ⎞ M ⎝ ⎠ hn f (xn1,i , xm 2,j )hm
j=1
N M j=1
f (xn1,i , xm 2,j )hn
hm .
i=1
M Dabei steht N ur eine beliebige Reihenfolge bei der Summation, i=1 j=1 f¨ N N M ur spaltenweise Summation und M ur zeilenweii=1 j=1 f¨ j=1 i=1 f¨ se Summation u von Q in der x1 x2 -Ebene, vgl. ¨ ber die Teilgebiete Qnm ij Abb. 64.3.
958
64. Doppelintegrale
Abb. 64.3. Verschiedene Summationsreihenfolgen
Wir k¨ onnen auch die Grenzwerte nach n und m unabh¨angig voneinander bilden und gelangen so zur Gleichung:
1
f (x1 , x2 ) dx1 dx2 = 0
N M
1
0
lim
n,m→∞
i=1 j=1
N
= lim
n→∞
j=1
Dies entspricht folgender Gleichung: 1 1 f (x1 , x2 ) dx1 dx2 = 0
M
⎝ lim
M
m→∞
0
⎛
i=1
= lim
f (xn1,i , xm 2,j )hn hm
1
m→∞
lim
⎠ hn f (xn1,i , xm 2,j )hm
j=1 N
n→∞
⎞
f (xn1,i , xm 2,j )hn
1
f (x1 , x2 ) dx2 0
0
1
f (x1 , x2 ) dx1 0
dx1
1
=
hm .
i=1
dx2 ,
0
bzw.
1
1
f (x1 , x2 ) dx1 dx2 = 0
0
1
g1 (x1 ) dx1 = 0
1
g2 (x2 ) dx2 , 0
wobei durch
1
g1 (x1 ) =
f (x1 , x2 ) dx2 = lim
m→∞
0
und
g2 (x2 ) =
1
f (x1 , x2 ) dx1 = lim 0
n→∞
M
f (x1 , xm 2,j )hm
j=1
N
f (xn1,i , x2 )hn
i=1
die Funktionen g1 (x1 ) und g2 (x2 ) f¨ ur jeweils x1 und x2 definiert werden. In anderen Worten ist das Doppelintegral von f (x1 , x2 ) u ¨ ber [0, 1] × [0, 1]
64.3 Doppelintegrale mit Hilfe ein-dimensionaler Integration
959
gleich dem Integral von g2 (x2 ) u ¨ber [0, 1]
1
1
0
M
1
f (x1 , x2 ) dx1 dx2 =
g2 (x2 )dx2 = lim
0
m→∞
0
g2 (xm 2,j )hm ,
j=1
wie auch gleich dem Integral von g1 (x1 ) u ¨ ber [0, 1]:
1
1
1
f (x1 , x2 ) dx1 dx2 = 0
g1 (x1 )dx1 = lim
0
n→∞
0
N
g1 (xn1,i )hn .
i=1
Wir folgern, dass ein Doppelintegral durch wiederholtes oder iteratives eindimensionales Integrieren berechnet werden kann. Wir k¨onnen diese Erfahrung, wie folgt, zusammenfassen: Satz 64.3 Sei f : [0, 1] × [0, 1] → R Lipschitz-stetig. Dann gilt
1
1
f (x) dx =
f (x1 , x2 ) dx1 dx2 = 0
Q
0
1
1
=
f (x1 , x2 ) dx2 0
1
1
dx1 =
f (x1 , x2 ) dx1
0
0
dx2 .
0
Wir k¨ onnen die Aussage dieses Satzes als Ver¨anderung der Integrationsreihenfolge interpretieren, in dem Sinne, dass Integration bez¨ uglich x1 und dann bez¨ uglich x2 dasselbe Ergebnis ergibt wie eine Integration nach ¨ werden Doppelintegrale durch zun¨ achst x2 und dann nach x1 . Ublicherweise iterierte ein-dimensionale Integrationen in einer bestimmten Reihenfolge berechnet. Beispiel 64.1. F¨ ur Q = [0, 1] × [0, 1] gilt
x1 x32
1
x1 x32
dx = 0
Q
1
0 1
=
$
x1 0
x42 4
dx1 dx2 =
%1
1 dx1 = 4 0
1
x32
x1 0 1 0
1
dx2 dx1
0
$ %1 1 x21 1 x1 dx1 = = . 4 2 0 8
Alternativ k¨ onnen wir zuerst nach x1 und dann nach x2 integrieren und erhalten so: 1 1 1 1 x1 x32 dx = x1 x32 dx1 dx2 = x32 x1 dx1 dx2 0
Q
0 1
x32
= 0
$
%1 x21 2
0
dx2 =
1 2
0
0
1
x32 dx2 = 0
$ %1 1 x42 1 = . 2 4 0 8
960
64. Doppelintegrale
64.4 Verallgemeinerung auf ein beliebiges Rechteck Das Doppelintegral, das wir auf dem Einheitsquadrat definiert haben, l¨asst sich direkt auf Integrale u ¨ber beliebige Rechtecke Q = [a1 , b1 ] × [a2 , b2 ] verallgemeinern, deren Seiten parallel zu den Achsen verlaufen. Ist n¨amlich f : Q → R Lipschitz-stetig, dann gilt: b1 b2 f (x) dx = f (x1 , x2 ) dx1 dx2 = f (x1 , x2 dx2 dx1 Q
Q
b2
a1
=
f (x1 , x2 ) dx1 a2
a2
b1
dx2 .
a1
64.5 Interpretation des Doppelintegrals als Volumen In der Summe
N N
f (xn1,i , xn2,j )hn hn
(64.9)
i=1 j=1
werden kleine Volumina der Gr¨ oße f (xn1,i , xn2,j )hn hn ,
(64.10)
die die Grundfl¨ ache hn hn und die H¨ ohe f (xn1,i , xn2,j ) besitzen, addiert. Intuitiv verstehen wir dies als N¨ aherung f¨ ur das Volumen unter dem Graphen von f (x1 , x2 ), wobei sich (x1 , x2 ) innerhalb von Q ver¨andert. Daher ist es nat¨ urlich, das Volumen V (f, Q) unter dem Graphen von f (x1 , x2 ) u ¨ ber Q, wie folgt, zu definieren: 1 1 V (f, Q) = f (x1 , x2 ) dx1 dx2 . (64.11) 0
0
Beispiel 64.2. Wir berechnen das Volumen einer Pyramide mit H¨ohe 1 und Grundfl¨ ache [0, 2]×[0, 2], vgl. Abb. 64.4. Ein Viertel des Volumens ist gleich dem Integral Q f (x) dx, wobei Q = [0, 1] × [0, 1], f (x) = x2 f¨ ur x ∈ Q mit x2 ≤ x1 und f (x) = x1 f¨ ur x ∈ Q mit x1 ≤ x2 . Wir erhalten 1 x1 1 V (f, Q) = f (x) dx = x2 dx2 + x1 dx2 dx1 Q
=
0
1
0
0
x1
$ 2 %1 x x3 1 1 1 + x1 (1 − x1 ) dx1 = 1 − 1 = − = . 2 2 6 0 2 6 3
x21
Wir folgern, dass das Volumen einer Pyramide gleich 43 ist. Dies stimmt mit der Standardformel u ¨ berein, nach der das Volumen einer Pyramide gleich 1 Bh ist, wobei B der Grundfl¨ ache entspricht und h der H¨ohe. 3
64.6 Erweiterung auf beliebige Gebiete
961
x2 1 2 x1 Abb. 64.4. Volumen einer Pyramide
64.6 Erweiterung auf beliebige Gebiete Als N¨ achstes definieren wir das Doppelintegral einer Funktion f (x) u ¨ ber ein allgemeineres ebenes Gebiet Ω. Wir beginnen mit der Annahme, dass die Begrenzung Γ von Ω durch zwei Kurven x2 = γ1 (x1 ) und x2 = γ2 (x1 ) f¨ ur 0 ≤ x1 ≤ 1 beschrieben wird, wie in Abb. 64.5 dargestellt, so dass Ω = {x ∈ [0, 1] × R : γ1 (x1 ) ≤ x2 ≤ γ2 (x1 )}. Wir nehmen an, dass die Funktionen γi : [0, 1] → R Lipschitz-stetig sind zur Lipschitz-Konstanten Lγ . Ferner nehmen wir an, dass f : Ω → R Lipschitz-stetig ist zur LipschitzKonstanten Lf . x2 = γ1 (x1 )
x2 Γ Ω x1 n
x2 = γ2 (x1 ) Abb. 64.5. Das ebene Gebiet Ω
Zun¨ achst gehen wir davon aus, dass Ω im Einheitsquadrat Q enthalten ist. Wir unterteilen Q wie oben in Quadrate Iin × Jjn mit der Grundfl¨ache hn hn , mit Iin = (xn1,i−1 , xn1,i ] und Jjn = (xn2,j−1 , xn2,j ]. Wir bezeichnen die Indexmenge (i, j), f¨ ur die die Quadrate Iin × Jjn in Ω liegen oder das Gebiet Ω schneiden, mit ωn und fassen die Quadrate Iin × Jjn mit Indizes in uckt, so ist Ωn eine N¨aherung (i, j) ∈ ωn in Ωn zusammen. Anders ausgedr¨ von Ω, die aus allen Quadraten Iin × Jjn in Q besteht, so dass Ω durch Ωn vollst¨ andig u ¨ berdeckt wird. Wir betrachten die Riemannsche Summe f (xn1,i , xn2,j )hn hn . (64.12) Sn = (i,j)∈ωn
962
64. Doppelintegrale
Wir werden beweisen, dass der Grenzwert limn→∞ Sn existiert und so ganz nat¨ urlich f (x) dx = lim f (xn1,i , xn2,j )hn hn (64.13) Ω
n→∞
(i,j)∈ωn
definieren. An dieser Stellen sch¨ atzen wir die Differenzen Sn − Sn+1 ab, die ¨ Eintr¨ age von zwei Quellen haben; (i) von der Anderung von f (x) auf jedem Teilquadrat Iin × Jjn und (ii) von dem Unterschied zwischen Ωn und Ωn+1 . Es l¨ asst sich zeigen, dass der erste Beitrag durch Lf hn beschr¨ankt ist, indem wir wie bei der Integration u ¨ber das Einheitsquadrat argumentieren. Der zweite Beitrag ist durch 2A(1+Lγ )hn beschr¨ankt, wobei A eine Grenze f¨ ur |f (x)| ist, d.h., |f (x)| ≤ A f¨ ur x ∈ Ω. Dies ergibt sich aus der Beobachtung, dass f¨ ur ein Quadrat Iin × Jjn von Ωn , das vollst¨andig außerhalb oder innerhalb von Ω liegt, auch alle vier Quadrate von Ωn+1 in Iin × Jjn außerhalb oder innerhalb liegen. Der Unterschied zwischen Ωn und Ωn+1 entstammt aus den Quadraten Iin × Jjn , die teilweise innerhalb oder teilweise außerhalb von Ω liegen. Die Fl¨ ache dieser Quadrate ist durch 2Lγ hn beschr¨ ankt, wobei der Faktor 2 von der Tatsache herr¨ uhrt, dass zwei Kurven γ1 und γ2 existieren, vgl. Abb. 64.6. Der Fl¨achenunterschied zwischen Ωn und Ωn+1 ist somit durch 2Lγ hn beschr¨ ankt.
Γ
Ω
Abb. 64.6. Die schraffierten Quadrate verdeutlichen den Unterschied zwischen Ωn und Ωn+1
Zusammen erhalten wir, dass |Sn − Sn+1 | ≤ (Lf + 2ALγ )hn ,
(64.14)
wodurch deutlich wird, dass limn→∞ Sn existiert. Wir fassen zusammen: Satz 64.4 Sei Ω = {x ∈ [0, 1] × R : γ2 (x1 ) ≤ x2 ≤ γ1 (x1 )}, wobei die γi : [0, 1] → R Lipschitz-stetig sind und sei f : Ω → R Lipschitz-stetig. Dann existiert limn→∞ Sn , wobei Sn die Riemannsche Summe ist, die durch (64.12) gegeben ist und wir definieren: f (x) dx = f (x1 , x2 ) dx1 dx2 = lim Sn . (64.15) Ω
Ω
n→∞
64.7 Iterierte Integrale u ¨ber allgemeine Gebiete
963
64.7 Iterierte Integrale u ¨ ber allgemeine Gebiete Das Integral einer Funktion f (x) u ¨ ber ein Gebiet Ω = {x ∈ [0, 1] × R : γ2 (x1 ) ≤ x2 ≤ γ1 (x1 )} l¨ asst sich durch iterierte Integration in einer Dimension wie folgt berechnen:
f (x) dx = Ω
1
f (x1 , x2 ) dx1 dx2 =
f (x1 , x2 ) dx2 0
Ω
γ1 (x1 )
dx1 .
γ2 (x1 )
(64.16) Dies ist nur eine andere Formulierung f¨ ur
f (x) dx = lim
f (xn1,i , xn2,j )hn hn
n→∞
Ω
(i,j)∈ωn
= lim
n→∞
⎛
N
⎝
i=1
⎞
f (xn1,i , xn2,j )hn ⎠ hn .
j:(i,j)∈ωn
onnen vertauscht werden und das Integral ist Die Rollen von x1 und x2 k¨ unabh¨ angig von einer besonderen Darstellung von Γ. Um ein allgemeineres Gebiet Ω zu behandeln, unterteilen wir Ω in geeignete Teilintervalle Ωj und definieren Ω f dx = j Ωj f dx. Wie bekannt, steht das Integral von f u ur das Volumen u ¨ ber Ω f¨ ¨ ber das Gebiet Ω unter dem Graphen von f . Die Berechnung eines Integrals u ¨ ber ein zwei-dimensionales Gebiet durch wiederholte Integration wurde 1738 von Euler benutzt, als er die Gravitationskraft auf einen elliptischen K¨ orper berechnete. Beispiel 64.3. Wir berechnen das Doppelintegral (x21 + x2 ) dx
I= Ω
u ¨ ber dem Gebiet Ω = {x ∈ R2 : x21 ≤ x2 ≤ x1 , 0 ≤ x1 ≤ 1}. Es gilt:
1
x1
I=
x21
0 1
= 0
(x21
+ x2 ) dx2
1
$ x21 x2 +
dx1 = 0
x22 2
%x 1 dx1 x21
1 7 x2 x4 1 1 1 = . x31 + 1 − x41 − 1 dx1 = + − − 2 2 4 6 5 10 60
Beispiel 64.4. Wir berechnen das Doppelintegral I= Ω
1 dx x2
964
64. Doppelintegrale
u ¨ ber dem Gebiet Ω = {x ∈ R2 : 1 ≤ x2 ≤ exp(x1 ), 0 ≤ x1 ≤ 1}. Es gilt
1
exp(x1 )
I= 0
1
1 dx2 x2
dx1 = 0
1
1) [log(x2 )]exp(x dx1 1
1
=
x1 dx1 = 0
1 . 2
64.8 Die Fla¨che eines zwei-dimensionalen Gebiets Wir definieren die Fl¨ache A(Ω) eines Gebiets Ω in R2 durch A(Ω) = dx,
(64.17)
Ω
d.h., durch Integration der konstanten Funktion f (x) = 1 u ur Ω = ¨ ber Ω. F¨ {x ∈ [0, 1] × R : γ1 (x1 ) ≤ x2 ≤ γ2 (x1 )}, erhalten wir 1
γ2 (x1 )
1
dx2
A(Ω) = 0
γ1 (x1 )
(γ2 (x1 ) − γ1 (x1 )) dx1 ,
dx1 = 0
was mit der vorangegangenen Formel f¨ ur die Fl¨ache zwischen den Kurven γ1 (x1 ) und γ2 (x1 ) als dem Integral der Differenz von γ2 (x1 ) − γ1 (x1 ) u ¨ bereinstimmt. Beispiel 64.5. Die Fl¨ ache des Dreiecks Ω mit den Ecken (0, 0), (1, 0) und (1, 1) kann folgendermaßen berechnet werden: 1 x1 1 1 1 A(Ω) = dx1 = . dx = dx2 dx1 = 2 2 0 0 Ω 0
64.9 Das Integral als Grenzwert einer allgemeinen Riemannschen Summe Wir haben das Integral mit Hilfe gleichm¨ aßiger Unterteilungen von x1 und aherten Unterteilungen eines gegebenen Gex2 definiert, was uns zu angen¨ biets Ω in R2 durch Quadrate oder Rechtecke f¨ uhrte. Wir k¨onnen jedoch allgemeinere Unterteilungen von Ω benutzen. Angenommen, f : Ω → R sei eine Lipschitz-stetige Funktion und die Begrenzung eines Gebiets Ω k¨onne durch Teile Lipschitz-stetiger Kurven x2 = γ(x1 ) oder x1 = γ(x2 ) beschrieben werden. Dann unterteilen wir f¨ ur N = 1, 2, . . . das Gebiet Ω in angender Mengen Ωi , eine Ansammlung {Ωi }N i=1 paarweise unzusammenh¨ so dass die Vereinigung der Ωi mit Ω u ¨ bereinstimmt. Sei dΩi die Fl¨ache
64.10 Substitution bei Doppelintegralen
965
x2
x1 Abb. 64.7. Unterteilung eines allgemeinen Gebiets
von Ωi und sei dN der maximale Durchmesser der Ωi f¨ ur i = 1, . . . , N , vgl. Abb. 64.7. Wir gehen davon aus, dass dN gegen Null geht, wenn N gegen Unendlich strebt. Die oben ausgef¨ uhrten Argumente zeigen, dass f (x) dx = lim
N →∞
Ω
N
f (xi )dΩi ,
(64.18)
i=1
wobei xi ein Punkt in Ωi f¨ ur i = 1, . . . , N ist. Der erste Schritt beim Beweis dieses Ergebnisses erfordert die Absch¨ atzung |f (x) − f (y)| ≤ Lf dN
f¨ ur x, y ∈ Ωi ,
(64.19)
woraus folgt, dass die Ver¨ anderung von f (x) f¨ ur x in Ωi klein ist, wenn der Durchmesser von Ωi klein ist. Der zweite Schritt benutzt die LipschitzStetigkeit der Begrenzung von Ω und die Beschr¨anktheit von f (x). Und ganz nebenbei erhalten wir als Zugabe des Beweises dieses Ergebnisses die Absch¨ atzung N f (xi )dΩi ≤ Lf dN A(Ω), (64.20) f (x) dx − Ω i=1
wobei A(Ω) der Fl¨ ache von Ω entspricht.
64.10 Substitution bei Doppelintegralen Als N¨ achstes werden wir die Substitution, die wir von ein-dimensionalen Integralen kennen, auf zwei-dimensionale Integrale erweitern. Genauer formuliert, so wollen wir die Substitution f¨ ur ein Integral f (x) dx = f (x1 , x2 ) dx1 dx2 (64.21) Ω
Ω
966
64. Doppelintegrale
einf¨ uhren, wobei Ω ein vorgegebenes Gebiet in R2 ist und die Integrati˜ → Ω eine onsvariable x sich in Ω ver¨ andert. Wir nehmen an, dass g : Ω ˜ eindeutige Abbildung von y ∈ Ω auf x = g(y) in Ω ist, die die Substitution repr¨ asentiert. Wir werden beweisen, dass (64.21) bez¨ uglich x als ein Integral bez¨ uglich y in der Form f (x) dx = f (g(y)) G(y) dy (64.22) ˜ Ω
Ω
geschrieben werden kann, wobei G(y) durch G(y) = | det g (y)| definiert wird. Das heißt, dass G(y) dem Absolutwert der Determinante uhrt uns dies der Jacobi-Matrix g (y) von g(y) entspricht. Rein formal f¨ zu dx = | det g (y)| dy, bzw. | det g (y)| = | det dx |, wobei | det g (y)| der dy lokalen Ver¨ anderung des Fl¨ achenmaßes entspricht, wenn wir von den yKoordinaten zu den x-Koordinaten u ¨ bergehen. Daher l¨asst sich die Substitutionsformel auch schreiben: f (x) dx = f (g(y))| det g (y)| dy. (64.23) Ω
˜ Ω
˜ i ein kleines Teilgebiet von Ω ˜ und Ωi = g(Ω ˜ i) Um dies zu beweisen, sei Ω ˜ ˜ das Bild von Ωi unter der Abbildung x = g(y). Ist nun g (y) auf Ωi konstant, ˜ i linear sein und muss g(y) auf Ω ˜ i, dΩi = | det g (yi )|dΩ ˜ i ist, dΩi ist die Fl¨ ˜ i die Fl¨ache ache von Ωi und dΩ wobei yi ein Punkt in Ω n ˜ ˜ ˜i ˜ des Gebiets Ωi . Ist nun {Ωi }i=1 eine Unterteilung von Ω in Teilgebiete Ω mit gr¨ oßtem Durchmesser dn , so gilt: f (x) dx ≈ f (xi )dΩi Ω
i
≈
i
˜i ≈ f (g(yi ))| det g (yi )|dΩ
f (g(y))| det g (y)| dy, ˜ Ω
mit xi = g(yi ). Die N¨ aherungen sind durch das Produkt der LipschitzKonstanten der Funktionen f (x), f (g(y)) und | det g (y)| mit dn beschr¨ankt. Die Substitutionsformel (64.23) ergibt sich aus der Grenzwertbetrachtung f¨ ur n gegen Unendlich, wobei dn gegen Null strebt. Wir fassen zusammen: Satz 64.5 (Substitution) Angenommen y → x = g(y) sei eine Abbil˜ in R2 auf ein Gebiet Ω in R2 , wobei die Jacobi-Matrix dung eines Gebiets Ω
64.10 Substitution bei Doppelintegralen
967
von g Lipschitz-stetig ist. Ferner sei f : Ω → R eine Lipschitz-stetige Funktion. Dann gilt: f (x) dx = f (g(y))| det g (y)| dy. (64.24) ˜ Ω
Ω
Beispiel 64.6. Wir betrachten die Abbildung x = g(y) = (2y1 +y2 , y1 −2y2 ), ˜ = [0, 1] × [0, 1] auf das Parallelogramm Ω mit der das Einheitsquadrat Ω abgebildet wird, das durch die Vektoren (2, 1) und (1, −2) aufgespannt wird. Es gilt dann det g (y) = −5 und somit f (x) dx = f (2y1 + y2 , y1 − 2y2 ) | − 5| dy ˜ Ω
Ω
1
1
f (2y1 + y2 , y1 − 2y2 ) dy.
=5 0
0
F¨ ur f (x) = x2 erhalten wir 1 1 1 5 −1 =− . f (x) dx = 5 (y1 − 2y2 ) dy = 5 2 2 0 0 Ω
Polarkoordinaten Ein Wechsel von kartesischen Koordinaten zu Polarkoordinaten (x1 , x2 ) = (r cos(θ), r sin(θ)) mit x = (x1 , x2 ) ∈ R2 und r ≥ 0, 0 ≤ θ < 2π, vgl. (64.8), ist eine besonders wichtige Substitution. x2 θ
x = (r cos(θ), r sin(θ))
ω
ω R
r
R
Abb. 64.8. Polarkoordinaten
Die Jacobi-Matrix der Abbildung (r, θ) → (x1 , x2 ) lautet d(x1 , x2 ) cos(θ) −r sin(θ) , = sin(θ) r cos(θ) d(r, θ)
x1
968
64. Doppelintegrale
mit det
d(x1 , x2 ) = r(cos2 (θ) + sin2 (θ)) = r. d(r, θ)
Beispiel 64.7. F¨ ur den Teil des Einheitskreises im positiven Quadranten Ω = {x ∈ R2 : |x| ≤ 1, x1 ≥ 0, x2 ≥ 0} lautet das entsprechende Gebiet in ˜ = {(r, θ) : 0 ≤ r ≤ 1, 0 ≤ θ ≤ π } mit Polarkoordinaten Ω 2 f (x1 , x2 ) dx1 dx2 = f (r cos(θ), r sin(θ)) rdr dθ. ˜ Ω
Ω
Insbesondere erhalten wir f¨ ur f (x) = 1: A(Ω) = dx1 dx2 = rdr dθ Ω
π 2
=
˜ Ω
1
π 2
r dr dθ = 0
0
π 1 dθ = . 2 4
0
Somit haben wir die Fl¨ ache eines Viertels einer Einheitsscheibe zu π4 berechnet, weswegen die Fl¨ ache einer Einheitsscheibe gleich π ist. Ein wichtiges Ergebnis f¨ ur die Mathematik! Beispiel 64.8. Mit Hilfe von Polarkoordinaten erhalten wir $ %∞ 2π ∞ 1 −r2 −x21 −x22 −r 2 e dx = e r dr dθ = 2π − e = π. 2 0 0 R2 0 Da
e−x1 −x2 dx = 2
2
R2
∞
−∞
e−x1 dx1 2
∞
−∞
e−x2 dx2 , 2
k¨onnen wir folgern, dass
∞
e−x dx = 2
√
π.
(64.25)
−∞
Offensichtlich haben wir dabei etwas Magisches vollbracht: Obwohl wir die 2 Stammfunktion von e−x nicht sind wir dennoch in der Lage, einen ∞ kennen, 2 analytischen Ausdruck f¨ ur −∞ e−x dx anzugeben.
Aufgaben zu Kapitel 64
969
Aufgaben zu Kapitel 64 64.1. ur das Einheitsquadrat Ω = [0, 1] × [0, 1] die Integrale Berechnen Sie f¨ und (d) Ω exp(−x1 x2 ) dx. (a) Ω (x1 + x2 ) dx, (b) Ω x1 x2 dx, (c) Ω x1dx +x2 64.2. Berechnen Sie f¨ ur Ω = {(x1 , x2 ) : 0 ≤ x1 ≤ x2 ≤ 1} die Integrale 2 (a) Ω xx12 dx, (b) Ω exp2x2 dx und (c) Ω expx2 dx. 64.3. Ver¨ andern Sie die Integrationsreihenfolge f¨ ur die folgenden Integrale: 1 1−x1 f (x1 , x2 ) dx2 dx1 , 1. 1/2 0 1 √1−x21 2. 0 0 f (x1 , x2 ) dx2 dx1 , 10 3. 0 x2 −1 f (x1 , x2 ) dx1 dx2 , 1 1+x 4. 0 1−x11 f (x1 , x2 ) dx2 dx1 . 64.4. Berechnen Sie die folgenden Integrale: 1. Ω (x21 + 2x32 ) dx, wenn Ω ein Dreieck mit den Kanten (0, 0), (1, 0), (0, 1) ist, 2. Ω x21 x2 dx f¨ ur Ω = {x ∈ R2 : x21 + x22 ≤ 1, 0 ≤ x2 }, 3. Ω (x1 + x2 )dx, wenn Ω ein Tetraeder mit den Kanten (0, 0), (1, 0), (2, 1), (2, 2) ist, 4. Ω |1 − x1 − x2 | dx, wenn Ω das Einheitsquadrat ist. 64.5. Berechnen Sie das Volumen unter dem Graphen f¨ ur die folgenden Funktionen: 1. f (x) = ex1 cos(x2 ), 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤
π , 2
2. f (x) = x21 e−x1 −x2 , 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 2,
3. f (x) = x21 x2 , 0 ≤ x1 ≤ 1, x1 + 1 ≤ x2 ≤ x1 + 2, 4. f (x) = x21 − x22 , x21 − x22 ≥ 0, 0 ≤ x1 ≤ 1. 64.6. Ein zylindrisches Loch mit Radius b wird symmetrisch durch eine Metallkugel mit Radius a > b gedrillt. Berechnen Sie das Volumen des entfernten Metalls. 64.7. Berechnen Sie
1−
Ω
& wenn Ω der Ellipse x ∈ R2 : 64.8. Berechnen Sie
x2 1 a2 1
Ω
2
+
x2 x21 − 22 2 a1 a2
x2 2 a2 2
3/2 dx,
' ≤ 1 entspricht.
x1 + x2 x1 +x2 e dx, x21
f¨ ur Ω = {x ∈ R : x2 ≤ x1 ≤ 2 − x2 , 0 ≤ x2 ≤ 1}. Hinweis: Benutzen Sie die Substitution y1 = x1 + x2 , y2 = xx21 .
970
64. Doppelintegrale
64.9. Berechnen Sie die Fl¨ ache eines Bl¨ utenblatts einer Rose 0 ≤ r ≤ 3 sin(θ) (Polarkoordinaten). 64.10. Berechnen Sie die Fl¨ ache innerhalb des Cardoids r = 1 + cos(θ). 64.11. Berechnen Sie die folgenden Doppelintegrale: ur Ω = {x : 0 ≤ x1 ≤ 1, |x2 | ≤ x1 }, 1. Ω exp(−x1 ) dx, f¨ 2. Ω x1 x2 x dx, f¨ ur Ω = {x : 0 ≤ x1 ≤ 1, 1 ≤ x2 ≤ 2}, x1 3. Ω 1+x dx, f¨ u r Ω = {x : 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1 − x1 }. 2 64.12. Berechnen Sie die folgenden Doppelintegrale: ur Ω = {x : 0 ≤ x1 ≤ 1, |x2 | ≤ x1 }, 1. Ω exp(−x1 ) dx, f¨ 2. Ω x1 x2 x dx, f¨ ur Ω = {x : 0 ≤ x1 ≤ 1, 1 ≤ x2 ≤ 2}, x1 3. Ω 1+x2 dx, f¨ ur Ω = {x : 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1 − x1 }. 64.13. Berechnen Sie die folgenden Doppelintegrale durch Substitution: ur Ω = {x : x21 + x22 − 2x1 − 2x2 ≤ 0}, 1. Ω x 2 dx, f¨ 2. Ω x1 x2 dx, f¨ ur Ω = {x : 3x21 + x22 − 2x1 ≤ 0}, 2 3. Ω exp(− x ) dx, f¨ u r Ω = R2 .
65 Ober߬achenintegrale
K¨ onig Karl XII von Schweden (1682–1717) hatte ein außerordentliches Talent f¨ ur die Mathematik. Er wurde von Swedenborg (dem großen schwedischen Universalgenie (1688–1772) selbst im Vergleich zu Leibniz als gleichwertig, wenn nicht sogar als u ¨ berlegen angesehen. K¨ onig Karl XII konnte große Zahlen ohne Papier und Bleistift spielend miteinander multiplizieren und er schlug 64 als die richtige ¨ Wahl f¨ ur die Basis der nat¨ urlichen Zahlen vor. Uber Nacht entwickelte er Symbole und erfand Namen f¨ ur alle Ziffern 0, 1, . . . , 62, 63. (aus Die Geschichte Schwedens“ von Hermann Lindquist) ”
65.1 Einleitung Im Kapitel Kurvenintegrale“ haben wir die Bezeichnung f¨ ur ein Integral ” u uhrt. In diesem Kapitel ¨ ber einer Kurve bzw. ein Kurvenintegral eingef¨ benutzen wir dieselben Ideen, um ein Integral u ¨ber eine Oberfl¨ache oder ein Oberfl¨achenintegral zu definieren. Wir beginnen mit dem Oberfl¨achenintegral f¨ ur die Fl¨ache einer Oberfl¨ ache.
65.2 Die Fl¨ache einer Oberfl¨ache Sei S eine Oberfl¨ ache in R3 , die durch die Abbildung s : Ω → R3 parametrisiert ist, wobei Ω ein Gebiet in R2 mit den Koordinaten y = (y1 , y2 ) ∈ R2 ist, so dass s = s(y) = (s1 (y), s2 (y), s3 (y)). Wir definieren die Fl¨ache A(S)
972
65. Ober߬ achenintegrale
einer Oberfl¨ ache S durch das folgende Integral u ¨ ber das parametrisierte Gebiet Ω: s,1 × s,2 dy. (65.1) A(S) = Ω
Dabei entsprechen ⎞ ∂s1 ⎜ ∂y1 ⎟ ⎟ ⎜ ⎜ ∂s2 ⎟ ⎟ s,1 = ⎜ ⎜ ∂y1 ⎟ ⎟ ⎜ ⎝ ∂s3 ⎠ ∂y1
⎞ ∂s1 ⎜ ∂y2 ⎟ ⎟ ⎜ ⎜ ∂s2 ⎟ ⎟ s,2 = ⎜ ⎜ ∂y2 ⎟ ⎟ ⎜ ⎝ ∂s3 ⎠ ∂y2
⎛
⎛
und
den Spalten der Jacobi-Matrix ⎛ ∂s1
∂y1
⎜ ∂s2 s = ⎜ ⎝ ∂y1 ∂s3 ∂y1
∂s1 ⎞ ∂y2
⎟
∂s2 ⎟ ∂y2 ⎠ . ∂s3 ∂y2
Beachten Sie, dass alle Koeffizienten Funktionen von y ∈ Ω sind. Um diese Definition zu begr¨ unden, erinnern wir an die Linearisierung der Abbildung s : Ω → R3 in y¯, die durch y → sˆ(y) = s(¯ y ) + (y1 − y¯1 )s,1 (¯ y ) + (y2 − y¯2 )s,2 (¯ y) gegeben ist. Dazu stellen wir uns ein kleines Quadrat R(¯ y, h) = [¯ y1 , y¯1 +h]× [¯ y2 , y¯2 + h] in Ω mit der Seitenl¨ ange h und der Fl¨ache h2 vor, dessen untere linke Ecke im Punkt y¯ ∈ Ω liegt, wobei h klein sei. Durch die Linearisierung sˆ(y) wird das Quadrat R(¯ y , h) in ein kleines Parallelogramm P (s(¯ y ), h) abgebildet, das in der Tangentialebene von S durch s(¯ y ) liegt. Diese Tangeny) und s,2 (¯ y ) aufgespannt. tialebene wird durch die beiden Vektoren s,1 (¯ Dabei liegt eine der Ecken des Parallelogramms in s(¯ y ). Wenn wir nun uckdenken, so betr¨agt an das Kapitel Analytische Geometrie in R2“ zur¨ ” die Fl¨ ache eines Parallelogramms, das durch zwei Vektoren a und b in R2 aufgespannt wird, a × b. Somit ist die Fl¨ ache von P (s(¯ y ), h) gleich s,1 (¯ y ) × s,2 (¯ y )h2 . Die Fl¨ ache ver¨ andert sich also um den Faktor s,1 (¯ y ) × s,1 (¯ y ). Ein kleines 2 St¨ uck (Quadrat) mit der Fl¨ ache h in y¯ ∈ Ω im Parameter-Gebiet entspricht also einem kleinen St¨ uck auf der Oberfl¨ ache S in s(¯ y ), dessen Fl¨ache etwa y )×s,2 (¯ y )h2 betr¨ agt, wobei die N¨ aherung umso besser wird, je kleiner s,1 (¯ h wird. Wenn wir u ucke in S summieren und dabei h kleiner ¨ ber alle kleinen St¨ werden lassen, kommen wir zur Definition der Fl¨ache A(S) der Oberfl¨ache
65.2 Die Fl¨ ache einer Oberfl¨ ache
973
x3 y2 s2
s1 s (y)
y1
x2 x1
Abb. 65.1. Maßstab der Fl¨ ache einer Oberfl¨ ache
S durch (65.1), was wir folgendermaßen schreiben: A(S) = s,1 (y) × s,2 (y) dy = s,1 × s,2 dy = ds. Ω
Ω
S
Wir schreiben ds = s,1 ×s,2 dy, womit die Ver¨anderung des Maßstabs zum Ausdruck gebracht wird. Nat¨ urlich gehen wir davon aus, dass s,1 × s,2 Lipschitz-stetig ist, um sicherzustellen, dass das Integral existiert. Beispiel 65.1. Wir betrachten die Oberfl¨ ache S einer Kugel mit Radius 1, die im Ursprung ihren Mittelpunkt besitzt. Wir beschreiben das Problem in sph¨ arischen Koordinaten x = s(y1 , y2 ) = (sin(y2 ) cos(y1 ), sin(y2 ) sin(y1 ), cos(y2 )) , mit 0 ≤ y1 < 2π, 0 ≤ y2 < π, vgl. Abb. 66.3. Es gilt: s,1 = (− sin(y2 ) sin(y1 ), sin(y2 ) cos(y1 ), 0) , s,2 = (cos(y2 ) cos(y1 ), cos(y2 ) sin(y1 ), − sin(y2 )) ,
(65.2)
woraus wir durch direkte Berechnung s = sin(y2 ) erhalten. Wir berechnen 2π 2π π sin(y2 ) dy2 dy1 = 2 dy1 = 4π A(S) = 0
0
0
und folgern daraus, dass die Oberfl¨ ache einer Kugel mit Radius 1 gleich 4π ist. Beispiel 65.2. Wir berechnen die Fl¨ ache A(S) einer Oberfl¨ache S, die durch s(y1 , y2 ) = (2y1 y2 , y12 , 2y22 ) mit 0 ≤ y1 , y2 ≤ 1 gegeben ist. Wir erhalten s (y) = (2y2 , 2y1 , 0) × (2y1 , 0, 4y2 ) = 4(2y1 y2 , −2y22 , −y12 ), so dass s (y) = 4(y12 + 2y22 ). Somit ist 1 1 1 2 A(S) = + 4(y12 + 2y22 ) dy1 dy2 = 4 = 4. 3 3 0 0
974
65. Ober߬ achenintegrale
65.3 Die Fl¨ache der Oberfl¨ache des Graphen einer Funktion zweier Variabler F¨ ur den Fall, dass S als Graph einer Funktion f : Ω → R gegeben ist, so dass also s(y1 , y2 ) = (y1 , y2 , f (y1 , y2 )), gilt: ( 2 + f 2 dy dy , A(S) = ds = s,1 × s,2 dy = 1 + f,1 (65.3) 1 2 ,2 S
Ω
Ω
wobei f,i die partielle Ableitung von f nach yi bezeichnet. Dies ergibt sich aus s,1 × s,2 = (1, 0, f,1 ) × (0, 1, f,2) = (−f,1 , −f,2,, 1). Beispiel 65.3. Die Oberfl¨ ache S einer Halbkugel mit Radius 1, die ihr Zentrum im Ursprung besitzt, wird durch s(y1 , y2 ) = (y1 , y2 , 1 − y12 − y22 ) mit y ∈ Ω = {y ∈ R2 : y12 + y22 ≤ 1} gegeben. Wir erhalten: ( 1 2 2 A(S) = 1 + f,1 + f,2 dy1 dy2 = dy 1 − y12 − y22 Ω Ω (65.4) 2π 1 *1 ) 1 √ r dr dθ = 2π − 1 − r2 = 2π. = 0 1 − r2 0 0 Wir erinnern uns an das obige Ergebnis, nach dem die Oberfl¨ache einer Kugel mit Radius 1 gleich 4π ist.
65.4 Oberfl¨achen von Drehk¨orpern Oberfl¨achen von Drehk¨orpern treten in vielen praktischen Anwendungen auf. Um die Oberfl¨ ache eines Drehk¨ orpers zu erzeugen, gehen wir von einer vorgegebenen positiven Funktion f : [a, b] → R aus und betrachten die Oberfl¨ ache S, die durch s(x1 , x2 ) = (x1 , f (x1 ) cos(θ), f (x1 ) sin(θ)) beschrieben wird, mit a ≤ x1 ≤ b und 0 ≤ θ < 2π, vgl. Abb. 65.2. Wir benutzen dabei (x1 , x2 ) als Referenzkoordinaten anstelle von (y1 , y2 ) und erhalten so: s,1 × s,2 =(1, f (x1 ) cos(θ), f (x1 ) sin(θ))× (0, −f (x1 ) sin(θ), f (x1 ) cos(θ)). Daraus ergibt sich durch direkte Berechnung: s,1 × s,2 = f (x1 ) 1 + (f (x1 ))2 .
(65.5)
65.5 Unabh¨ angigkeit von der Parametrisierung
975
x2
x22 + x23 = r = f (x1 ) b
x1
x3
Abb. 65.2. Die Oberfl¨ ache eines Drehk¨ orpers
Die Fl¨ ache A(S) von S lautet:
2π
A(S) = 0
b
f (x1 ) 1 + (f (x1 ))2 dx1 dθ
a
= 2π
b
f (x1 ) 1 + (f (x1 ))2 dx1 . (65.6)
a
Beispiel 65.4. Wir betrachten die Oberfl¨ ache S eines Parabolspiegels, die √ wir durch Rotation der Kurve f (x1 ) = x1 um die x1 -Achse zwischen x1 = 0 und x1 = 1 erhalten. Es gilt: + 1 1 √ √ 1 π x1 1 + dx1 = π 4x1 + 1 dx1 = (53/2 − 1). A(S) = 2π 4x 6 1 0 0
65.5 Unabh¨angigkeit von der Parametrisierung ˜ → Ω von Wir werden beweisen, dass f¨ ur eine eindeutige Abbildung t : Ω ˜ ⊂ R2 auf y = t(η) ∈ Ω, wobei r(η) = s(t(η)) das Gebiet Ω ˜ auf S η ∈Ω abbildet, gilt: ds = r,1 × r,2 dη = s,1 × s,2 dy. (65.7) S
˜ Ω
Ω
Daran erkennen wir, dass die Fl¨ ache der Oberfl¨ache S unabh¨angig von der Parametrisierung von S ist. Dazu m¨ ussen wir nur zeigen, dass f¨ ur y = t(η) gilt: (η) × r,2 (η) = s,1 (y) × s,2 (y) | det t (η)|, r,1
(65.8)
wobei | det t | der Determinante der Jacobi-Matrix t (η) von t(η) entspricht. Dies ergibt sich nach einer l¨ angeren Berechnung, die mit der Ableitung von r(η) = s(t(η)) nach der Kettenregel beginnt.
976
65. Oberfl¨ achenintegrale y2 η2 Ω ˜ Ω η
y = t(η) y1
η1 x3 x = s(y) = s(t(η)) = r(η) x2
x1 Abb. 65.3. Reparametrisierung r(η) = s(t(η)) einer durch s(y) parametrisierten Oberfl¨ ache
65.6 Oberfla¨chenintegrale Sei S = s(Ω) eine Oberfl¨ ache in R3 , die durch die Abbildung s : Ω → R3 reparametrisiert ist, wobei Ω ein Gebiet in R2 ist. Ferner sei u : S → R eine reellwertige Funktion, die auf S definiert ist. Wir nehmen an, dass u, s und s,1 × s,2 Lipschitz-stetig sind und definieren das Integral von u u ¨ ber S zu: u ds = u(s(y))s,1 (y) × s,2 (y) dy. (65.9) S
Ω
Beispiel 65.5. Sei S = s(Ω) das Gew¨ olbe“, das durch s(y1 , y2 ) = ” (y1 , y2 , 1 − y12 − y22 ) und Ω = {y ∈ R2 : y12 + y22 ≤ 1} gegeben ist, mit u(x) = (5x21 + 5x22 + x3 )1/2 , so dass u(s(y)) = (5y12 + 5y22 + 1 − y12 − y22 )1/2 = (1 + 4y12 + 4y22 )1/2 . Wir berechnen s,1 (y) × s,2 (y) = (1, 0, −2y1) × (0, 1, −2y2) = (1 + 4y12 + 4y22 )1/2
65.7 Das Tr¨ agheitsmoment einer d¨ unnen kugelf¨ ormigen Schale
977
und erhalten mit Hilfe von Polarkoordinaten: u ds = u(s(y))s,1 (y) × s,2 (y) dy S Ω = (1 + 4y12 + 4y22 )1/2 (1 + 4y12 + 4y22 )1/2 dy Ω
1
(1 + 4r2 )r dr =
= 2π 0
3 . 2
65.7 Das Tr¨agheitsmoment einer du ¨nnen kugelf¨ormigen Schale Das Tr¨ agheitsmoment um die x3 -Achse einer d¨ unnen Kugel S = {x = 1} mit (einheitlich verteilter) Gesamtmasse m ist gleich m (x2 + x22 ) ds. (65.10) I= 4π S 1 Wenn sich die Kugel mit Winkelgeschwindigkeit ω um die x3 -Achse dreht, dann ist die gesamte kinetische Energie gleich 1m 1 E= ω 2 (x21 + x22 ) ds = ω 2 I. (65.11) 2 4π S 2 Mit Hilfe sph¨ arischer Koordinaten f¨ ur die Berechnung erhalten wir I=
2m . 3
(65.12)
Aufgaben zu Kapitel 65 65.1. (a) Zeigen Sie, dass in (65.2) gilt: s,1 (y) × s,2 (y) = sin(y2 ). (b) Beweisen Sie (65.5). 65.2. Finden Sie heraus, welches ber¨ uhmte Geb¨ aude durch die unten angef¨ uhrten MATLAB Anweisungen beschrieben wird und berechnen Sie die Dachfl¨ ache. r=0:.1:1; v=0:pi/20:2*pi; [R,V]=meshgrid(r,v); surf(10*cos(V),10*sin(V),R.*(5+cos(V).ˆ 2-sin(V).ˆ 2)) hold on surf(10*R.*cos(V),10*R.*sin(V),5+(R.*cos(V)).ˆ 2-(R.*sin(V)).ˆ 2) hold off axis(’equal’)
978
65. Ober߬ achenintegrale
65.3. Hier handelt es sich um ein anderes ber¨ uhmtes Geb¨ aude. Wieviel Farbe ben¨ otigen Sie, um es neu zu streichen? w=0:pi/20:3*pi/4; v=0:pi/20:2*pi; [W,V]=meshgrid(w,v); h=surf(sin(W).*cos(V),sin(W).*sin(V),cos(W)); set(h,’FaceColor’,[1 1 1]) axis(’equal’) 65.4. Begr¨ unden Sie (65.11) und beweisen Sie (65.12). 65.5. (a) Betrachten Sie die Oberfl¨ ache S = {x : x = y1 a + y2 b + (1 − y1 − y2 )c, y ∈ T }, mit a, b, c ∈ R3 und T = {y ∈ R2 : y1 + y2 ≤ 1, yi ≥ 0, i = 1, 2}. Geben Sie eine geometrische Beschreibung von S und berechnen Sie ihre Fl¨ ache. (b) Bestimmen Sie eine Parametrisierung der Gestalt x = M y + b einer (ebenen) dreiecksf¨ ormigen Fl¨ ache S mit Ecken in (1, 0, 0), (0, 0, 3) und (0, 3, −9). Das Parametergebiet T soll ¨ ahnlich wie in (a) lauten, wobei b ein 3-Vektor ist und M eine 3 × 2-Matrix. (c) Berechnen Sie die Fl¨ ache von S. H¨ angt die Fl¨ ache von b ab? Interpretieren Sie das Ergebnis. (d) Berechnen Sie S (x1 + 2x2 ) dS. 65.6. Berechnen Sie (a) S dS und (b) S f (x) dS mit S = {x : x = M y, y ∈ Q}, 2 wobei Q das Einheitsquadrat in R ist und M eine 3 × 2-Matrix mit den Spalten ache S (1, 0, 1) und (0, 1, 2) und f (x) = x3 . Zeichnen Sie außerdem die Oberfl¨ und interpretieren Sie (a) als Fl¨ ache von S. Vergleichen Sie die Berechnung von (a) mit der Methode f¨ ur die Berechnung der Fl¨ ache f¨ ur ein Parallelogramm mit Hilfe des Kreuzprodukts der linearen Algebra. 65.7. Berechnen Sie (a)
S
dS und (b)
S
x2 dS mit
S = {x : x = y1 (1 − y2 )(1, 0, 0) + (1 − y1 )(1 − y2 )(1, 2, 0)+ (1 − y1 )y2 (0, 1, 1) + y1 y2 (0, 0, 3), 0 ≤ yi ≤ 1, i = 1, 2}. Zeichnen Sie die Oberfl¨ ache und beschreiben Sie ihre Geometrie. 65.8. Berechnen Sie (a) 0 ≤ yi ≤ 1, i = 1, 2}.
S
dS und (b)
S
x1 x2 dS f¨ ur S = {(y1 , y2 , y1 y2 ) :
65.9. Betrachten Sie f¨ ur gegebenes r > 0 und h > 0 die Oberfl¨ ache S = {x : x = (r cos(v), r sin(v), z), 0 ≤ v ≤ 2π, 0 ≤ z ≤ h}. (a) Geben Sie eine geometrische Beschreibung von S und finden sie zugeh¨ orige Parametrisierungen der Oberfl¨ achen. (b) S = {x ∈ R3 : x22 + x23 = 4, |x1 | ≤ 5} (c) S = {x ∈ R3 : x22 + 4x23 = 4, 0 ≤ x1 ≤ x22 + x23 }. ur S = {(x1 , x2 , x3 ) : x1 = y1 cos(y2 ), 65.10. Berechnen Sie S (x1 + x2 + x3 ) dS f¨ x2 = y1 sin(y2 ), x3 = y1 (cos(y2 ) + sin(y2 ))}.
Aufgaben zu Kapitel 65
979
65.11. Berechnen Sie S (x1 , x2 , x3 ) · n ds, wenn S der Begrenzung von Ω = {x : x1 + x2 + x3 ≤ 1, xi ≥ 0, i = 1, 2, 3} entspricht. ,x2 ,x3 ) 65.12. Berechnen Sie S (x1x · n dS f¨ ur die zylindrische Schale S = {x ∈ R3 : 2 x21 + x22 = 1, −a ≤ x3 ≤ a} zusammen mit dem entsprechenden Grenzwert f¨ ur a → ∞. 65.13. Berechnen Sie das Tr¨ agheitsmoment einer zylindrischen Schale S = uglich der x1 -Achse. {x ∈ R3 : x21 + x22 = 1, −1 ≤ x3 ≤ 1} bez¨ ur S = {(y1 + y2 , y12 − y22 , y1 y2 ) : 65.14. Berechnen Sie S (x1 , 0, x3 ) · n dS f¨ 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1}, wobei n die Normale zu S ist mit n3 < 0. 65.15. Berechnen Sie die Fl¨ ache eines Torus (Karpfens) in R3 , der durch s(y1 , y2 ) = (a + b cos(y2 )) cos(y1 ), (a + b cos(y2 )) sin(y1 ), b sin(y2 ) gegeben ist, f¨ ur 0 ≤ y1 , y2 < 2π, wobei a > b Konstanten sind. 65.16. Zeichnen und berechnen Sie die Fl¨ ache der Oberfl¨ ache S = {(r cos(v), r sin(v), v) : 1 ≤ r ≤ 2, 0 ≤ v ≤ 4π}. In welcher Art von Geb¨ auden kann man auf ¨ ahnliche Konstruktionen treffen? 65.17. Beschreiben und zeichnen Sie die Oberfl¨ achen (von Drehk¨ orpern, wenn Sie wollen) von (a) x21 + x22 = x23 , x3 > 0 (b) 5 + x21 + x22 = x23 ≤ 9, x3 > 0. Berechnen Sie die Fl¨ achen.
66 Mehrfachintegrale
Wir trafen uns w¨ ochentlich (manchmal im m¨ oblierten Zimmer von Dr. Goddard, manchmal in der Mitra in der nahe gelegenen Wood Street) zu einer bestimmten Stunde mit einem bestimmten Reglement und einem w¨ ochentlichen Beitrag f¨ ur die Kosten der Experimente, wobei wir uns an vereinbarte Regeln hielten. Dabei vermieden wir, um Ablenkung zu anderen Themen zu vermeiden und aus anderen Gr¨ unden, alle Diskussionen u ¨ ber den Glauben, die Politik und von Nachrichten (andere als solche, die unsere philosophischen T¨ atigkeiten betrafen) und beschr¨ ankten uns auf philosophische Untersuchungen und verwandte Gebiete; wie die Medizin, die Anatomie, die Geometrie, die Astronomie, die Navigation, die Statik, die Mechanik und naturwissenschaftliche Experimente. (Wallis u undung ¨ ber die Gr¨ der Royal Society)
66.1 Einleitung Wir betrachten nun Dreifachintegrale u ¨ ber Gebiete in R3 und ganz allgemein Mehrfachintegrale u ¨ber Gebiete in Rn mit n > 3.
66.2 Dreifachintegrale u ¨ber dem Einheitswu ¨ rfel Ein Dreifachintegral einer Lipschitz-stetigen Funktion f : Q → R u ¨ ber dem Einheitsw¨ urfel Q = {x ∈ R3 : 0 ≤ xi ≤ 1, i = 1, 2, 3} nimmt die folgende
982
66. Mehrfachintegrale
Gestalt an:
1
1
f (x) dx =
f (x1 , x2 , x3 ) dx1 dx2 dx3 . 0
Q
1
0
0
Es kann durch wiederholte Integration in beliebiger Reihenfolge berechnet werden, wie beispielsweise 1 1 1 f (x) dx = f (x1 , x2 , x3 ) dx3 dx2 dx1 . 0
Q
0
0
Die Definition des Integrals und die wiederholte Integrationsformel ist eine direkte Verallgemeinerung der entsprechenden Schritte f¨ ur den Fall des Doppelintegrals u ¨ber dem Einheitsquadrat. Beispiel 66.1. Wir berechnen das Integral von x21 x2 ex1 x2 x3 u ¨ ber dem Einheitsw¨ urfel Q: 1 1 1 2 x1 x2 x3 2 x1 x2 x3 x1 x2 e dx = x1 x2 e dx3 dx1 dx2 Q
1
= 0
0
1
0
0
) *x3 =1 x1 ex1 x2 x3 dx1 dx2 = x3 =0
0
0
1
1
x1 (ex1 x2 − 1) dx1 dx2 . 0
Wir erhalten so ein Doppelintegral, mit dem wir umzugehen wissen.
66.3 Dreifachintegrale u ¨ber allgemeine Gebiete 3 in R Sei Ω = {x ∈ R3 : γ2 (x1 , x2 ) ≤ x3 ≤ γ1 (x1 , x2 ), (x1 , x2 ) ∈ ω}, wobei ω ein Gebiet in R2 ist. γ1 : ω → R und γ2 : ω → R sind vorgegebene Funktionen von (x1 , x2 ), vgl. Abb. 66.1. Sei f : Ω → R Lipschitz-stetig. Wir definieren das Dreifachintegral von f (x) u ¨ ber Ω durch γ1 (x1 ,x2 ) f (x) dx = f (x1 , x2 , x3 ) dx3 dx1 dx2 Ω
γ2 (x1 ,x2 )
ω
mit wiederholter Integration zun¨ achst bez¨ uglich x3 und dann bez¨ uglich (x1 , x2 ) ∈ ω. Wenn wir das Doppelintegral u ¨ber ω in zwei ein-dimensionale Integrale, unter der Annahme, dass ω = {(x1 , x2 , x3 ) : α2 ≤ x1 ≤ α1 , β2 (x1 ) ≤ x2 ≤ β1 (x1 )} umformulieren, erhalten wir: α1 β1 (x1 ) γ1 (x1 ,x2 ) f (x) dx = f (x) dx3 dx2 dx1 Ω
α2
α1
β2 (x1 )
=
γ2 (x1 ,x2 )
f (x1 , x2 , x3 ) dx2 dx3 α2
ω(x1 )
dx1 .
66.4 Das Volumen eines drei-dimensionalen Gebiets
983
x3
x3 = γ1 (x1 , x2 )
x3 = γ2 (x1 , x2 ) x2 x1 ω Abb. 66.1. Integration u achst in der x3 -Richtung ¨ ber ein Volumen, wobei zun¨ integriert wird
Dabei ist ω(x1 ) = {(x2 , x3 ) : β2 (x1 ) ≤ x2 ≤ β1 (x1 ), γ2 (x1 , x2 ) ≤ x3 ≤ γ1 (x1 , x2 )} die Schnittmenge des Gebiets Ω mit einer Ebene mit fester x1 Koordinate. Diese Art und Weise, ein Dreifachintegral in ein ein-dimensionales Integral von Doppelintegralen u ¨ ber Gebietsschnitte zu unterteilen, entspricht dem Aufschneiden eines Brotlaibs oder eines Schinkens in Scheiben. Wir k¨ onnen so Dreifachintegrale f¨ ur allgemeinere Gebiete definieren, indem wir das Gebiet geeignet unterteilen.
66.4 Das Volumen eines drei-dimensionalen Gebiets Wir definieren das Volumen V (Ω) eines Gebiets Ω in R3 durch V (Ω) = dx, Ω
d.h., durch Integration von f (x) = 1 u ur Ω = {x ∈ [0, 1] × ¨ber x ∈ Ω. F¨ [0, 1] × R : γ2 (x1 , x2 ) ≤ x3 ≤ γ1 (x1 , x2 )} gilt: 1 1 γ1 (x1 ,x2 ) dx3 dx1 dx2 V (Ω) = 0
1
0
γ2 (x1 ,x2 ) 1
(γ1 (x1 , x2 ) − γ2 (x1 , x2 )) dx1 dx2 .
= 0
0
Dies entspricht der vorangegangenen Formel, nach der das Volumen zwischen den Oberfl¨ achen γ1 (x1 , x2 ) und γ2 (x1 , x2 ) zum Integral u ¨ ber die Differenz γ1 (x1 , x2 ) − γ2 (x1 , x2 ) gleich ist.
984
66. Mehrfachintegrale
Beispiel 66.2. Das Volumen der Pyramide Ω mit Ecken in (0, 0, 0), (1, 0, 0), (0, 1, 0) und (0, 0, 1) kann durch {x ∈ R3 : 0 ≤ x1 + x2 + x3 ≤ 1, x1 , x2 , x3 ≥ 0} beschrieben werden und mit ω = {(x1 , x2 ) : 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1 − x1 } folgendermaßen berechnt werden:
1−x1 −x2
V (Ω) = ω 1
0
1−x1
dx3 dx1 dx2 = dx
=
Ω
1−x1 −x2
dx3 0
0
1 = 0
0 1−x1
dx2 dx1
1
(1 − x1 − x2 ) dx2 dx1 =
(1 − x1 )2 /2 dx1 = 0
0
1 . 6
Dies stimmt mit den fr¨ uheren Berechnungen u ¨ berein, nach denen das Volumen einer Pyramide gleich 13 Bh ist, wobei B die Grundfl¨ache ist und h die H¨ ohe, vgl. Abb. 66.2. x3
1 x3 = 1 − x1 − x2 x2
1
x2 = 1 − x1 1
x1
Abb. 66.2. Integration u ¨ ber eine Pyramide
66.5 Dreifachintegrale als Grenzwerte Riemannscher Summen Wir k¨ onnen auch Integrale u ¨ber Gebiete in R3 als Grenzwerte Riemannscher Summen N f (x) dx = lim f (xi )dΩi (66.1) Ω
N →∞
i=1
66.6 Substitution bei Dreifachintegralen
985
formulieren, wobei {Ωi }N i=1 eine Unterteilung eines gegebenen Gebiets Ω in St¨ ucke Ωi ist. Diese Teilst¨ ucke besitzen das Volumen V (Ωi ) ≤ dN und die Quadraturpunkte xi ∈ Ωi , wobei dN gegen Null strebt, wenn N gegen Unendlich geht. Die Fehlerabsch¨ atzung (64.20) f¨ ur Doppelintegrale l¨asst sich direkt auf drei Dimensionen verallgemeinern.
66.6 Substitution bei Dreifachintegralen Als N¨ achstes beweisen wir ein Analogon der Substitutionsformel f¨ ur zweidimensionale Integrale. Wir wollen also eine Substitution im Integral f (x) dx = f (x1 , x2 , x3 ) dx1 dx2 dx3 (66.2) Ω
Ω
durchf¨ uhren, wobei Ω ein gegebenes Gebiet in R3 ist und die Integrations˜ → Ω eine eindeutige Abbildung variable x sich in Ω ver¨ andert. Ist g : Ω ˜ auf x = g(y) in Ω, so gilt die folgende Substitutionsformel: von y ∈ Ω f (x) dx = f (g(y))| det g (y)| dy. (66.3) ˜ Ω
Ω
Dabei ist | det g (y)| der Betrag der Determinante der Jacobi-Matrix g (y) von g(y). Rein formal schreiben wir dx = | det g (y)|dy oder | det g (y)| = ¨ ur das Volumen, | dx dy | und | det g (y)| beschreibt die Anderung im Maß f¨ wenn wir von den y-Koordinaten zu den x-Koordinaten wechseln. ˜ i eine kleines Teilgebiet von Ω ˜ und sei Ωi = Um dies zu beweisen, sei Ω ˜ ˜ g(Ωi ) das Bild von Ωi unter der Abbildung x = g(y). W¨are g (y) konstant, ˜ i und folglich w¨ are g(y) linear auf Ω f (x) dx ≈ f (xi )dΩi Ω
i
≈
˜i ≈ f (g(yi ))| det g (yi )|dΩ
i
f (g(y))| det g (y)| dy, ˜ Ω
˜ i }N ist eine Unterteilung von Ω ˜ mit dem jemit xi = g(yi ). Die Folge {Ω i=1 weils gr¨ oßten Durchmesser dN . Wenn wir nun annehmen, dass f (x), f (g(y)) und | det g (y)| Lipschitz-stetig sind, dann ergibt sich die Formel (66.3) ¨ durch Ubergang zum Grenzwert, wenn dN gegen Null strebt.
Sph¨arische Koordinaten Als Beispiel f¨ ur eine besonders wichtige Substitution betrachten wir die sph¨ arischen Koordinaten (x1 , x2 , x3 ) = (r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ)),
986
66. Mehrfachintegrale x3 x = (r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ)) ϕ x2
θ x1
Abb. 66.3. Sph¨ arische Koordinaten
mit x = (x1 , x2 , x3 ) ∈ R3 und r ≥ 0, 0 ≤ θ < 2π, 0 ≤ ϕ < π, vgl. Abb. 66.3. Die Jacobi-Matrix der Abbildung (r, θ, ϕ) → (x1 , x2 , x3 ) lautet: ⎛ ⎞ sin(ϕ) cos(θ) −r sin(ϕ) sin(θ) r cos(ϕ) cos(θ) d(x1 , x2 , x3 ) ⎝ = sin(ϕ) sin(θ) r sin(ϕ) cos(θ) r cos(ϕ) sin(θ) ⎠ d(r, θ, ϕ) cos(ϕ) 0 −r sin(ϕ) und die direkte Berechnung liefert: det d(x1 , x2 , x3 ) = r2 sin(ϕ). d(r, θ, ϕ)
(66.4)
Die Formel f¨ ur die Substitution von kartesischen Koordinaten zu sph¨arischen Koordinaten nimmt folgende Gestalt an: f (x) dx Ω f r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ) r2 sin(ϕ) dr dθ dϕ, = ˜ Ω
˜ ein Teilgebiet von {(r, θ, ϕ) : 0 ≤ r, 0 ≤ θ ≤ 2π, 0 ≤ ϕ ≤ π} ist, wobei Ω ˜ auf Ω ist. so dass (r, θ, ϕ) → x eine eindeutige Abbildung von Ω Beispiel 66.3. Die Einheitskugel B = {x ∈ R3 : |x| ≤ 1, } wird in sph¨ari˜ = {(r, θ, ϕ) : 0 ≤ r ≤ 1, 0 ≤ θ < 2π, schen Koordinaten durch B 0 ≤ ϕ < π} beschrieben. Das Volumen V (B) von B ergibt sich zu: π 2π 1 B= dx = dr dθ dϕ = r2 sin(ϕ) dr dθ dϕ ˜ B π
B
0 2π
sin(ϕ) dϕ
= 0
0
r2 dr = 2 · 2π
dθ 0
0 1
0
4π 1 = . 3 3
66.7 Drehk¨ orper
987
Beachten Sie, dass das Dreifachintegral in ein Produkt von drei ein-dimensionalen Integralen zerf¨ allt, da die Integrationsgrenzen in allen Koordinatenrichtungen feste Zahlen sind und die zu integrierende Funktion ein Produkt von Funktionen unterschiedlicher Variabler ist. Wir haben gezeigt, dass das Volumen der Einheitskugel in R3 gleich ist. Wieder ein wichtiges Ergebnis der Infinitesimalrechnung!
4π 3
66.7 Drehk¨orper Um einen Drehk¨orper zu erzeugen, gehen wir von einer gegebenen (positiven) Funktion f : [a, b] → R aus und betrachten den K¨orper B in R3 , der durch s(x1 , r, θ) = (x1 , r cos(θ), r sin(θ)) dargestellt wird, mit a ≤ x1 ≤ b, 0 ≤ θ < 2π und 0 ≤ r ≤ f (x1 ), vgl. Abb. 66.4. Es gilt: ⎛ ⎞ 1 0 0 d(x1 , x2 , x3 ) ⎝ = 0 cos(θ) sin(θ) ⎠ d(x1 , r, θ) 0 −r sin(θ) r cos(θ) und wir erhalten durch direkte Berechnung det d(x1 , x2 , x3 ) = r. d(x1 , r, θ) Das Koordinatensystem (x1 , r, θ) ist ein Beispiel f¨ ur sogenannte zylindrische Koordinaten, die in Verbindung mit Rotationssymmetrien sehr praktisch sind. x2
x22 + x23 = r = f (x1 ) b
x1
x3
Abb. 66.4. Ein Drehk¨ orper
Das Volumen V (B) von B ergibt sich zu: 2π b f (x1 ) V (B) = r drdx1 dθ = π 0
a
0
a
b
f 2 (x1 ) dx1 .
(66.5)
988
66. Mehrfachintegrale
Beispiel 66.4. Wir betrachten den K¨ orper B, der durch Drehung der Pa√ rabel f (x1 ) = x1 um die x1 -Achse zwischen x1 = 0 und x1 = 1 erhalten wird: 1 π V (B) = π x1 dx1 = . 2 0 Beispiel 66.5. Das Massenzentrum x ¯ eines Drehk¨orpers B, der durch Drehung der Kurve f (x1 ) um die x1 -Achse von x1 = a bis x1 = b erhalten ¯3 = 0 (Rotationssymmetrie) und wird, besitzt die Koordinaten x¯2 = x x ¯1 =
π V (B)
b
x1 f 2 (x1 ) dx1 . a
66.8 Das Tr¨agheitsmoment einer Kugel Das Tr¨agheitsmoment um die x3 -Achse der Kugel B = {x = 1} mit (gleichm¨ aßig verteilter) Gesamtmasse m entspricht m (x2 + x22 ) dx. (66.6) I= V (B) B 1 Wenn sich die Kugel mit der Winkelgeschwindigkeit ω um die x3 -Achse dreht, ergibt sich die gesamte kinetische Energie zu: 1 1 m ω 2 (x21 + x22 ) dx = ω 2 I. (66.7) E= 2 V (B) B 2 Mit Hilfe von sph¨ arischen Koordinaten wird dies zu: I=
2m . 5
(66.8)
Aufgaben zu Kapitel 66 66.1. Begr¨ unden Sie (66.7) und (66.8). 66.2. Beweisen Sie (66.4). 66.3. Berechnen Sie die folgenden Dreifachintegrale: ur Ω = {x ∈ R3 : 0 ≤ xi ≤ 1, i = 1, 2, 3}, 1. Ω x 2 dx, f¨ 2. Ω exp(x1 +x2 +x3 ) dx, f¨ ur Ω = {x ∈ R3 : 0 ≤ xi ≤ 1, i = 1, 2, x3 ≤ x1 +x2 }, ur Ω = {x ∈ R3 : 1 ≤ x ≤ 2}. 3. Ω 1/ x 2 dx, f¨
Aufgaben zu Kapitel 66
989
x3
x3 (0, 1, 1)
(0, 0, 1) (1, 1, 1) x2 (0, 1, 0) (1, 0, 0)
x2 (0, 1, 0)
x1 x1
66.4. Berechnen Sie f¨ ur die Gebiete Ω in obiger Figur das Integral
Ω
(1 − x2 ) dx.
66.5. Berechnen Sie f¨ ur Ω = {(x1 , x2 , x3 ) : x21 + x22 ≤ 1, |x3 | ≤ 1} dx 1. Ω x 2, 2. Das Tr¨ agheitsmoment von Ω bez¨ uglich der x3 -Achse, 3. Das Tr¨ agheitsmoment von Ω bez¨ uglich der x2 -Achse. 66.6. Berechnen Sie die folgenden Mehrfachintegrale: dx, f¨ ur Ω = {x ∈ R3 : x > 1}, 1. Ω exp(−x) x 2. Ω x1 + x2 + x3 + x4 dx, f¨ ur Ω = {x ∈ R4 : 0 ≤ xi ≤ 1, i = 1, 2, 3, 4}, 3. Ω x1 + . . . + xn dx, f¨ ur Ω = {x ∈ Rn : 0 ≤ xi ≤ 1, i = 1, . . . , n}. 66.7. Berechnen Sie die folgenden Mehrfachintegrale: 1. Ω x dx, 2. Ω x dx, 3. Ω x 2 dx, f¨ ur Ω = {x ∈ R3 : x ≤ 1}. 66.8. Versuchen Sie, das Ergebnis in der vorangegangenen Aufgabe auf Rn zu verallgemeinern, indem Sie die Fl¨ ache der Einheitskugel {x ∈ Rn : x = 1} mit Sn bezeichnen. 66.9. das Integral R2 exp(− x 2 ) dx und nutzen Sie das Ergebnis, Berechnen Sie um Rn exp(− x 2 ) dx zu berechnen. 66.10. Bestimmen Sie das Tr¨ agheitsmoment eines Einheitsw¨ urfels bez¨ uglich seiner Diagonale. 66.11. Sei Ey das Gebiet in Rn , definiert dadurch, dass der Absolutbetrag von oßer als y ist, d.h. Ey = {x ∈ Rn : |f (x)| f : Rn → R gr¨ > y}. Sei ferner g(y) das Volumen (Gr¨ oße,Maß) dieses Gebiets, d.h. g(y) = Ey dx. Zeigen Sie durch Ver¨ anderung der Integrationsreihenfolge, dass ∞ |f (x)| dx = g(y) dy. Rn
0
67 Der Satz von Gauss und die Greensche Formel in R2
Mathematik in Hochform: Es sieht eindrucksvoll aus (unverst¨ andlich) und ist f¨ ur jeden, der die Schreibweise durchschaut, trivial. (R. Reagan)
67.1 Einleitung Wir kommen nun zu zwei Ecksteinen der mehr-dimensionalen Infinitesimalrechnung, n¨ amlich dem Satz von Gauss und der Greenschen Formel, wobei wir zwei-dimensional beginnen. Wir werden sehen, dass diese ber¨ uhmten (und n¨ utzlichen) Ergebnisse direkte Folgerungen der wichtigen Gleichung ∂u dx = u n2 ds (67.1) Ω ∂x2 Γ sind, wobei Ω ein Gebiet in R2 mit der Begrenzung Γ ist. Mit n(x) = (n1 (x), n2 (x)) bezeichnen wir die ausw¨arts gerichtete Einheitsnormale zu Γ in x ∈ Γ, d.h. n(x) steht senkrecht zur Tangente an Γ in x, weist aus dem Gebiet Ω hinaus und es gilt: n(x) = 1, vgl. Abb. 67.1. Wir werden sehen, dass diese Formel ein Analogon zum Fundamentalsatz b du dx = u(b) − u(a) (67.2) a dx ist, nach dem das Integral der Ableitung du ¨ber ein Interdx einer Funktion u u vall [a, b] der Differenz zwischen den Funktionswerten in den Endpunkten u(b) und u(a) entspricht.
992
67. Der Satz von Gauss und die Greensche Formel in R2
67.2 Der Spezialfall eines Quadrats Um den Zusammenhang zwischen (67.1) und (67.2) herzustellen, betrachten wir zun¨ achst das Einheitsquadrat [0, 1] × [0, 1] als Gebiet Ω. In diesem Fall ist n2 = 1 f¨ ur Γ1 , n2 = −1 f¨ ur Γ3 und n2 = 0 auf den senkrechten Seiten Γ2 und Γ4 , vgl. Abb. 67.1. Daher ist 1 1 u n2 ds = u(x1 , 1) dx1 − u(x1 , 0) dx1 , 0
Γ
0
falls wir Γ1 durch s(x1 ) = (x1 , 1) und Γ3 durch s(x1 ) = (x1 , 0) parametrisieren. Wenn wir auf der anderen Seite zuerst nach x2 und dann nach x1 integrieren und dabei Gebrauch von (67.2) machen, dann erhalten wir 1 1 1 ∂u ∂u u(x1 , 1) − u(x1 , 0)) dx1 dx = (x1 , x2 ) dx2 dx1 = 0 0 ∂x2 0 Ω ∂x2 1 1 = u(x1 , 1) dx1 − u(x1 , 0) dx1 = u n2 ds. 0
0
Γ
Damit haben wir (67.1) f¨ ur ein Quadrat Ω bewiesen. Wir sehen, dass sich (67.1) daraus ergibt, dass wir (67.2) benutzen und dabei du dx dx durch ∂u dx ersetzen und anschließend nach x integrieren. Das Gesamtergebnis 2 1 ∂x2 ∂u u ber Ω durch das Kurvenintegral von un2 dx ist, dass das Integral von ∂x ¨ 2 2 u ¨ ber die Grenze Γ von Ω ersetzt wird. n = (0, 1) Γ1
Γ n
Γ2 n = (−1, 0)
Ω
n = (1, 0) Γ4
Γ3 n = (0, −1) Abb. 67.1. Links: Ein Gebiet Ω mit Begrenzung Γ und Normaler n. Rechts: Ein Spezialfall
67.3 Der Allgemeinfall Wir betrachten nun ein Gebiet Ω, dass durch zwei Kurven Γ1 , parametrisiert durch s1 (x1 ) = (x1 , γ1 (x1 )) und Γ2 , parametrisiert durch s2 (x1 ) =
67.3 Der Allgemeinfall
993
x2
x2 = γ1 (x1 )
Γ Ω x1 n
x2 = γ2 (x1 ) Abb. 67.2. Ein Gebiet Ω mit zwei Kurven, die die Begrenzung Γ definieren
(x1 , γ2 (x1 )), begrenzt ist. Dabei ist a ≤ x1 ≤ b, und n = (n1 , n2 ) ist die ausw¨ arts gerichtete Normale zu Γ, vgl. Abb. 67.2. Der Beweis von (67.1) h¨ angt von der Schl¨ usselbeobachtung ab, dass , , , ds1 , ( 1 2 , , , dx1 , = 1 + (γ1 ) , n2 = 1 + (γ )2 , 1 , , , ds2 , ( 1 2 , , , dx1 , = 1 + (γ2 ) , n2 = − 1 + (γ )2 . 2
Rein formal ist n2 ds1 = dx1 und n2 ds2 = −dx1 , vgl. Abb. 67.3. dx1 = n2 ds n2 n n = 1
ds
dx1
¨ Abb. 67.3. Die Schl¨ usselbeobachtung: Aus der Ahnlichkeit folgt:
dx1 ds
=
n2 1
Beachten Sie, dass n2 auf der oberen Grenzkurve s1 positiv ist und negativ auf der unteren Grenzkurve s2 . Daher gilt: , , b , ds1 , , , dx1 = un2 ds1 = u(x1 , γ1 (x1 ))n2 , u(x1 , γ1 (x1 )) dx1 , dx1 , a a Γ1 , , b b , ds2 , , dx1 = − un2 ds2 = u(x1 , γ2 (x1 ))n2 , u(x1 , γ2 (x1 )) dx1 . , dx1 ,
Γ2
a
b
a
994
67. Der Satz von Gauss und die Greensche Formel in R2
Wenn wir als N¨ achstes nach x2 und dann nach x1 integrieren und dabei den Fundamentalsatz anwenden, erhalten wir: b γ1 (x1 ) ∂u ∂u ∂u dx = dx2 dx1 = dx2 dx1 a γ2 (x1 ) ∂x2 Ω ∂x2 Ω ∂x2 b b = u(x1 , γ1 (x1 )) dx1 − u(x1 , γ2 (x1 )) dx1 . a
Da
a
u n2 ds = Γ
un2 ds1 +
Γ1
un2 ds2 , Γ2
ergibt sich nun die erw¨ unschte Formel (67.1). Der Beweis kann f¨ ur beliebige Gebiete, die durch glatte Kurven mit Lipschitz-stetigen Tangenten begrenzt sind, verallgemeinert werden. Wir fassen dies in dem folgenden wichtigen Satz zusammen: Satz 67.1 Sei Ω ein Gebiet in R2 mit Begrenzung Γ, ausw¨arts gerichteter Normaler (n1 , n2 ) und differenzierbarer Funktion u : Ω → R. Dann gilt: ∂u dx = u ni ds, i = 1, 2. (67.3) Ω ∂xi Γ Wenn wir (67.3) auf das Produkt vw zweier Funktion v und w anwenden, dann erhalten wir das folgende Analogon f¨ ur die partielle Integration in zwei Dimensionen: Satz 67.2 (Partielle Integration in 2D) Sei Ω ein Gebiet in R2 mit Grenze Γ, ausw¨arts gerichteter Normaler (n1 , n2 ) und v, w : Ω → R. Dann gilt: ∂v ∂w w dx = vw ni ds − v dx, i = 1, 2. (67.4) Ω ∂xi Γ Ω ∂xi Wenn wir (67.3) auf die Komponenten ui einer vektorwertigen Funktion u = (u1 , u2 ) anwenden und u ¨ber i = 1, 2 summieren, erhalten wir den Divergenzsatz oder den Satz von Gauss: ∇ · u dx = u · n ds, (67.5) Ω
Γ
mit u · n = u1 n1 + u2 n2 und ∂ ∂ ∂u1 ∂u2 , + . · (u1 , u2 ) = ∇·u= ∂x1 ∂x2 ∂x1 ∂x2 ∂w ersetzen und u Wenn wir (67.4) anwenden und dabei w durch ∂x ¨ ber i i = 1, 2 summieren, erhalten wir die Greensche Formel: ∇v · ∇w dx = v∂n w ds − v∆w dx, (67.6) Ω
Γ
Ω
67.3 Der Allgemeinfall
wobei ∂n w = ∇w · n =
∂w ∂w n1 + n2 , ∂x1 ∂x2
995
(67.7)
die ausw¨arts gerichtete Ableitung von w auf Γ ist. Wir verwenden die Green¨ sche Formel des Ofteren in der Gestalt v∆w dx − ∆v w dx = v ∂n w ds − ∂n v w ds. (67.8) Ω
Ω
Γ
Γ
Wir erhalten sie, wenn wir (67.6) zweimal anwenden und dabei ausnutzen, dass ∆w = div grad w = ∇ · ∇w ∂ ∂w ∂w ∂w ∂w ∂ ∂ ∂ , , = · = + , ∂x1 ∂x2 ∂x1 ∂x2 ∂x1 ∂x1 ∂x2 ∂x2 2
2
was in Kurzform auch als ∆w = ∂∂xw2 + ∂∂xw2 geschrieben werden kann. 1 2 Wir wollen noch auf das folgende Analogon des Divergenzsatzes hinweisen: ∇ × u dx = n × u ds, (67.9) Ω
Γ
wobei u : Ω → R , ∇ × u = − und n × u = u2 n1 − u1 n2 . (67.9) ist nur eine Umformulierung von ∂u2 ∂u1 u2 n1 − u1 n2 ds, (67.10) − dx = ∂x1 ∂x2 Ω Γ ∂u2 ∂x1
2
∂u1 ∂x2
was aus (67.3) folgt. Wir weisen ferner darauf hin, dass τ = (−n2 , n1 ) eine Einheitstangente an Γ ist, da n = (n1 , n2 ) eine Einheitsnormale ist und (−n2 , n1 ) · (n1 , n2 ) = 0. Dabei ist τ = (−n2 , n1 ) entgegen der Uhrzeigerrichtung von Γ gerichtet, vgl. Abb. 67.4. τ
n Ω
Γ Abb. 67.4. Die Einheitstangente τ = (−n2 , n1 ) an Γ, die mit Hilfe der Normalen n = (n1 , n2 ) definiert wird
67. Der Satz von Gauss und die Greensche Formel in R2
996
Wir schreiben auch oft u2 n1 − u1 n2 ds = u · τ ds = u · ds, Γ
Γ
Γ
wobei wir ds im letzten Integral als den Vektor τ ds interpretieren, wobei wir die alte Bedeutung von ds als Inkrement der Kurvenl¨ange nutzen. Dies stimmt mit folgender Schreibweise u ¨ berein:
b
u(s(t)) · s (t) dt,
u · ds = Γ
a
wobei s : [a, b] → R2 die Begrenzung Γ beschreibt, wie wir es im Kapitel Kurvenintegrale“ eingef¨ uhrt haben. Vorsicht: Wir benutzen hier ds“ in ” ” zwei unterschiedlichen Bedeutungen: Als Inkrement der Kurvenl¨ange (ein Skalar) und als ein Inkrement des Tangentialvektors (ein Vektor). Wir fassen die wichtigen Ergebnisse, die wir in diesem Kapitel hergeleitet haben, folgendermaßen zusammen: Satz 67.3 Sei Ω ein Gebiet in R2 mit Begrenzung Γ , ausw¨arts gerichteter Einheitsnormaler (n1 , n2 ), u : Ω → R2 und v, w : Ω → R. Dann gilt: ∂v dx = v ni ds, i = 1, 2, (67.11) Ω ∂xi Γ Ω
∂v w dx = ∂xi
vw ni ds −
Γ
v Ω
∇ · u dx = Ω
v∆w dx − Ω
u · ds,
(67.14)
v∆w dx,
(67.15)
Γ
v∂n w ds − Ω
v ∂n w ds −
∆v w dx = Ω
Γ
Γ
(67.12) (67.13)
n × u ds = Γ
∇v · ∇w dx = Ω
i = 1, 2,
u · n ds, Γ
∇ × u dx = Ω
∂w dx, ∂xi
∂n v w ds.
(67.16)
Γ
Beispiel 67.1. F¨ ur v(x1 , x2 ) = x1 und i = 1 in (67.11) erhalten wir Ω dx = x n ds = Γ x1 dx2 . Eine interessante Beobachtung ist dabei, dass wir Γ 1 1 die Fl¨ ache Ω dx bestimmen k¨ onnen, beispielsweise eines St¨ uckes Land, in dem wir einfach die Grenze ausmessen und Γ x1 dx2 berechnen. Das Planimeter ist ein mechanisches Ger¨ at zur Berechnung der Fl¨ache ebener Gebiete, das auf diesem Prinzip beruht. Es wurde intensiv von Bauvermessern eingesetzt.
Aufgaben zu Kapitel 67
997
Beispiel 67.2. Sei ∇ × u = 0 im Gebiet Ω zwischen zwei Kurven Γ 1 und Γ2 , die beide im Punkt a beginnen und im Punkt b enden. Dann gilt Γ1 u·ds = Γ2 u · ds, wobei ds die Vektortangente an die Kurven in Richtung von a nach b ist, deren L¨ ange dem Inkrement der Kurvenl¨ange entspricht. Dies ergibt sich daraus, dass nach (67.4) Γ1 ∪Γ− u · ds = Γ u · ds = 0, wobei 2
Γ− 2 die Kurve Γ2 bedeutet mit umgedrehter Richtung von ds. Wir folgern daraus, dass Kurvenintegrale eines Feldes u = (u1 , u2 ) mit ∇ × u = 0, d.h. von einem nicht-drehenden Feld, von dem speziellen Weg“ der Kurve von ” a nach b unabh¨angig sind. Das Integral von u · ds h¨angt nur von den beiden Endpunkten a und b der Integration ab. Felder u = (u1 , u2 ) mit dieser Eigenschaft werden als konservativ bezeichnet. Wie wir unten sehen werden, werden derartige Felder durch ein Potential erzeugt, d.h., sie entsprechen dem Gradientenfeld eines skalaren Potentials ϕ = ϕ(x) mit u = ∇ϕ. Außerdem gilt γ u·ds = ϕ(b)−ϕ(a) f¨ ur eine Kurve von a nach b. So besitzt beispielsweise das Feld u = (x2 , x1 ) die Komponenten u1 (x1 , x2 ) = x2 und ∂u1 2 u2 (x1 , x2 ) = x1 und somit ist ∇u = ∂u onnen ∂x1 − ∂x2 = 1 − 1 = 0. Wir k¨ einfach erkennen, dass u = ∇ϕ f¨ ur ϕ(x) = x1 x2 und dass das Integral von u · ds von einem Punkt a = (a1 , a2 ) nach b = (b1 , b2 ) durch b1 b2 − a1 a2 gegeben wird.
Aufgaben zu Kapitel 67 67.1. Leiten Sie (67.4), (67.5), (67.6) und (67.8) aus (67.3) her. 67.2. (a) Erkl¨ aren Sie, warum (67.1) auch f¨ ur ein Gebiet wie {(x1 , x2) : x1 ≤ ∂u dx |x2 |, x21 + x22 ≤ 1} gilt. (b) Zeigen Sie durch direkte Berechnung von Ω ∂x 2 1/4 und Γ u n2 ds, dass (67.1) f¨ ur u = r sin(v/4) und Ω = {(r cos(v), r sin(v)) : x21 + x22 und 0 < r < 1, 0 < v < 2π} G¨ ultigkeit besitzt. Dabei sind r = v = arccot(x1 /x2 ) f¨ ur x2 > 0, v = arccot(x1 /x2 ) + π f¨ ur x2 < 0 die u ¨ blichen Po∂u als Ausdruck larkoordinaten. Denken Sie daran, dass Sie mit der Kettenregel ∂x 2 ∂u ∂u onnen. von ∂r und ∂v formulieren k¨ 67.3. asst sich u ¨ ber Sei u = (u1 , u2 ) divergenzfrei in Ω mit Begrenzung Γ. Was l¨ ur Punkte x auf Γ aussagen? (a) Γ u · n ds und (b) u(x) · n(x) f¨ 67.4. Sei Γ u · n ds = 0 mit Begrenzung Γ f¨ ur ein Gebiet Ω mit ausw¨ arts gerichteter Normaler n. Was l¨ asst sich u ¨ ber ∇ · u in Ω sagen? (Bevor Sie in ihrer 2 2 ur den Einheitskreis Antwort ganz sicher sind, sollten Sie den Fall u = (x1 , x2 ) f¨ ur alle geschlossenen Kurven γ in Ω, und Ω ber¨ ucksichtigen). Sei γ u · n ds = 0 f¨ asst sich dann u die Ableitungen von ui seien Lipschitz-stetig. Was l¨ ¨ ber u in Ω aussagen? 67.5. Stellen Sie sich eine “Verformung“ von R2 vor, wobei die Punkte x = (x1 , x2 ) durch neue Positionen x + u(x), u = (u1 , u2 ), ui = ui (x) ersetzt werden.
998
67. Der Satz von Gauss und die Greensche Formel in R2
Wir bezeichnen u(x) als Versetzungsfeld und die Jacobi-Matrix u (x) von u(x) als Versetzungstensor (Matrix). Betrachten Sie der Einfachheit halber den Fall ache ui (x) = ai xi , i = 1, 2 und gehen Sie davon aus, dass die Versetzung die “Fl¨ erh¨ alt“, was f¨ ur das verformte Material bedeutet, dass es nicht zusammendr¨ uck” bar“ ist. Zeigen Sie, dass f¨ ur kleine Verformungen div u ≈ 0 gilt. Hinweis: Betrachten Sie x → x + u(x) als Substitution und nutzen Sie eine Tatsache u ¨ ber die Jacobi-Matrix einer Abbildung, die die Fl¨ ache erh¨ alt. 67.6. Betrachten Sie das Vektorfeld u(x) = x/ x 2 . Sei Ω die Scheibe {x ∈ R2 : x − a ≤ 1} und arts gerichteter Einheitsnormaler n. Γ die Begrenzung mit ausw¨ ur a = (2, 0) und a = 0. Stimmen die Ergebnisse mit dem Berechnen Sie Γ u·n ds f¨ Divergenzsatz u ¨ berein? Stellen Sie u in der (x1 , x2 )-Ebene als Pfeilzeichnung“ ” ¨ dar. K¨ onnen Sie eine Ahnlichkeit mit einem Vulkanausbruch feststellen? L¨ asst sich der Divergenzsatz f¨ ur den Fall a = (0, 0) anwenden? ¯ Kurven mit Normalen n und n 67.7. Seien Γ und Γ ¯ , wie in folgender Figur. ¯ ds. Zeigen Sie, dass f¨ ur ∇ · u = 0 gilt: Γ u · n ds = Γ¯ u · n
n
Γ
n ¯ ¯ Γ
" 67.8. Berechnen Sie f¨ ur u =
2x1 x2 , − log(1 1+x2 2
+ x22 )
# das Integral
Γ
u · n ds mit
Γ entsprechend der Kurve in (a) {(x1 , x2 ) : x21 + x22 = 1, xi ≥ 0, i = 1, 2} und (b) {(x1 , x2 ) : x1 = 2 − (x2 − 1)2 , x1 ≥ 1}. Hinweis: Schließen Sie die Kurven und nutzen Sie den Divergenzsatz. 67.9. Zeigen Sie, dass das Feld u = ex1 x2 (1 + x1 x2 , x21 ) nicht-drehend ist und finden Sie ein Potential ϕ, so dass u = ∇ϕ. 67.10. Berechnen Sie die Integrale in (67.16) f¨ ur ein w, das die Differential1 ost und v = − 2π log(x − x ¯). Nehmen Sie an, gleichung −∆w = f in Ω = R2 l¨ ur großes x verschwinden. Zeigen Sie, dass Sie dadurch eidass w und ∂n w f¨ ne Formel f¨ ur w(¯ x) mit Ausdr¨ ucken in f und v erhalten. Hinweis: Nehmen Sie ¯ > } an und lassen Sie gegen Null gehen. Ω = {x ∈ R2 : x − x 67.11. Sei w die L¨ osung von −∆w = f in der oberen Halbebene x2 > 0 und ∂w = g f¨ u r x ur großes x ver− ∂x 2 = 0 und nehmen Sie an, dass w und ∇w f¨ 2 schwinden. Zeigen Sie, dass wir f¨ ur x ¯ = (¯ x1 , 0) auf Γ = {(x1 , x2 ) : x2 = 0} 1 x) = {x:x2 >0} vf dx + {x:x2 =0} vg ds mit v = − 2π log(x − x ¯). Hinerhalten: 12 w(¯ 2 weis: Gehen Sie von Ω = {x ∈ R : x2 > 0, x − x ¯ > } in (67.16) aus und lassen Sie gegen Null gehen.
Aufgaben zu Kapitel 67
999
67.12. Zeigen Sie, dass f¨ ur harmonische Funktionen v und mit w, d.h. Funktionen ∆v = 0 und ∆w = 0, f¨ ur eine geschlossene Kurve Γ gilt: Γ ∂n vw ds = Γ v∂n w ds. 67.13. Bestimmen Sie die Fl¨ ache des Gebiets, das durch die Kurve Γ = {(r cos(v), r sin(v)) : r = 2 + sin(v), 0 ≤ v < 2π} eingeschlossen wird. Hinweis: Integrale der Form sin4 (v) dv und cos4 (v) dv k¨ onnen mit Hilfe partieller Integration, wie folgt, berechnet werden: I = cos4 (v) dv = (1 − sin2 (v)) cos(v) · cos(v) dv = {part. Int.} 1 1 sin(v) − sin3 (v) (− sin(v)) dv = sin(v) − sin3 (v) · cos(v) − 3 3 1 1 (1 − cos2 (v))2 dv = sin(v) − sin3 (v) · cos(v) + sin2 (v) dv − 3 3 1 1 1 (1 − 2 cos2 (v)) dv − I, = sin(v) − sin3 (v) · cos(v) + sin2 (v) dv − 3 3 3 woraus I berechenbar ist.
68 Der Satz von Gauss und die Greensche Formel in R3
Von all denen, die wie ich etwas u ¨ ber dieses Gebiet geschrieben haben, bin entweder ich verr¨ uckt oder ich alleine bin nicht verr¨ uckt. Eine andere M¨ oglichkeit gibt es nicht, es sei denn, (was vielleicht f¨ ur manche so scheinen mag), wir alle sind verr¨ uckt. (Hobbes zu Wallis) Wenn Sie verr¨ uckt sind, werden Sie verstandesm¨ aßig kaum u ¨ berzeugt werden k¨ onnen; andererseits, wenn wir verr¨ uckt w¨ aren, w¨ aren wir nicht in der Lage, dies zu versuchen. (Wallis zu Hobbes)
68.1 Einleitung Wir wollen nun die Ergebnisse des vorangegangenen Kapitels auf drei Dimensionen erweitern. Die zentrale Aussage ist das folgende Analogon zu (67.1): Sei Ω ein Gebiet in R3 mit Begrenzung Γ, dann gilt: ∂u dx = u n3 ds, (68.1) Ω ∂x3 Γ wobei (n1 , n2 , n3 ) die ausw¨ arts gerichtete Normale zu Γ ist. Um dies zu beweisen, gehen wir davon aus, dass Γ aus zwei Fl¨achen Γ1 , definiert durch s1 (x1 , x2 ) = (x1 , x2 , γ1 (x1 , x2 )), und Γ2 , definiert durch s2 (x1 , x2 ) = (x1 , x2 , γ2 (x1 , x2 )), zusammengesetzt ist. Dabei ist (x1 , x2 ) ∈ ω mit einem Parametergebiet ω ⊂ R2 und wir nehmen an, dass Ω = {x ∈ R3 : (x1 , x2 ) ∈ ω, γ2 (x1 , x2 ) < x3 < γ1 (x1 , x2 )}, vgl. Abb. 68.1. Es gilt dann ∂γi ur i = 1, 2 mit γi,j = ∂x , weswegen auf si,1 × si,2 = (1, 0, γi,1 ) × (0, 1, γi,2) f¨ j
1002
68. Der Satz von Gauss und die Greensche Formel in R3
Γ1 gilt: s1,1 × s1,2 =
( )2 + (γ )2 , 1 + (γ1,1 1,2
1 n3 = ( . )2 + (γ )2 1 + (γ1,1 1,2
Auf Γ2 gilt: s2,1 × s2,2 =
( )2 + (γ )2 , 1 + (γ2,1 2,2
1 n3 = − ( . )2 + (γ )2 1 + (γ2,1 2,2
x3 x3 = Γ1 (x1 , x2 )
x3 = Γ2 (x1 , x2 ) x2 x1
Ω
Abb. 68.1. Ein Gebiet Ω, das durch zwei Funktionen Γ1 und Γ2 begrenzt ist
Wenn wir zun¨ achst nach x3 integrieren und dabei den Fundamentalsatz einsetzen, erhalten wir ∂u ∂u dx = dx3 dx1 dx2 ∂x ∂x 3 Ω Ω 3 = u(x1 , x2 , γ1 (x1 , x2 )) dx1 dx2 − u(x1 , x2 , γ2 (x1 , x2 )) dx1 dx2 ω ω = u n3 s1,1 × s1,2 dx1 dx2 + u n3 s2,1 × s2,2 dx1 dx2 ω ω = u n3 ds + u n3 ds = u n3 ds, Γ1
Γ2
Γ
womit (68.1) bewiesen ist. Beachten Sie, dass auf den senkrechten“ Teil” st¨ ucken von Γ gilt: n3 = 0! Dieses Ergebnis l¨asst sich zu ∂u dx = u ni ds, i = 1, 2, 3, (68.2) Ω ∂xi Γ f¨ ur ein beliebiges Gebiet Ω in R3 mit Begrenzung Γ mit ausw¨arts gerichteter Einheitsnormaler (n1 , n2 , n3 ) verallgemeinern.
68.1 Einleitung
1003
Wenn wir (68.2) f¨ ur ein Produkt vw zweier Funktionen v und w anwenden, erhalten wir das Analogon zur partiellen Integration in drei Dimensionen: ∂v ∂w w dx = vw ni ds − v dx, i = 1, 2, 3. (68.3) ∂x ∂x i i Ω Γ Ω Wenn wir (68.3) auf die Komponenten ui einer vektorwertigen Funktion u = (u1 , u2 , u3 ) mit w = 1 anwenden und u ¨ ber i summieren, gelangen wir zum Divergenzsatz oder dem Satz von Gauss in drei Dimensionen: ∇ · u dx = u · n ds. (68.4) Ω
Γ
3 ∂ui ∂u2 ∂u3 ∂ 1 Dabei ist ∇ · u = ( ∂x , ∂ , ∂ ) · (u1 , u2 , u3 ) = ∂u i=1 ∂xi ∂x1 + ∂x2 + ∂x3 = 1 ∂x2 ∂x3 und u · n = u1 n1 + u2 n2 + u3 n3 ist die Komponente von u in Richtung der Normalen n. Steht u f¨ ur die Str¨omung einer Gr¨oße, wie den W¨armefluss oder eine Wasserstr¨ omung, dann repr¨ asentiert u(x) · n(x) in einem Punkt x ∈ Γ den Fluss durch Γ (aus Ω heraus) oder den Normalfluss, so dass also u · n ds Γ
f¨ ur den gesamten Fluss durch Γ steht. Wir erhalten auch das folgende Analogon des Satzes von Gauss f¨ ur eine Funktion u : Ω → R3 : ∇ × u dx = n × u ds, (68.5) Ω
Γ
Die Gleichung ist eine Vektorgleichung! Eine andere Schlussfolgerung aus (68.3) ist die Greensche Formel:
∇v · ∇w dx = Ω
wobei ∂n v = ∇v·n =
v∂n w ds −
Γ
v∆w dx,
∂v ∂v ∂v arts gerichtete normale ∂x1 n1 + ∂x2 n2 + ∂x3 n3 die ausw¨ 2 ∂2w ∂2 w Γ ist und ∆w = ∂x2 + ∂x2 + ∂∂xw2 . Wir benutzen die 1 2 3
Ableitung von v auf Greensche Formel auch oft in der Gestalt v∆w dx − ∆v w dx = v ∂n w ds − ∂n v w ds, Ω
(68.6)
Ω
Ω
Γ
(68.7)
Γ
die sich ergibt, wenn wir (68.6) zweimal anwenden. Wir fassen die in diesem Kapitel hergeleiteten wichtigen Ergebnisse in einem Satz zusammen:
68. Der Satz von Gauss und die Greensche Formel in R3
1004
Satz 68.1 Sei Ω ein Gebiet in R3 mit Begrenzung Γ und ausw¨arts gerichteter Einheitsnormaler n = (n1 , n2 , n3 ). Ferner sei u : Ω → R3 und v, w : Ω → R. Dann gilt ∂v dx = v ni ds, i = 1, 2, (68.8) Ω ∂xi Γ ∂v ∂w w dx = vw ni ds − v dx, i = 1, 2, (68.9) ∂x ∂x i i Ω Γ Ω ∇ · u dx = u · n ds, (68.10)
Ω
Γ
∇ × u dx = Ω
∇v · ∇w dx = Ω
Γ
Ω
Ω
v∆w dx,
v ∂n w ds − Γ
(68.12)
Ω
∆v w dx =
(68.11)
v∂n w ds −
v∆w dx −
n × u ds, Γ
∂n v w ds.
(68.13)
Γ
Beispiel 68.1. Wir berechnen den Gesamtfluss durch die Begrenzung S der ur das Vektorfeld Einheitskugel B = {x ∈ R3 : x = 1} nach außen f¨ u(x) = (x1 + x52 , x2 + x3 x1 , x3 + x1 x2 ), d.h. das Integral u · n ds = ((x1 + x52 )x1 + (x2 + x3 x1 )x2 + (x3 + x1 x2 )x3 ) ds, (68.14) S
S
wobei wir die zu S ausw¨ arts gerichtete Einheitsnormale n in x ∈ S mit n(x) = x benutzt haben. Da div u(x) = 3 f¨ ur x ∈ R3 , erhalten wir nach dem Satz von Gauss: u · n ds = 3 dx = 3V (B) = 4π. S
B
Dies er¨ offnet uns einen schnellen Weg, um das ziemlich schwierige Integral (68.14) zu berechnen.
68.2 George Green George Green (1793–1841), Sohn eines M¨ ullers und autodidaktischer Mathematiker (er verließ die Schule mit 9 nach dem 2. Schuljahr), ver¨offentlichte 1827 selbst¨ andig An Essay on the Application of Mathematical Analysis ” to the Theories of Electricity and Magnetism“, in dem er insbesondere sogenannte Greensche Funktionen einf¨ uhrt, die die Grundlage f¨ ur moderne Theorien u ur ¨ ber partielle Differentialgleichungen bilden. Seine Bedeutung f¨
Aufgaben zu Kapitel 68
1005
die Mathematik wurde erst, insbesondere durch die Arbeiten von Maxwell u ¨ ber den Elektromagnetismus, nach seinem Tod erkannt.
Aufgaben zu Kapitel 68 68.1. Formulieren Sie detailliert und beweisen Sie (68.5) mit Hilfe von (68.2). 68.2. (a) Beweisen Sie die Greensche Formel (68.6) mit Hilfe von Formel (68.3). (b) Beweisen Sie (68.13). x ur a > 0 und j = 0, 1, 2 mit 68.3. Berechnen Sie das Integral Γ x 3 · n ds f¨ 3 2 2 2 Γ = {x ∈ R : x1 + x2 + (x3 − ja) = a2 }, wobei n die ausw¨ arts gerichtete Einheitsnormale zu Γ ist. Interpretieren Sie die Ergebnisse. (−x2 ,x1 ) 1 × ds mit Γ = {x ∈ R3 : 68.4. Berechnen Sie das Integral Γ x2 +x 2 x2 +x2 1
x21 + x22 + x3 = 1}.
2
1
2
arts gerichteter Einheitsnormale n 68.5. Sei Γ die Einheitskugel in R3 mit ausw¨ und berechnen Sie die folgenden Integrale: 1. Γ x · n ds, 2. Γ x × n ds, 1 x 3. Γ x 2 x · n ds, 1 x 4. Γ x 2 x × n ds. x gilt: 68.6. Zeigen Sie, dass f¨ ur ein radiales Feld F (x) = x α x
div F = (α + 2) x . 68.7. Welches ist der kleinstm¨ ogliche Wert des Integrals Γ F · n ds f¨ ur F (x) = (x1 x22 −4x1 x2 , 4x2 x23 +8x2 x3 +5x2 , x21 x3 −2x1 x3 ), wenn Γ eine geschlossene Kurve arts gerichtete Einheitsnormale? Hinweis: Beziehen Sie in R3 ist und n eine ausw¨ alle Abfl¨ usse“ von F ein, d.h. betrachten Sie das Gebiet mit div F ≤ 0. ” ur 68.8. Berechnen Sie das Fl¨ achenintegral Γ F · n ds f¨ F (x) = (x22 , x1 x2 (cos(x1 ))2 + x1 x32 + exp(cos(x1 x23 )), x1 x3 (sin(x1 ))2 − 3x1 x22 x3 ),
wenn Γ der Teil der Kugel x = 2 mit positiver x3 -Komponente ist. Hinweis: Die Funktion F ist nur zu ihrer Verwirrung scheinbar so kompliziert gew¨ ahlt. 68.9. Sei {x1 , x2 , . . . , xN } eine Menge von Punkten in Rn und sei F (x) =
N j=1
1 x − xj . 4π x − xj 2 x − xj
Berechnen Sie das Fl¨ achenintegral Γ F · n ds f¨ ur jede geschlossene Fl¨ ache Γ, die alt, wobei n wie u arts k ≤ N der Punkte {x1 , x2 , . . . , xN } enth¨ ¨ blich die ausw¨ gerichtete Einheitsnormale ist.
1006
68. Der Satz von Gauss und die Greensche Formel in R3
68.10. Zeigen Sie wie im Kapitel Der Albtraum von Newton“, dass die Gra” vitationskraft, die von einer Kugel ausge¨ ubt wird, identisch mit der Kraft ist, wobei alle Masse im Zentrum der Kugel konzentriert ist. Benutzen Sie den Satz von Gauss, um dies zu vereinfachen. Gehen Sie als Start davon aus, dass die Divergenz des Gravitationsfeldes (proportional zur) Dichte ist, d.h. ∇ · F = ρ/c f¨ ur eine Konstante c und nehmen sie sph¨ arische Symmetrie an, d.h., dass die Richtung des Gravitationsfeldes in radialer Richtung aus dem Zentrum der Kugel entspringt. 68.11. Zeigen Sie f¨ ur −∆u = f in Ω, dass dann f¨ ur jede Funktion v, die auf der Begrenzung Γ des Gebiets Ω Null ist, gilt: ∇u · ∇v = f v. Ω
Ω
ur alle Funktionen v gilt: Zeigen Sie ferner, dass f¨ ur ∂n u = g auf Γ f¨ ∇u · ∇v = fv + gv ds. Ω
Ω
Γ
69 Der Satz von Stokes
Ich meine auch, dass ich in der letzten Zeit zu viel nachgedacht habe, aber auf eine andere Weise: Mein Kopf besch¨ aftigt sich fortlaufend mit divergenten Reihen, der Diskontinuit¨ at von beliebigen Konstan¨ ten, . . . Ich dachte mir des Ofteren, dass du mir gut tun w¨ urdest, indem du mich davon abhalten w¨ urdest, mich durch diese Dinge so gefangen nehmen zu lassen. (Stokes, als er 1857 Mary Susanna Robinson bat, seine Frau zu werden)
69.1 Einleitung Der Satz von Stokes besagt, dass f¨ ur differenzierbares u : R3 → R3 (∇ × u) · n ds = u · ds (69.1) Γ
S
gilt, wobei S eine Fl¨ ache in R ist, die durch eine geschlossene Kurve Γ umschrieben wird und n ist eine Einheitsnormale auf S. Dabei ist Γ im Uhrzeigersinn orientiert und die Richtung des Normalenvektors n ist rechtsh¨andig zur Umflaufrichtung von Γ gew¨ ahlt, vgl. Abb. 69.1. Das Integral u · ds 3
Γ
wird Zirkulation von u um Γ genannt. Das Integral (∇ × u) · n ds S
1008
69. Der Satz von Stokes n 1
0.5
0
0. 5
Γ
1 1
1
0.5 0.5
0 0 0. 5
0. 5 1
1
Abb. 69.1. Eine Stokesche Fl¨ ache mit Begrenzungskurve Γ
Abb. 69.2. Stokes im Alter von 22: Nach meinem Abschluss behielt ich meinen ” Wohnsitz im College und nahm mir Privatsch¨ uler. Ich dachte daran, mich an der Grundlagenforschung zu versuchen . . .“
69.2 Der Spezialfall einer Fl¨ ache in einer Ebene
1009
wird als Gesamtfluss der Rotation ∇×u durch die Oberfl¨ache S bezeichnet. Der Satz von Stokes besagt, dass der Gesamtfluss von ∇ × u durch S der Zirkulation von u l¨ angs der Begrenzung Γ von S entspricht. Stokes (1819–1903), ein irischer Mathematiker/Physiker erhielt 1849 eine Professur in Cambridge. Er leistete wichtige Beitr¨age zur Theorie viskoser Fl¨ ussigkeiten, die durch die Navier-Stokes-Gleichungen beschrieben werden, vgl. Abb. 69.2.
69.2 Der Spezialfall einer Fl¨ache in einer Ebene Wir beginnen mit der Betrachtung des Spezialfalles einer ebenen Fl¨ache in der Ebene {x ∈ R3 : x3 = 0} mit der Normalen n ¯ = (0, 0, 1) und mit der Begrenzung Γ, vgl. Abb. 69.3. F¨ ur diesen Fall nimmt der Satz von Stokes folgende Gestalt an: ∂u2 ∂u1 (∇ × u) · n ¯ ds = − dx1 dx2 ∂x1 ∂x2 ¯ ¯ S S = u · ds = (u2 n1 − u1 n2 ) ds. (69.2) Γ
Γ
Wenn wir die Ebene {x3 = 0} mit R2 identifizieren, so erkennen wir darin die Gleichung (67.10), die sich direkt aus (67.3) ergibt. Dieses Ergebnis wird oft auch als zwei-dimensionale Greensche Formel bezeichnet. Wir haben folglich den Satz von Stokes f¨ ur den Fall einer ebenen Fl¨ache S in der Ebene {x3 = 0} schon bewiesen.
Abb. 69.3. Zwei Spezialf¨ alle: Eine ebene Fl¨ ache S¯ mit Normaler n ¯ und Begrenzung Γ und eine gekr¨ ummte Fl¨ ache S mit Normaler n und einer ebenen Begrenzungskurve Γ
Beachten Sie, dass die Richtung der Einheitstangente τ = (−˜ n2 , n ˜ 1 ) lautet, wobei n ˜ = (˜ n1 , n ˜ 2 ) die nach außen gerichtete Richtung der Normalen zu Γ in der Ebene {x : x3 = 0} ist, die von der Spitze der Normalen
1010
69. Der Satz von Stokes
n ¯ = (0, 0, 1) aus betrachtet eine Orientierung gegen den Uhrzeigersinn besitzt. Diese Orientierung ist mit der Spezifikation der Tangente τ konsistent, die im Uhrzeigersinn orientiert sein sollte, wenn wir in Richtung der Normalen zu S¯ schauen. Beispiel 69.1. Sei S = {x ∈ R3 : x ≤ 1, x3 = 0} die Einheitsscheibe in der Ebene {x3 = 0}, die durch die Kurve Γ umschrieben wird, die durch s(t) = (cos(t), sin(t), 0), 0 ≤ t ≤ 2π parametrisiert ist. Wir w¨ahlen n = (0, 0, 1) und u(x) = (−x2 , x1 , 0), so dass ∇ × u(x) = (0, 0, 2). Wir berechnen mit Hilfe des Satzes von Stokes: 2π (∇ × u) ds = 2π, u · ds = (cos2 (t) + sin2 (t))dt = 2π. Γ
S
0
Beispiel 69.2. Nach dem Amp`ereschen Gesetz ist ∇ × H = J, wobei H das magnetische Feld ist und J der elektrische Strom. Nach dem Satz von Stokes ist die Zirkulation von H l¨ angs einer geschlossenen Kurve Γ, die eine Fl¨ ache S beschr¨ ankt, gleich dem Gesamtstrom durch die Fl¨ache S. Der Satz von Stokes ist daher einer der zentralen S¨atze der elektromagnetischen Feldtheorie.
69.3 Verallgemeinerung auf eine beliebige ebene Fl¨ache Wir wollen nun beweisen, dass sowohl die linke wie die rechte Seite der Gleichung von Stokes (∇ × u) · n ds = u · ds S
Γ
unter einer orthogonalen Koordinatentransformation invariant ist. Wir erhalten so einen Beweis des Satzes von Stokes f¨ ur eine vorgegebene ebene Fl¨ ache S durch den Ursprung, indem wir die Koordinaten so w¨ahlen, dass S in der Ebene {x3 = 0} liegt und den Beweis des vorherigen Abschnitts verwenden. Der Fall einer Fl¨ ache S, die nicht durch den Ursprung l¨auft, l¨asst sich auf den vorherigen Fall reduzieren, indem wir einfach den Ursprung des Koordinatensystems verschieben. Um die Invarianz zu beweisen, sei x = Q¯ x eine orthogonale Koordinatentransformation eines Vektors mit den Koordinaten x ¯ auf den Vektor x, wobei Q eine orthogonale 3 × 3-Matrix ist. Die abh¨angige Vektorvariable u wird entsprechend u = Q¯ u transformiert, wobei u die Komponenten in den x-Koordinaten bezeichnet und u ¯ die Komponenten desselben Vektors in den x ¯-Koordinaten. F¨ ur die Komponenten der Integrationsvarias = s¯ (t)dt ergibt sich eine ¨ahnliche Beziehung, da blen ds = s (t)dt und d¯
69.4 Eine durch eine ebene Kurve beschr¨ ankte Fl¨ ache
1011
s (t) = Q¯ s (t), d.h. ds = Qd¯ s. Daher gilt u · ds = Q¯ u · Qd¯ s= Q Q¯ u · d¯ s= u¯ · d¯ s, Γ
Γ
Γ
Γ
woraus sich die Invarianz der rechten Seite von (69.1) ergibt. Um die Invarianz der linken Seite von (69.1) zu beweisen, nutzen wir die Kettenregel und erhalten so die folgende Beziehung zwischen dem Gradi¯ bez¨ enten ∇ bez¨ uglich x und dem Gradienten ∇ uglich x ¯: ¯ ∇ = Q∇. Die direkte Berechnung ergibt nun ¯ × Q¯ ¯ ×u (∇ × u) · n = (Q∇ u) · Q¯ n = (∇ ¯) · n ¯,
(69.3)
womit die Invarianz bewiesen ist, da d¯ x = dx. Wir weisen darauf hin, dass (69.3) zur Beziehung (Qa × Qb) · Qc = (a × b) · c mit a, b, c ∈ R3 analog ist. Diese Gleichung bringt die Invarianz des Volumens, das durch die drei Vektoren a, b und c aufgespannt wird, unter orthogonalen Koordinatentransformationen zum Ausdruck.
69.4 Verallgemeinerung auf eine durch eine ebene Kurve beschra¨nkte Fla¨che Sei S eine Fl¨ ache, die durch eine Kurve Γ beschr¨ankt ist, die in der Ebene {x3 = 0} liegt, vgl. Abb. 69.3. Wir gehen allerdings nicht davon aus, dass ache in der Ebene {x3 = 0} mit S in {x3 = 0} enthalten ist. Sei S¯ die Fl¨ der Begrenzung Γ und sei Ω das Volumen, das durch die Fl¨ache S und die ebene Fl¨ ache S¯ eingeschlossen wird. Da ∇ · (∇ × u) = 0, ergibt sich nach dem Divergenzsatz, dass ∇ · (∇ × u) dx = ∇ × u · n ds + ∇ × u · n ds, (69.4) 0= Ω
¯ S
S
wobei n die nach außen gerichtete Einheitsnormale an die Begrenzung ∂Ω ¯ so folgt von Ω ist. Ist n eine Normale zu S und n ¯ = −n eine Normale zu S, aus (69.4), dass ∇ × u · n ds = ∇×u·n ¯ ds. S
¯ S
1012
69. Der Satz von Stokes
Wenn wir den Satz von Stokes auf S¯ anwenden, erhalten wir ∇ × u · n ds = ∇×u·n ¯ ds = u · ds, ¯ S
S
Γ
womit wir den Satz von Stokes f¨ ur die Fl¨ ache S, die durch die ebene Kurve Γ begrenzt ist, bewiesen haben. Ein Beweis f¨ ur den Satz von Stokes f¨ ur den Fall einer allgemeinen Kurve ist in Aufgabe 69.1 skizziert. Wir fassen zusammen: Satz 69.1 (Satz von Stokes) Sei S eine Fl¨ache in R3 mit der Einheitsnormalen n. Sei ferner Γ eine Begrenzung von S, deren Umlaufrichtung rechtsh¨andig zur Richtung von n ist. Dann gilt (∇ × u) · n ds = u · ds. Γ
S
Wir wollen noch folgende wichtige direkte Folgerung des Satzes von Stokes formulieren: Satz 69.2 Sei u : Ω → R3 f¨ ur ein Gebiet Ω in R3 ein differenzierbares Vektorfeld, so dass u · ds = 0 Γ
f¨ ur alle geschlossenen Kurven Γ in Ω. Dann ist ∇ × u = 0 in Ω.
Aufgaben zu Kapitel 69 69.1. Beweisen Sie den Satz von Stokes f¨ ur eine Kurve Γ, die durch s(t) = (x1 (t), x2 (t), f (x1 (t), x2 (t))), t ∈ [a, b] gegeben ist, mit f : R2 → R. Dadurch wird eine Fl¨ ache Ω = {x ∈ R3 : x3 − f (x1 , x2 ) = 0} in R3 begrenzt. Hinweis: ˜ die durch Die Projektion von Γ auf die x1 x2 -Ebene entspricht der Kurve Γ, ˜ s˜(t) = (x1 (t), x2 (t), 0) dargestellt wird, wodurch das Gebiet Ω in der x1 x2 -Ebene begrenzt wird. Zeigen Sie, indem Sie ui = ui (x1 , x2 , f (x1 , x2 )) schreiben, dass b ∂f ∂f u1 x1 + u2 x2 + u3 dt u · ds = x1 + x2 ∂x1 ∂x2 a Γ b ∂f ∂f = u1 + u3 x1 + u2 + u3 x2 dt ∂x1 ∂x2 a ∂f ∂f , u2 + u3 = u1 + u3 · ds = I. ∂x1 ∂x2 ˜ Γ Nutzen Sie dann den Satz von Stokes f¨ ur eine ebene Kurve, wie er oben gezeigt wurde, um zu zeigen, dass ∂ ∂f ∂f ∂ u2 + u3 − u1 + u3 dx I= ∂x1 ∂x2 ∂x2 ∂x1 ˜ Ω
Aufgaben zu Kapitel 69
1013
und beweisen Sie, indem Sie die Ableitungen ausf¨ uhren und die entsprechenden Berechnungen durchf¨ uhren, dass I = (∇ × u) · n ds, Ω
mit n ds =
∂f ∂f (− ∂x , − ∂x , 1) dx. 1 2
69.2. Beweisen Sie die Gleichung Ω ∇ × u dx = Γ n × u ds, wobei Ω eine Unterarts gerichteter Einheitsnormalen menge von R3 ist mit Begrenzung Γ und ausw¨ n. Wenden Sie dazu den Divergenzsatz auf u × a an, wobei a ein beliebiger konstanter Vektor ist. 69.3. Untersuchen Sie die Beziehung zwischen der Greenschen Formel (67.9) in der Gestalt von (67.10) und dem Divergenzsatz, der auf das zwei-dimensionale Gebiet S mit der Begrenzung Γ angewendet wird: ∂v2 ∂v1 dx1 dx2 = (v1 n1 + v1 n2 ) ds , + ∂x1 ∂x2 S Γ wobei (u1 , u2 ) = (−v2 , v1 ) gelten soll, was einer Drehung des Vektors (v1 , v2 ) um π/2 gegen den Uhrzeigersinn entspricht. Erkl¨ aren Sie, wie der Uhrzeigersinn im Satz von Stokes in (67.9) zu einer Richtung gegen den Uhrzeigersinn wird. 69.4. Berechnen Sie das Integral (x21 x2 , −x31 ) x 4 · ds, Γ
wobei Γ die Kurve in der x1 x2 -Ebene zwischen (1, 0) und (0, 1) ist, die durch (x1 (t), x2 (t)) = (cos(t)15 , sin(t)17 ), 0 ≤ t ≤ π/2 definiert ist. 69.5. Berechnen Sie das Integral 1 (−x2 , x1 , x3 ) · ds, 2 2 x + x x Γ 1 2 unfmal wobei Γ eine Kurve ist, die auf dem Einheitskreis in der x1 x2 -Ebene f¨ gegen den Uhrzeigersinn verl¨ auft, darauf zweimal im Uhrzeigersinn und dann wiederum viermal gegen den Uhrzeigersinn. 69.6. Beweisen Sie mit Hilfe des Satzes von Stokes, dass v ds = n × ∇v ds, Γ
S
3
wobei S eine Fl¨ ache in R ist, die durch die geschlossene Kurve Γ begrenzt ist. Hinweis: Nutzen Sie den Satz von Stokes mit u = va f¨ ur einen beliebigen Vektor a in R3 . 69.7. Zeigen Sie durch direkte Berechnung den Satz von Stokes f¨ ur (a) den Halbkreis S = {x ∈ R3 : x = 1, x3 ≥ 0} und u = (x2 , 2x3 , 3x1 ), (b) S = {x ∈ R3 : x3 = 1 − x21 − x22 , x3 ≥ 0}.
1014
69. Der Satz von Stokes
ache 69.8. (a) Sei Ω ein Gebiet in R2 mit Grenzkurve Γ. Zeigen Sie, dass die Fl¨ A(Ω) durch die Formel 1 u · ds, A(Ω) = 2 Γ gegeben wird, mit u(x) = (−x2 , x1 ) und Γ gegen den Uhrzeigersinn. Nutzen Sie dieses Ergebnis, um zu zeigen, dass die Fl¨ ache, die durch die Ellipse x = (a cos(t), b sin(t)), 0 ≤ t ≤ 2π mit den Halbachsen a und b beschr¨ ankt ist, gleich πab ist. (b) Versuchen Sie ein mechanisches Instrument zur Messung der Fl¨ ache eines Gebiets in R2 zu konstruieren (Planimeter).
70 Potentialfelder
Er ist ein sehr großer, schlaksig aussehender Mann mit Schnurrbart, ergrauendem Bart, einer etwas rauen Stimme und er ist ziemlich taub. Er war ungewaschen, mit seiner Kaffeetasse und Zigarre. Einer seiner Fehler ist es, dass er die Zeit vergisst. Er zieht seine Uhr hervor, merkt, dass es nach drei Uhr ist und rennt hinaus, ohne auch nur den Satz zu beenden. (Thomas Hirst u ¨ ber Dirichlet, 1850)
70.1 Einleitung Wir wissen aus dem Kapitel Kurvenintegrale“, dass Potentialkraftfelder ” eine wichtige Rolle in der Mechanik spielen. Sei u : Ω → R3 eine gegebene ufen, Vektorfunktion, wobei Ω ein Gebiet in R3 ist. Wie k¨onnen wir dann pr¨ ob u(x) ein Potentialfeld ist, d.h. ob es eine skalare Funktion oder ein skalares Potential ϕ gibt, so dass u(x) = ∇ϕ(x)
f¨ ur x ∈ Ω ?
(70.1)
Wir erinnern daran, dass bei einer Parametrisierung s : [0, 1] → R3 einer Kurve Γ von a = s(0) nach b = s(1) sich die Arbeit im Potentialfeld u = ∇ϕ entlang Γ wie folgt errechnet: 1 1 dϕ(s(t)) dt = ϕ(b) − ϕ(a). u · ds = ∇ϕ(s(t)) · s (t) dt = dt 0 0 Γ Insbesondere ist die Arbeit f¨ ur alle Kurven von a nach b identisch. Ist die Kurve geschlossen mit ϕ(1) = ϕ(0), dann ist die Arbeit f¨ ur die Bewegung
1016
70. Potentialfelder
entlang der Kurve gleich Null. Ein Feld mit der Eigenschaft, dass die Arbeit entlang einer geschlossenen Kurve gleich Null ist, wird als konservatives Feld bezeichnet. Ein Potentialfeld ist daher ein konservatives Feld. Ein wichtiges Beispiel f¨ ur ein Potentialfeld ist das Gravitationsfeld einer Masse m im Ursprung: m x u(x) = −m = ∇ . x3 x Dabei haben wir die Einheiten so normiert, dass die Gravitationskonstante gleich Eins ist. Das elektrische Feld einer Ladung m im Ursprung besitzt die gleiche Gestalt. F¨ ur diesen Fall steht das Potential ϕ(x) = m/x f¨ ur die potentielle Energie (der Gravitation oder der elektrischen Wechselwirkung) und die Kurvenintegrale Γ u · ds = ϕ(b) − ϕ(a) entsprechen der Arbeit, die aufzubringen ist, um eine Einheitsmasse oder eine Einheitsladung entlang Γ von a nach b zu bewegen.
70.2 Ein rotationsfreies Feld ist ein Potentialfeld Wir haben bereits fr¨ uher gesehen, dass ein Potentialfeld u = ∇ϕ rotationsfrei ist, d.h., dass ∇ × u = ∇ × (∇ϕ) = 0. Dies ergibt sich aus einer 2 2 ϕ ϕ = ∂x∂j ∂x . Anders formuliert, so direkten Berechnung mit Hilfe von ∂x∂i ∂x j i ist ∇ × u = 0 in Ω eine notwendige Bedingung, damit u ein Potentialfeld in Ω ist. Wir wollen nun beweisen, dass die Bedingung ∇ × u = 0 in Ω eine hinreichende Bedingung ist, damit u ein Potentialfeld in Ω ist, wenn Ω konvex ist. Wir erinnern daran, dass Ω konvex ist, wenn f¨ ur zwei beliebige Punkte x ¯ und x in Ω auch die Strecke x ¯ +t(x− x ¯), 0 ≤ t ≤ 1 zwischen x ¯ und x vollst¨ andig in Ω liegt, vgl. Abb. 70.1. Konvexit¨at impliziert insbesondere, dass Ω keine L¨ocher“ besitzt. Wir fassen also zusammen, dass u dann und ” nur dann ein Potentialfeld in einem konvexen Gebiet Ω ist, wenn u in Ω rotationsfrei ist. Oder anders formuliert, so gilt dann und nur dann u = ∇ϕ in Ω f¨ ur ein Potential ϕ, wenn ∇ × u = 0 in Ω.
Abb. 70.1. Ein konvexes und zwei nicht konvexe Gebiete
Wir f¨ uhren den Beweis so aus, dass wir ein Potential ϕ konstruieren, so dass ∇ϕ = u f¨ ur ein vorgegebenes rotationsfreies Feld u(x) im konvexen
70.2 Ein rotationsfreies Feld ist ein Potentialfeld
1017
Gebiet Ω. F¨ ur die Konstruktion w¨ ahlen wir einen festen Punkt x ¯ in Ω. F¨ ur jeden Punkt x sei Γx eine Kurve in Ω, die x ¯ mit x verbindet und wir definieren u · ds. (70.2) ϕ(x) = Γx
x ¯ Ω Γx
x
Abb. 70.2. Eine Kurve Γx in Ω, die x ¯ mit x verbindet
Wir beweisen zun¨ achst, dass ϕ(x) von der Wahl der Kurve Γx von x ¯ ˜ x seien zwei Kurven von x ¯ nach x unabh¨ angig ist. Angenommen, Γx und Γ nach x. Zusammen bilden sie eine geschlossene Kurve Γ, die eine Fl¨ache S begrenzt. Nach dem Satz von Stokes ergibt sich somit: u · ds = ± (∇ × u) · n ds = 0, Γ
S
da ∇ × u = 0 auf S. Nun gilt u · ds = Γ
u · ds −
Γx
˜x Γ
u · ds,
wenn wir Γ mit derselben Richtung betrachten wie Γx und folglich in ent˜ x . Wir folgern, dass gegengesetzter Richtung zu Γ u · ds = u · ds, ˜x Γ
Γx
woraus sich die Unabh¨ angigkeit von der Wahl der Kurve, die x¯ mit x verbindet, ergibt. Als N¨ achstes beweisen wir, dass die Funktion ϕ(x), die durch (70.2) definiert wird, f¨ ur x ∈ Ω die Gleichung ∇ϕ(x) = u(x) erf¨ ullt. Dazu w¨ahlen ¯ verbindet und teilweise entlang der x1 -Achse wir eine Kurve Γx , die x mit x oder der x2 -Achse oder entlang der x3 -Achse verl¨auft, vgl. Abb. 70.3. Sei die Laufrichtung entlang der x1 -Achse wie in Abb. 70.3, so erhalten wir ein x ˆ nahe bei x, so dass x1 u1 (t, x2 , x3 ) dt . ϕ(x) − ϕ(ˆ x) = x ˆ1
1018
70. Potentialfelder
x ¯
Ω
Γx x
x ˆ
Abb. 70.3. Eine Kurve Γx , die x und x ¯ verbindet und teilweise entlang der auft x1 -Achse verl¨
Nach dem Fundamentalsatz folgt daraus, dass ∂ϕ (x) = u1 (x). ∂x1 ¨ Ahnlich erhalten wir
∂ϕ ∂xi (x)
= ui (x) f¨ ur i = 2, 3. Wir fassen zusammen:
ur Satz 70.1 Wenn f¨ ur u : Ω → Rd auf einem konvexen Gebiet in Rd f¨ d = 2, 3 gilt, dass ∇ × u(x) = 0 f¨ ur alle x ∈ Ω, dann gibt es eine Funktion ϕ : Ω → R, so dass u(x) = ∇ϕ(x) f¨ ur alle x ∈ Ω.
70.3 Ein Gegenbeispiel fu ¨r ein nicht konvexes Ω Wir betrachten die Funktion u : Ω → R2 , die durch u(x) = (−x2 , x1 )/x2 mit Ω = {x ∈ R2 : x = 0} definiert ist. Diese Funktion erf¨ ullt ∇ × u(x) =
∂u1 −2x1 x2 −2x1 x2 ∂u2 − = − =0 ∂x1 ∂x2 x4 x4
f¨ ur x ∈ Ω.
Nichtsdestotrotz kann u(x) nicht in der Form u(x) = ∇ϕ(x) f¨ ur x ∈ Ω geschrieben werden. Dies ergibt sich daraus, dass f¨ ur die geschlossene Kurve Γ, die durch s(t) = r(cos(t), sin(t)), 0 ≤ t < 2π gegeben wird, gilt:
u · ds =
Γ
0
2π
1 2 r dt = 2π, r2
wohingegen Γ u · ds = 0 gelten sollte, falls u(x) = ∇ϕ(x), da Γ geschlossen ist. Der Grund liegt darin, dass in diesem Fall Ω nicht konvex ist. Der Punkt x = 0 geh¨ ort nicht zu Ω, d.h., Ω besitzt ein Loch“. Wir k¨onnen Ω nicht ” erweitern, um x = 0 einzubeziehen, da die Funktion u(x) in x = 0 singul¨ar und insbesondere nicht Lipschitz-stetig ist.
Aufgaben zu Kapitel 70
1019
Aufgaben zu Kapitel 70 70.1. Finden Sie, falls m¨ oglich, ein Potential ϕ f¨ ur (a) u(x) = (x1 , x2 , x3 ) (b) u(x) = (x3 , x1 , x2 ) (c) u(x) = (x22 − x3 , 2x1 x2 , 3x23 − x1 ). 70.2. Wir wiederholen von oben, dass ∇ × u = 0 dann und nur dann, wenn u = ∇ϕ f¨ ur ein ϕ. Wir stellen nun die Frage, ob dann und nur dann ∇ · u = 0, wenn u = ∇ × ψ f¨ ur ein (Vektor-)Potential ψ gilt. Beachten Sie, dass wir bereits wissen, dass der dann-Teil“ der Aussage wahr ist, d.h., dass ∇ · u = 0, wenn u = ∇ × ψ f¨ ur ein ” ψ. Es zeigt sich, dass auch der und nur dann, wenn-Teil“ wahr ist, d.h. f¨ ur ∇ · u = 0 ” k¨ onnen wir ein (Vektor-)Potential ψ konstruieren, so dass u = ∇×ψ. Beweisen Sie 1 dies mit Hilfe der Konstruktion ψ(x) = 0 u(tx)×tx dt unter der vereinfachenden Annahme, dass ∇ · u in ganz R3 definiert ist. 70.3. Erweitern Sie das obige Gegenbeispiel auf die Funktion u : R3 → R3 , die durch u(x) = (−x2 , x1 , 0)/ x 2 gegeben ist. Durch diese Funktion wird das Magnetfeld um einen Leiter l¨ angs der x3 -Achse beschrieben.
71 Massenschwerpunkt und archimedisches Prinzip*
Das einfachste Schulkind ist heutzutage mit Tatsachen vertraut, f¨ ur die Archimedes sein Leben geopfert h¨ atte. (Ernest Renan)
71.1 Einleitung Wir wenden uns nun der Stabilit¨ atsuntersuchung f¨ ur schwimmende K¨orper zu und untersuchen dabei auch die Frage, wie ein großes Schiff oder ein Segelboot entworfen werden muss, so dass es nicht umkippt. Ein Beispiel f¨ ur einen ung¨ unstigen Entwurf liefert das Kriegsschiff Vasa, das auf seiner Jungfernfahrt am 10. August 1628 im Hafen von Stockholm umkippte und zusammen mit 50 von 150 Mann Besatzung sank. Bei der anschließenden Gerichtsverhandlung wurde entschieden, dass das Schiff wohl gebaut aber ” schlecht proportioniert“ war und niemand wurde f¨ ur das Ungl¨ uck f¨ ur schuldig befunden. Das Schiff ist nun im Vasa Museum in Stockholm ausgestellt. Offensichtlich kam die Instabilit¨ at der Vasa u ¨berraschend. Die Vasa wurde nach einem neuen Entwurf mit zwei statt einem Kanonendeck f¨ ur schwere Artillerie gebaut, und der geplante Ballast mit Steinen war als Gegengewicht nicht ausreichend. Die alten Gesetze f¨ ur den Schiffbau waren offensichtlich nicht f¨ ur den neuen Entwurf anwendbar, und Infinitesimalrechnung und wissenschaftliche Berechnungen waren zu der Zeit f¨ ur glaubw¨ urdige Vorhersagen zu primitiv. Wozu w¨ aren wir heute mit ein bisschen Infinitesimalrechnung in der Lage? Wir beginnen mit dem Begriff des Massenschwerpunkts, fahren dann
1022
71. Massenschwerpunkt und archimedisches Prinzip*
mit dem archimedischen Prinzip fort und stellen die Frage nach der Stabilit¨ at schwimmender K¨ orper.
Abb. 71.1. 10. August 1628: Die Vasa wird instabil und sinkt
71.2 Massenschwerpunkt Wir betrachten einen K¨ orper B, der das Volumen V in R3 einnimmt. Wir nehmen dazu an, dass die Dichte des K¨ orpers in x durch ρ(x) gegeben wird. Die Gesamtmasse m(B) des K¨ orpers betr¨ agt: ρ(x) dx. m(B) = V
Der Massenschwerpunkt x ¯ = (¯ x1 , x ¯2 , x ¯3 ) ∈ R3 des K¨orpers B wird durch ρ(x) dx = xi ρ(x) dx , i = 1, 2, 3 x ¯i V
V
definiert, d.h., xi ρ(x) dx x ¯i = V , ρ(x) dx V
i = 1, 2, 3.
71.2 Massenschwerpunkt
1023
In Vektorschreibweise lautet dies: xρ(x) dx x¯ = V . ρ(x) dx V Wir wollen nun die Bedeutung des Begriffs des Massenschwerpunkts mit Hilfe des Begriffs des Drehmoments erl¨ autern. Dazu betrachten wir die Wirkung eines senkrechten Gravitationskraftfelds −e3 mit Einheitsst¨arke, das auf den K¨ orper B einwirkt, wobei die Koordinatenrichtung e3 senkrecht nach oben orientiert ist. Das Drehmoment um einen Punkte x¯, das eine Kraft F , die in x angreift, aus¨ ubt, lautet: (x − x¯) × F = −F × (x − x¯), vgl. Abb. 71.2. Anders formuliert, so ist das Drehmoment ein Vektor, der senkrecht zu der Ebene ist, die durch die Richtung der Kraft und den Hebelarm x − x ¯ aufgespannt wird. Der Betrag entspricht dem Betrag der Kraft F multipliziert mit dem Abstand zwischen Punkt x ¯ und dem Angriffspunkt x. x3
x D
x−x ¯ F x ¯ D
F
x2
x1 Abb. 71.2. Das Drehmoment D = (x − x ¯) × F um den Punkt x ¯ einer in x angreifenden Kraft F
Das Drehmoment um einen gegebenen Punkt x ¯, das durch das Schwerkraftfeld (unter der Annahme einer Gravitationsbeschleunigung g = 1) im Punkt x mit dem Massenelement ρ(x) dx hervorgerufen wird, entspricht: ¯). ρ(x) dx e3 × (x − x
1024
71. Massenschwerpunkt und archimedisches Prinzip*
Das Gesamtdrehmoment D des Gravitationsfeldes −e3 f¨ ur den K¨orper B um x ¯ ergibt sich folglich zu: D = e3 × ρ(x)(x − x¯) dx = 0, V
wobei wir die Definition des Massenschwerpunkts benutzen. Das Drehmoment um x¯ verschwindet also, was bedeutet, dass der K¨orper ausbalanciert ist, wenn er im Punkt x ¯ unterst¨ utzt wird, vgl. Abb. 71.3. Genauer formuliert, gilt ρ(x)x dx − x ¯ ρ(x) dx = 0 (71.1) D = e3 × V
dann und nur dann, wenn
V
xi ρ(x) dx x ¯i = V V ρ(x) dx
f¨ ur i = 1, 2. Das heißt, dass der K¨ orper ausbalanciert ist, wenn er in einem utzt wird mit x1 = x ¯1 , x2 = x ¯2 , wohingegen Punkte x = (x1 , x2 , x3 ) unterst¨ ahlt werden kann, vgl. Abb. 71.3. Daher wird der K¨orper x3 beliebig gew¨ unabh¨ angig von seiner Orientierung ausbalanciert sein, wenn er in seinem Massenschwerpunkt x ¯ unterst¨ utzt wird. Wird der K¨orper in einem anderen Punkt x als dem Massenschwerpunkt x ¯ unterst¨ utzt, so ist er dann und nur dann balanciert, wenn x¯ − x zur Richtung des Gravitationsfeldes parallel ist.
Abb. 71.3. Ein in seinem Massenschwerpunkt unterst¨ utzter K¨ orper in zwei stabilen Positionen und ein K¨ orper, der in einem Eckpunkt unterst¨ utzt wird; balanciert aber instabil
Beispiel 71.1. Wir berechnen den Massenschwerpunkt x ¯ einer d¨ unnen dreieckigen Platte mit einheitlicher Dicke, die in der Ebene den Bereich Ω = {x ∈ R2 : 0 ≤ x1 , x2 , x1 + x2 ≤ 1} einnimmt. Wir erhalten xi dx 1 1/6 = . x ¯i = Ω = 1/2 3 dx Ω
71.3 Das archimedische Prinzip
1025
Beispiel 71.2. Wir berechnen den Massenschwerpunkt der Halbkugel Ω = {x ∈ R3 : x ≤ 1, x3 ≥ 0}. Aus Symmetriegr¨ unden ist x¯1 = x¯2 = 0. F¨ ur arischen Koordinaten: x ¯3 erhalten wir mit Hilfe von sph¨
2π
π/2
1
r cos(ϕ) r2 sin(ϕ) drdϕdθ
x3 dx = 0
Ω
d.h., x ¯3 =
0
0
) 1 *1 1 sin(2ϕ) r4 dϕdθ = 2 4 0 0 0 2π ) * π/2 1 1 2π 1 − cos(2ϕ) dθ = dθ = π/4, = 4 0 4 8 0 0
Ω
x3 dx/
2π
Ω
π/2
dx =
π/4 2π/3
= 38 .
71.3 Das archimedische Prinzip Das archimedische Prinzip besagt, dass die Auftriebskraft eines vollst¨andig eingetauchten K¨ orpers B (i) dem Gewicht der verdr¨angten Fl¨ ussigkeit entspricht und (ii) senkrecht zum Massenschwerpunkt der verdr¨angten Fl¨ ussigkeit, den wir als Auftriebszentrum cb bezeichnen, einwirkt. Wir wollen diese Tatsache nun mit Hilfe vektorieller Infinitesimalrechnung beweisen. Die Kraft durch die Fl¨ ussigkeit, die auf ein Element ds = ds(x) der Fl¨ache S eines K¨ orpers B im Punkt x einwirkt, entspricht −p(x)n(x) ds, wobei p(x) der Druck der Fl¨ ussigkeit ist und n(x) ist die ausw¨arts (von B) gerichtete Einheitsnormale an S in x. Die gesamte Druckkraft auf B betr¨agt daher F = − p(x)n(x) ds(x) = − pn ds. S
Da
V
S
∂p dx = ∂xi
pni ds,
i = 1, 2, 3,
S
wobei V dem Volumen von B entspricht, erhalten wir F =− ∇p(x) dx. V
Der Druck p(x) in einer ruhenden Fl¨ ussigkeit, der als hydrostatischer Druck bezeichnet wird, ergibt sich aus p(x) = ρz(x) + p0 . Dabei ist z(x) die Tiefe, ρ die konstante Dichte der Fl¨ ussigkeit und p0 der Druck auf die Oberfl¨ ache der Fl¨ ussigkeit, vgl Abb. 71.4.
1026
71. Massenschwerpunkt und archimedisches Prinzip* p0
z
p Abb. 71.4. Hydrostatischer Druck p(x) = ρz(x) + p0
Die Druckkraft in einem Punkt x ist in alle Richtungen gleich groß und ihr Betrag p(x) entspricht dem Gewicht ρz(x) der Fl¨ ussigkeitss¨aule u ¨ ber dem Punkte x zuz¨ uglich dem Oberfl¨ achendruck p0 durch die Atmosph¨are. Wir folgern, dass ∇p(x) = −ρe3 , wobei wir annehmen, dass die Koordinatenrichtung e3 senkrecht und aufw¨ arts gerichtet ist. Daher ist F = ρ dx e3 = M e3 , V
wobei M = V ρ dx dem Gesamtgewicht der verdr¨angten Fl¨ ussigkeit entspricht. Damit ist der erste Teil des archimedischen Prinzips bewiesen. Als N¨ achstes erhalten wir f¨ ur das Gesamtdrehmoment D aus den Fl¨ ussigkeitsdruckkr¨ aften auf S: D = (x − x¯) × (−p(x)n(x)) ds(x) = n(x) × p(x)(x − x¯) ds. S
S
Wenn wir ber¨ ucksichtigen, dass n × F ds = ∇ × F dx, S
V
so ergibt sich: ∇ × (p(x)(x − x ¯)) dx.
D= V
Nun ist aber ∇ × (p(x)(x − x ¯)) = ∇p × (x − x ¯) + p ∇ × (x − x ¯).
71.4 Die Stabilit¨ at schwimmender K¨ orper
1027
Da ∇ × (x − x ¯) = 0, folgt, dass D= ∇p × (x − x¯) dx = − ρ(x − x¯) dx × e3 . V
V
Das Drehmoment D verschwindet folglich, wenn f¨ ur x ¯ gilt: ρ dx = xi ρ dx f¨ ur i = 1, 2. x ¯i V
V
Wir fassen zusammen, dass die Auftriebskraft senkrecht aufw¨arts gerichtet ist und l¨ angs einer senkrechten Linie durch den Massenschwerpunkt der verdr¨ angten Fl¨ ussigkeit einwirkt. Somit haben wir bewiesen: Satz 71.1 (Archimedisches Prinzip) Die auf einen in eine Fl¨ ussigkeit eingetauchten K¨orper einwirkende Auftriebskraft entspricht dem Gewicht der verdr¨angten Fl¨ ussigkeit. Sie wirkt l¨angs einer vertikalen Geraden durch den Massenschwerpunkt der verdr¨angten Fl¨ ussigkeit. Wir k¨ onnen das archimedische Prinzip direkt auf teilweise eingetauchte K¨ orper ausdehnen, indem wir annehmen, dass der Oberfl¨achendruck der Fl¨ ussigkeit dabei Null betr¨ agt.
71.4 Die Stabilit¨at schwimmender K¨orper Die Stabilit¨ at eines schwimmenden K¨ orpers B ist von zentraler Wichtigkeit f¨ ur alle Arten des Schiffbaus; angefangen bei Kanus bis hin zu großen Schiffen. Die Frage nach der Stabilit¨ at kann auf die Frage nach der relativen orpers B und (ii) des Zentrums Lage (i) des Massenschwerpunkts cm des K¨ uckder Auftriebskraft cb von B entsprechend der folgenden Diskussion zur¨ gef¨ uhrt werden. Wir betrachten dazu den K¨ orper in Ruheposition mit einer vom Massenschwerpunkt senkrecht nach unten gerichteten Schwerkraft und die Auftriebskraft, die aus dem Zentrum der Auftriebskraft senkrecht nach oben wirkt. Wir nehmen an, dass der K¨ orper sich im Gleichgewicht befindet, wobei die Gravitationskraft und die Auftriebskraft, die durch die senkrechten Geraden des Massenschwerpunkts und des Auftriebszentrums verlaufen, sich ausgleichen, vgl. Abb. 71.5. Nun nehmen wir an, dass der K¨ orper um einen kleinen Winkel geneigt wird, so dass das Zentrum der Massenschwerkraft und der Auftriebskraft horizontal gegeneinander verschoben sind, vgl. Abb. 71.5. Sei D das resultierende Drehmoment, das sich aus den beiden Kr¨aften ergibt. Das Vorzeichen des Drehmoments wird f¨ ur die Stabilit¨ at ausschlaggebend sein! Wirkt D in dieselbe Richtung wie die Neigung, wird sich die Neigungstendenz verst¨ arken und der K¨ orper wird sich aus der Gleichgewichtslage entfernen und gegebenenfalls umkippen, vgl. Abb. 71.5. Dies tritt auf, wenn das
1028
71. Massenschwerpunkt und archimedisches Prinzip*
cm
cm
cb
cb
cm cb
Abb. 71.5. Schwimmende K¨ orper mit ihren Massenschwerpunkten und den Auftriebszentren
Schwerkraftzentrum sich horizontal schneller in Neigungsrichtung bewegt, als dies das Auftriebszentrum tut. Andererseits wird das Drehmoment negativ, wenn sich das Schwerkraftzentrum langsamer verschiebt und es wirkt dann als R¨ uckstellkraft, die bestrebt ist, den K¨orper in die Ausgangslage zur¨ uckzubewegen, vgl. Abb. 71.5. Wir wollen nun zwei Beispiele mit einfachen Geometrien betrachten. Beispiel 71.3. Nun wollen wir eine Raumkapsel mit konischer Spitze und halbkugelf¨ ormiger Grundfl¨ ache betrachten, die im Pazifik schwimmt und auf ihre Bergung wartet. Wird die Kapsel aufrecht schwimmen oder nicht? Angenommen, die Kapsel schwimmt aufrecht, so dass ein Teil der halbkugelf¨ ormigen Grundfl¨ ache in das Wasser eintaucht, vgl. Abb. 71.6.
C cm cb Abb. 71.6. Aufrecht schwimmende Raumkapsel
Die Resultierende der Auftriebskr¨ afte ist aufw¨arts gerichtet und wirkt auf das Zentrum C der Halbkugel ein, vgl. Abb. 71.6. Wenn die Kapsel leicht geneigt wird, so ist die Auftriebskraft stets durch C gerichtet und das Drehmoment durch die Gravitationskraft wird destabilisierend sein, wenn sich der Massenschwerpunkt cm der Kapsel oberhalb von C befindet und es wird stabilisierend wirken, wenn cm unterhalb von C liegt (wenn cm auf der Symmetrieachse der Kapsel liegt), vgl. Abb. 71.6. Beispiel 71.4. Wir betrachten eine rechteckige Schachtel mit quadratischen Seitenfl¨ achen der Breite 2w und H¨ ohe 2l und einer Dichte ρ¯, die in einer
Aufgaben zu Kapitel 71
1029
2h M
2w
A B
Abb. 71.7. Schwimmende Schachtel
Fl¨ ussigkeit der Dichte ρ schwimmt, vgl. Abb. 71.7. Angenommen, dass ρ¯ verglichen zu ρ klein ist, so dass die Schachtel nur leicht ins Wasser eintaucht. Um die Stabilit¨ at der Schachtel zu pr¨ ufen, gehen wir von einer leichten Drehung um einen Winkel θ um den Mittelpunkt C im Boden aus. Das destabilisierende Drehmoment um C, das durch die Gravitationskraft durch das Massenzentrum hervorgerufen wird, entspricht g ρ¯(2w)2 2hh sin(θ), vgl. ¨ Abb. 71.7. Das stabilisierende Drehmoment, das durch die Anderung der Auftriebskr¨ afte durch die Drehung bewirkt wird, ergibt sich zu 1 2 2 www sin θ ρgw, 3 2 da die Fl¨ ache des Dreiecks CAB gleich ww sin θ 12 ist und da das Massenzentrum von CAB im horizontalen Abstand 2 23 w von C liegt. Die Position ist stabil, falls 1 2 2 w4 sin θ ρg > g ρ¯8w2 h2 sin(θ), 3 2 d.h., falls w2 ρ > 12h2 ρ¯.
Aufgaben zu Kapitel 71 71.1. Die Eisdichte betr¨ agt das 0, 917-fache der Wasserdichte (bei −4◦ C). Wie viele Teile eines Eisbergs sind oberhalb der Wasserfl¨ ache sichtbar? 71.2. Wie schwimmt ein Baumstamm? Warum schwimmt er nicht in senkrechter Lage? 71.3. Untersuchen Sie, warum Katamaran-Boote gute Stabilit¨ atseigenschaften besitzen. 71.4. Bestimmen Sie die stabile Schwimmlage eines Baumstamms“ mit qua” dratischer Grundfl¨ ache und Dichte ρ¯ = 12 ρ. Bestimmen Sie die stabilen Lagen als Funktion des Verh¨ altnisses ρ¯/ρ. (Wir wissen von oben, dass er f¨ ur gen¨ ugend kleines ρ¯/ρ, flach wie die Schachtel in Abb. 71.7 schwimmen wird.) Gibt es mehr als eine stabile Position (neben Symmetrie-bedingten Positionen)? Diskutieren Sie! H¨ angen die Schlussfolgerungen von der Form der Grundfl¨ ache ab?
1030
71. Massenschwerpunkt und archimedisches Prinzip*
71.5. Wie schwimmt ein (perfekter) Eisw¨ urfel? Wie schwimmt ein Fass (Zylinder), bei vorgegebenem Verh¨ altnis von H¨ ohe zu Durchmesser und Dichteverh¨ altnis? 71.6. Untersuchen Sie den Entwurf von Segelbooten unter Stabilit¨ atsgesichtspunkten. Vergleichen Sie insbesondere moderne Entw¨ urfe mit guter Formstabilit¨ at (breiter und flacher Boden) und klassische Entw¨ urfe mit einem engen tiefen Rumpf. Stellen Sie eine Verbindung zur Vasa her. 71.7. Verallgemeinern Sie das archimedische Prinzip auf einen K¨ orper, der in ein System zweier aufeinander schwimmender Schichten verschiedener Fl¨ ussigkeiten eintaucht.
72 Der Albtraum von Newton*
Gott k¨ ummert sich nicht um mathematische Schwierigkeiten. Er integriert empirisch. (Einstein)
Die Newtonsche Theorie der Schwerkraft besagt, dass das Schwerkraftfeld F (x), das durch einen Massenpunkt m im Ursprung erzeugt wird, dem Potentialfeld m x F (x) = −m = ∇ (72.1) x3 x entspricht, das zum Potential ϕ(x) = m/x geh¨ort. Dabei sind die Einheiten so gew¨ ahlt, dass die Gravitationskonstante Eins betr¨agt. Das bedeutet, dass die Gravitationskraft auf eine Einheitspunktmasse im Punkt x, die durch eine Masse m im Ursprung hervorgerufen wird, F (x) betr¨agt. In Absolutbetr¨ agen ergibt sich F (x) =
m , x2
was als Newtonsches Gesetz mit inverser Proportionalit¨at zum Abstandsquadrat bekannt ist. Ganz allgemein lautet das Schwerkraftfeld einer Masse m in einer Position y: F (x) = −m
x−y , x − y3
(72.2)
wobei F (x) die Kraft auf eine Einheitsmasse in Position x beschreibt mit zugeh¨ origem Potential ϕ(x) = m/x − y.
1032
72. Der Albtraum von Newton*
Abb. 72.1. Isaac Newton 1689: Ich war nicht in der Lage, ein Ph¨ anomen f¨ ur die ” Ursache der Schwerkraft zu entdecken und ich m¨ ochte keine Hypothese aufstellen; denn alles, was sich nicht aus Ph¨ anomenen herleiten l¨ asst, muss Hypothese genannt werden, und Hypothesen, seien sie metaphysisch oder physikalisch mit okkultem oder mechanischem Hintergrund, haben keinen Platz in der experimentellen Philosophie“
¨ Uber eine lange Zeit versuchte Newton eine Folgerung seiner neuen Gravitationstheorie zu zeigen: Die Gravitationskraft zwischen zwei festen Kugeln ist gleich der zwischen den in den Massenschwerpunkten der Kugeln konzentrierten Massen der Kugeln. Dieses Ergebnis hat wichtige praktische Auswirkungen. So w¨ urde es beispielsweise die Modellierung des Sonnensystems durch 9 kleine Punkte f¨ ur die Planeten, die um einen fixen großen Massenpunkt, der f¨ ur die Sonne steht, erlauben, d.h., als ein 9K¨ orper System. Ohne dieses vereinfachende wichtige Ergebnis m¨ ussten wir die Anziehungskraft zwischen den Teilen jedes dieser K¨orper betrachten, was das Modell betr¨ achtlich komplizieren w¨ urde. Die praktische Anwendbarkeit des Newtonschen Gravitationsgesetzes w¨are durch jeden, der wie die Kirche daran Interesse hatte, einfach in Frage zu stellen. In Ermangelung dieses wichtigen Ergebnisses verz¨ ogerte Newton die Ver¨offentlichung seines Monumentalwerks Principia Mathematica um viele Jahre. Newton behauptete, dass er die Principia“ absichtlich schwer zu lesen hielt, um zu ” ” vermeiden, von kleinen Lichtern der Mathematik geschlagen zu werden“. Newton liebte Kritiker nicht. Tats¨ achlich kann auch ein 9-K¨ orper System von Punktmassen weit jenseits des Verst¨ andnisses oder der mathematischen Analyse liegen. Gl¨ ucklicherweise ist das Sonnensystem ein sehr spezielles 9-K¨orper System, bei der die Bewegung jedes Planeten in guter N¨ aherung als ein 1-K¨orper System betrachtet werden kann, so als ob jeder Planet ungest¨ort um eine schwere Sonne kreisen w¨ urde. Derartige 1-K¨ orper Systeme besitzen eine vollst¨andige analytische L¨ osung, wie wir im Kapitel Lagrange und das Prinzip der ” kleinsten Wirkung“ gesehen haben.
72. Der Albtraum von Newton*
1033
Das wichtige Ergebnis, das Newton schließlich erfolgreich bewies, l¨asst sich folgendermaßen in Worte fassen: Sei eine d¨ unne Kugelh¨ ulle S mit Radius r und gleichm¨ aßiger Dicke und Masse m im Ursprung zentriert. Sei F (x) das Schwerkraftfeld, das durch diese sph¨arische Schale erzeugt wird, so dass F (x) die Schwerkraft der Kugelh¨ ulle auf eine Einheitspunktmasse im Punkt x außerhalb der Kugel ist. Newton bewies, dass F (x) = −m
x x3
f¨ ur x > r,
wonach das Schwerkraftfeld, das durch die Kugelh¨ ulle auf einen Punkt außerhalb ausge¨ ubt wird, dem Feld entspricht, das durch eine Punktmasse m im Zentrum der Kugel erzeugt wird. Das Gravitationsfeld F (x) der Kugelh¨ ulle entspricht der Summe der Gravitationsfelder aller kleinen Teile ds(y) der Oberfl¨ache mit Masse dm(y) im Punkt y, aus denen die Kugel zusammengesetzt ist, so dass also f (y)ds(y), F (x) = S
wobei f (y)ds(y) = −dm(y)
x−y x − y3
dem Schwerkraftfeld des Fl¨ achenst¨ ucks ds(y) der Masse dm(y) im Punkte y entspricht. Wir halten fest, dass dm(y) =
mds(y) , 4πr2
agt und die Gesamtmasse m ist, so dass da die Fl¨ ache der Kugel 4πr2 betr¨ also x−y m . (72.3) f (y) = − 4πr2 x − y3 Newton wollte also beweisen, dass x f (y) ds(y) = −m 3 x S
f¨ ur x > r,
(72.4)
wobei f (y) durch (72.3) gegeben ist. Ist dieses wichtige Ergebnis f¨ ur eine sph¨ arische Schale gezeigt, so ergibt sich das entsprechende Ergebnis f¨ ur eine feste Kugel einfach als Vereinigung einer Menge von d¨ unnen Sph¨aren verschiedener Radien. Das endg¨ ultige gesuchte Ergebnis f¨ ur zwei feste Kugeln ergibt sich dann ganz ¨ ahnlich. Wir wollen nun beweisen, dass (72.4) das Gravitationsfeld einer d¨ unnen sph¨ arischen Schale S mit Radius r und Gesamtmasse m, deren Zentrum im Ursprung liegt, beschreibt. Wir nehmen dazu an, dass x = (R, 0, 0) mit
1034
72. Der Albtraum von Newton*
R > r. Aus Symmetriegr¨ unden deckt dies die ganze Kugel ab. Wir halten fest, dass die Komponenten F2 (x) und F3 (x) der Schwerkraft verschwinden, da die Schwerkraft von (R, 0, 0) zum Ursprung hin gerichtet ist, so dass wir einfach nur zeigen m¨ ussen, dass R − y1 m m ds(y) = − 2 . F1 (x) = − 4πr2 S x − y3 R Wir setzen sph¨ arische Koordinaten y = (r cos(ϕ), r sin(ϕ) cos(θ), r sin(ϕ) sin(θ)) ein, um das Fl¨ achenintegral mit 0 ≤ ϕ ≤ π und 0 ≤ θ ≤ 2π zu berechnen, vgl. Abb. 72.2. Wir verweisen auf das Kapitel Oberfl¨achenintegrale“ f¨ ur ” ds(y) = r2 sin(ϕ)dϕ dθ. x2
(r cos(ϕ), r sin(ϕ) cos(θ), r sin(ϕ) sin(θ))
θ
r ϕ (R, 0, 0)
x1
x3 Abb. 72.2. Der Albtraum von Newton
Nach Abb. 72.2 erhalten wir R − y1 m ds(y) F1 (x) = − 2 4πr S x − y3 (R − r cos(ϕ)) sin(ϕ) m π 2π dθdϕ =− 4π 0 0 ((R − r cos(ϕ))2 + (r sin(ϕ))2 )3/2 m π (R − r cos(ϕ)) sin(ϕ) =− dϕ, 2 0 ((R − r cos(ϕ))2 + (r sin(ϕ))2 )3/2 wobei wir die Integration nach θ mit Hilfe der Tatsache, dass der Integrand von θ unabh¨ angig ist, ausgef¨ uhrt haben. Somit m¨ ussen wir beweisen, dass π (R − r cos(ϕ)) sin(ϕ) dϕ 2 = 2. (72.5) I= 2 + (r sin(ϕ))2 )3/2 R ((R − r cos(ϕ)) 0
Aufgaben zu Kapitel 72
1035
An dieser Stelle substituieren wir t = cos(ϕ) und benutzen dt = − sin(ϕ)dϕ: 1 1 (R − rt) dt (1 − at) dt 1 = 2 I= 2 2 3/2 R −1 (1 + a2 − 2at)3/2 −1 (R + r − 2Rrt) mit a = Rr < 1. Durch eine Routine-Rechnung erhalten wir, dass aus a < 1 folgt, dass 1 (1 − at) dt 2 3/2 −1 (1 + a − 2at) 2 2 1 1 ( 1+a − at) dt ( 1+a − 1) dt 2 2 = − 2 − 2at)3/2 2 − 2at)3/2 (1 + a (1 + a −1 −1 !1 !1 1 a2 − 1 − (1 + a2 − 2at)1/2 −1 − (1 + a2 − 2at)−1/2 −1 2a 2a a2 − 1 1 1 1 1 + a − (1 − a) − − = = 1 + 1 = 2, 2a 2a 1−a 1+a =
woraus sich das erw¨ unschte Ergebnis ergibt: F1 (x) = −
m R2
falls x = (0, 0, R),
R > r.
Unten werden wir noch einen viel k¨ urzeren Beweis f¨ ur dieses Ergebnis anf¨ uhren, wobei wir Werkzeuge der Infinitesimalrechnung einsetzen, die wir in den n¨ achsten Kapiteln entwickeln werden.
Aufgaben zu Kapitel 72 72.1. Beweisen Sie, dass das Schwerkraftfeld einer Kugelh¨ ulle innerhalb der Kugel gleich Null ist. 72.2. Berechnen Sie das Schwerkraftfeld F (x) f¨ ur x ∈ R3 f¨ ur einen festen Ball mit Gesamtmasse m und Radius r, dessen Zentrum im Ursprung liegt. 72.3. Berechnen Sie das Schwerkraftfeld einer d¨ unnen gleichf¨ ormigen Stange. 72.4. Bestimmen Sie das Schwerkraftfeld f¨ ur einen d¨ unnen kreisf¨ ormigen ebenen (a) Ring bzw. (b) eine Scheibe. 72.5. (a) Betrachten Sie eine Teilchenwolke gleichf¨ ormiger Dichte in Gestalt eines Balls. Gehen Sie davon aus, dass sich die Teilchen nach dem Newtonschen Schwerkraftgesetz gegenseitig anziehen. Berechnen Sie die Entwicklung der Wolke f¨ ur t > 0 unter der Annahme, dass sich die Teilchen zur Zeit t = 0 in Ruhe befinden. (b) Wiederholen Sie dasselbe f¨ ur eine Wolke in Gestalt des Volumens zwischen zwei konzentrischen Kugeln. (c) Erweitern Sie dies auf Wolken mit variabler Dichte.
73 Laplacesche Modelle
. . . on aura donc ∆u = 0; cette ´equation remarquable nous sera de la plus grande utilit´e . . . (Laplace) Wenn man bei diesen verdammten Quantenspr¨ ungen bleiben muss, dann bedaure ich, dass ich jemals damit zu tun hatte. Ich mag sie nicht (die Quantenmechanik) und es tut mir Leid, dass ich jemals etwas damit zu tun hatte. (Schr¨ odinger)
73.1 Einleitung In diesem Kapitel stellen wir einige wichtige Modelle vor, die den LaplaceOperator enthalten. Darunter sind Modelle f¨ ur W¨armeleitung, Elastizit¨at, Elektromagnetismus, Str¨ omungsmechanik und Gravitation. Bei der Herleitung dieser Modelle werden wir von den Grundlagen der mehr-dimensionalen Infinitesimalrechnung Gebrauch machen wie den S¨atzen von Gauss und Stokes und wir werden so eine schnelle und einfache Einf¨ uhrung in einige der Mysterien der Mechanik und der Physik kontinuierlicher Medien“ ” erhalten. Wir werden auch Br¨ ucken zur linearen Algebra schlagen, wenn wir den Laplace-Operator mit Hilfe des 5-Punkte Sterns und Varianten der Svensson-Formel“ diskretisieren. ”
73.2 W¨armeleitung Als Erstes wollen wir die W¨armeleitung in einem w¨armeleitenden Material, das das Volumen Ω in R3 mit der Begrenzung Γ einnimmt, u ¨ ber ein Zei-
1038
73. Laplacesche Modelle
tintervall I = [0, T ] modellieren. Dabei bezeichnet u(x, t) die Temperatur und q(x, t) den W¨armefluss im Punkte x zur Zeit t. Der W¨armefluss ist ein armefluss oder die W¨armemenge, die Vektor q = (q1 , q2 , q3 ), wobei qi den W¨ in Richtung xi fließt, bezeichnet. Ferner bezeichnet f (x, t) die W¨armemenge (pro Einheitsvolumen), die in (x, t) durch eine W¨armequelle eingespeist wird. Wir leiten das Modell mit Hilfe eines wichtigen Erhaltungsgesetzes her, das die W¨armeerhaltung in der folgenden Form zum Ausdruck bringt: F¨ ur jedes feste Gebiet V in Ω mit Begrenzung Γ ist die gesamte W¨armemenge, die in V durch eine ¨ außere W¨ armequelle eingebracht wird, gleich der gesamten W¨ armemenge, die sich in V angesammelt hat, zus¨atzlich des ge¨ samten W¨ armeflusses durch Γ. Dies basiert auf der Uberzeugung, dass die W¨ arme, die in V durch eine ¨ außere Quelle eingespeist wird, nur zwischen zwei M¨ oglichkeiten w¨ ahlen kann: (i) Fluss aus V hinaus und (ii) Ansammlung in V . Wenn Γ die Begrenzung von V bezeichnet und n die ausw¨arts gerichtete Einheitsnormale zu Γ, vgl. Abb. 73.1, dann kann das Erhaltungsgesetz in der Form
V n
Abb. 73.1. Eine beliebige Teilmenge V eines w¨ armeleitenden K¨ orpers Ω
f dx = V
∂ ∂t
q · n ds
λu dx +
(73.1)
Γ
V
geschrieben werden. Dabei ist λ(x, t) der W¨armekapazit¨atskoeffizient, der die W¨ armemenge pro Einheitsvolumen angibt, die n¨otig ist, um die Temperatur um eine Einheit zu erh¨ ohen. Alle Funktionen werden dabei zu einer bestimmten Zeit t ∈ I ausgewertet. Aus dem Divergenzsatz q · n ds = ∇ · q dx, Γ
V
ergibt sich in Kombination mit (73.1), dass V
∂ (λu) + ∇ · q ∂t
dx =
f dx, V
73.2 W¨ armeleitung
1039
wobei die Ableitung nach der Zeit unter das Integralzeichen gezogen werden kann, da V nicht von der Zeit t abh¨ angt. Da V beliebig ist, ergibt sich unter der Annahme, dass die Integranden Lipschitz-stetig sind, dass ∂ (λu)(x, t) + ∇ · q(x, t) = f (x, t) f¨ ur alle x ∈ Ω, 0 < t ≤ T. ∂t
(73.2)
Wir erhalten so eine Differentialgleichung mit zwei Unbekannten, die die W¨armeerhaltung beschreibt: Die Temperatur u(x, t) und den W¨armefluss q(x, t). Wir ben¨otigen zur L¨ osung dieser Gleichung mit zwei Unbekannten noch eine weitere Gleichung. Die zweite Gleichung ist eine Beobachtungsgleichung, die den W¨armefluss q mit dem Temperaturgradienten ∇u in Zusammenhang bringt. Das Fouriersche Gesetz besagt, dass die W¨ arme von warm nach kalt fließt, wobei der W¨ armefluss zum Temperaturgradienten proportional ist: q(x, t) = −a(x, t)∇u(x, t)
f¨ ur x ∈ Ω, 0 < t ≤ T,
(73.3)
wobei der Proportionalit¨ atsfaktor a(x, t) dem Koeffizienten der W¨armeleitf¨ ahigkeit entspricht. Beachten Sie das Minuszeichen, durch das zum Ausdruck gebracht wird, dass die W¨ arme von warm nach kalt fließt und dass die W¨ armeleitf¨ahigkeit a(x, t) positiv ist. Durch Kombination von (73.2) mit (73.3) erhalten wir die wichtige Differentialgleichung zur Beschreibung der W¨ armeleitf¨ ahigkeit: ∂ (λu) − ∇ · (a∇u) = f ∂t
in Ω × (0, T ],
(73.4)
wobei a(x, t) und λ(x, t) vorgegebene positive Koeffizienten sind, die von (x, t) abh¨ angen, f (x, t) ist eine gegebene W¨ armequelle und die Unbekannte u(x, t) steht f¨ ur die Temperatur. Um die L¨ osung eindeutig zu definieren, wird die Differentialgleichung durch Anfangs- und Randbedingungen vervollst¨andigt. Das vollst¨andige Modell mit Dirichlet-Randbedingungen lautet: ⎧ ∂ ⎪ ⎨ ∂t (λu) − ∇ · (a∇u) = f in Ω × (0, T ], (73.5) auf Γ × (0, T ], u = ub ⎪ ⎩ f¨ ur x ∈ Ω, u(x, 0) = u0 (x) wobei u0 die Anfangstemperatur ist und ub die Temperatur an den Grenzen. Die Dirichlet-Randbedingung beschreibt das Eintauchen des K¨orpers Ω in ein großes Reservoir mit einer bestimmten Temperatur ub . Dabei nehmen wir an, dass die Begrenzung ein idealer W¨armeleiter ist, so dass die Temperatur der K¨ orperh¨ ulle der Temperatur ub des Reservoirs außen entspricht. Beachten Sie, dass die vorgegebene Außentemperatur ub = ub (x, t) sich mit (x, t) ver¨ andern kann.
1040
73. Laplacesche Modelle
Andere u ¨ bliche Randbedingungen sind Neumann- und Robin-Randbedingungen. Eine Neumann-Randbedingung bedeutet, dass der W¨armefluss durch die Grenze q · n = −a∇u · n = −a
∂u = −a∂n u = g ∂n
auf Γ
betr¨ agt, wobei g vorgegeben ist. Eine homogene Neumann-Randbedingung mit g = 0 entspricht einer idealen Isolierungsschicht, wobei der W¨armefluss durch die Grenze Null ist. Eine homogene Robin-Randbedingung ist etwas dazwischen, wobei die Grenze weder ideal leitend noch ideal isolierend ist. Der W¨ armefluss durch die Begrenzung ist dann proportional zur Temperaturdifferenz u innerhalb und einer vorgegebenen Temperatur ub außerhalb von Ω: −a∂n u = κ(u − ub ), wobei κ ein positiver Koeffizient ist, der der W¨armeleitungf¨ahigkeit der Begrenzung entspricht. Wenn wir die Begrenzung Γ in unterschiedliche Teilst¨ ucke Γ1 , Γ2 und Γ3 mit verschiedenen Randbedingungen aufteilen, dann nimmt das allgemeine Anfangs-/Randwertproblem die folgende Gestalt an: ⎧ ∂ ⎪ in Ω × (0, T ], ⎪ ∂t (λu) − ∇ · (a∇u) = f ⎪ ⎪ ⎪ ⎪ auf Γ1 × (0, T ], u = u b ⎨ (73.6) auf Γ2 × (0, T ], −a∂n u = g ⎪ ⎪ ⎪ a∂ u + κ(u − u ) = 0 auf Γ × (0, T ], ⎪ n b 3 ⎪ ⎪ ⎩u(x, 0) = u (x) f¨ ur x ∈ Ω, 0 wobei ub f¨ ur eine ¨ außere“ Temperatur steht und g f¨ ur den ausw¨arts ge” richteten W¨ armefluss durch die K¨ orperh¨ ulle. ∂ (λu) = 0 Wir wollen noch festhalten, dass f¨ ur ein station¨ares Modell mit ∂t und wenn die W¨ armequelle f = 0 ist, die Gleichung (73.2), die den W¨armeerhalt beschreibt, folgende Form annimmt: ∇ · q = 0.
(73.7)
Wird W¨ arme weder erzeugt noch eingespeist, dann wird die W¨armeerhaltung durch die Gleichung ∇ · q = 0 ausgedr¨ uckt, d.h. der W¨armefluss q ist divergenzfrei. Unten werden wir auf weitere Beispiele divergenzfreier Felder treffen.
73.3 Die W¨armegleichung Wir bezeichnen den Spezialfall von (73.6) mit λ = a = 1 als W¨armegleichung. F¨ ur den Fall einer homogenen Dirichlet-Randbedingung erhalten
73.4 Die station¨ are W¨ armeleitung: Die Poisson-Gleichung
wir das Modell
⎧ ∂u ⎪ ⎨ ∂t − ∆u = f u=0 ⎪ ⎩ u(x, 0) = u0 (x)
1041
in Ω × (0, T ], auf Γ × (0, T ], f¨ ur x ∈ Ω,
wobei u0 die Anfangstemperatur ist und ∆u = ∇ · (∇u) der LaplaceOperator. Die W¨ armegleichung dient oft als wichtiger Prototyp f¨ ur parabolische Probleme.
73.4 Die station¨are W¨armeleitung: Die Poisson-Gleichung Das station¨ are Analogon von (73.6) lautet ⎧ ⎪ ⎪−∇ · (a∇u) = f ⎪ ⎨u = u b ⎪−a∂n u = g ⎪ ⎪ ⎩ a∂n u + κ(u − ub ) = 0
in Ω, auf Γ1 , auf Γ2 , auf Γ3 .
Die Wahl von a = 1 f¨ uhrt uns zur Poisson-Gleichung: ⎧ −∆u = f in Ω, ⎪ ⎪ ⎪ ⎨u = u auf Γ1 , b ⎪ u = g auf Γ2 , −∂ n ⎪ ⎪ ⎩ ∂n u + κ(u − ub ) = 0 auf Γ3 .
(73.8)
(73.9)
Abb. 73.2. Poisson (1781–1840): Es gibt nur zwei gute Dinge im Leben: Ma” thematik zu studieren und zu lehren“
1042
73. Laplacesche Modelle
Mit homogenen Dirichlet-Randbedingungen f¨ ur die gesamte Begrenzung lautet die Poisson-Gleichung: −∆u = f in Ω, (73.10) u=0 auf Γ. Die Poisson-Gleichung dient als wichtiges Modell f¨ ur elliptische Probleme und sie besitzt zahlreiche Anwendungen in der Physik und der Mechanik, von denen wir unten einige wichtige vorstellen werden. Die PoissonGleichung −∆u = f mit f = 0 wird auch als Laplace-Gleichung ∆u = 0 bezeichnet. Wir wollen nun einige analytische L¨ osungen f¨ ur die W¨armegleichung in einfachen Situationen pr¨ asentieren: Beispiel 73.1. Die station¨ are Temperatur u in einem w¨armeleitenden Einheitsw¨ urfel Q mit W¨ armeproduktion und Leitf¨ahigkeitskoeffizienten gleich ur Eins, Begrenzungstemperatur Null f¨ ur x1 = 0, 1 und W¨armefluss Null f¨ x2 , x3 = 0, 1 lautet: u(x) =
1 x1 (1 − x1 ). 2
Wir sehen, dass die Temperatur in x1 = 0, 5 maximal ist und quadratisch gegen die Dirichlet-Grenzen abf¨ allt, vgl. Abb. 73.3, mit einer graphischen Darstellung des entsprechenden zwei-dimensionalen Falls auf dem Einheitsquadrat. Beispiel 73.2. Wir betrachten die homogene W¨armegleichung auf dem Einheitsquadrat Q mit f = 0 und homogenen Dirichlet-Randbedingungen: Die Funktion u(x, t) = e−(n
2
+m2 )t
sin(nx1 ) sin(mx2 )
mit m, n = 1, 2, 3, . . . ist eine L¨ osung der homogenen W¨armegleichung ∂u − ∆u = 0 zu den Anfangsbedingungen u0 (x1 , x2 ) = sin(nx1 ) sin(mx2 ), ∂t vgl. Abb. 73.3. Wir erkennen, dass die Temperatur u(x, t) mit der Zeit exponentiell abnimmt, wenn n und/oder m nur m¨aßig groß ist. Dies entspricht der Tatsache, dass eine r¨ aumlich oszillierende Temperatur schnell ausgeglichen wird. Beispiel 73.3. Die station¨ are Temperatur u(x) zwischen den beiden Ebenen arme leitende Schicht mit W¨arme{x3 = 0} und {x3 = 1}, die eine W¨ leitf¨ ahigkeitskoeffizienten gleich Eins begrenzen, ohne W¨armequelle und Temperaturen u = 1 in {x3 = 1} und u = 0 in {x3 = 0} ergibt sich ¨ zu u(x) = x3 , was einer linearen Anderung der Temperatur zwischen den ¨ Ebenen entspricht. Nat¨ urlich ist das keine Uberraschung.
73.5 Ein Modell f¨ ur Konvektion, Diffusion und Reaktion u(x 1 ,x2 ) = sin( S x1 ) sin(2 S x2 )
u(x ,x )=x (1-x )/2 1 2
1
1043
1
0.5
1
0.4 0.5 0.3 0 0.2 0.5 0.1
0
1
1
1 1
1
0.5
0.5 0.5
x
2
0
0
0.5 x
x1
Abb. 73.3. Die Funktionen
1 (x1 (1 2
2
0
0
x1
− x1 )) und sin(πx1 ) sin(2πx2 )
73.5 Ein Modell fu ¨r Konvektion, Diffusion und Reaktion Die W¨ armegleichung modelliert das physikalische Ph¨anomen der Diffusion und wir wollen nun dieses Modell erweitern, um Konvektions- und Reaktionsph¨anomene zu beschreiben. Wir erhalten eine skalare Gleichung zur Beschreibung von Konvektion, Diffusion und Reaktion; ein weiteres wichtiges Modell. Wir betrachten einen typischen Fall, in dem u f¨ ur die Konzentration einer bestimmten chemischen Substanz steht, die Konvektion mit einem gegebenen Geschwindigkeitsfeld β(x, t), Diffusion mit Diffusionskoeffizient (x, t) und einer Reaktion mit Reaktionsgrad α(x, t) ausgesetzt ist. Dabei kann u beispielsweise die Konzentration einer Verschmutzung in einem Wasservolumen darstellen, die sich mit der Geschwindigkeit β(x, t) ausbreitet. Das Modell ergibt sich aus dem Massenerhaltungssatz, zusammen mit einer Beobachtungsgleichung, mit der das Fouriersche Gesetz verallgemeinert wird. Dabei wird die Fließgeschwindigkeit q der chemischen Substanz durch ∇u und βu ausgedr¨ uckt. Der Massenerhalt wird wie folgt formuliert: u˙ + ∇ · q + αu = f, wobei f f¨ ur einen Quellterm steht. Die Beobachtungsgleichung nimmt die Form q = βu − ∇u
1044
73. Laplacesche Modelle
an, wodurch zum Ausdruck gebracht wird, dass sich die gesamte Fließgeschwindigkeit q als Summe der Konvektionsgeschwindigkeit βu und der Diffussionsgeschwindigkeit −∇u ergibt. Somit lautet das Modell: u˙ + ∇ · (βu) + αu − ∇ · (∇u) = f
in Ω × (0, T ].
(73.11)
Es fehlen noch Anfangs- und Randbedingungen. Ω ist ein Gebiet im Raum und [0, T ] ein vorgegebenes Intervall. Wir werden unten auf dieses Modell und auf Verallgemeinerungen davon in mehreren verschiedenen Zusammenh¨ angen treffen.
73.6 Eine elastische Membran Wir betrachten ein waagrechtes elastisches Netz, das das Einheitsquadrat Q = {x ∈ R2 : 0 ≤ xi ≤ 1, i = 1, 2} bedeckt. Wir stellen uns elastische F¨ aden vor, die in den Knoten aij ∈ R2 mit aij = (ih, jh), i, j = 0, 1, . . . , N , zu einem einheitlichen vierseitigen Gitter mit Gitterweite h = 1/N zusammengebunden sind, wobei N die Zellenzahl in jeder Koordinatenrichtung angibt. Wir wollen annehmen, dass das Netz gedehnt ist, so dass die Spannung in jedem Faden gleich h ist, was bedeutet, dass die Spannung pro Einheitsl¨ ange gleich Eins ist. Beachten Sie, dass diese Normalisierung bedeutet, dass die Spannung in jedem Faden abnimmt, wenn die Zahl der F¨ aden zunimmt. Wir beziehen uns auf die Situation, bei der alle Knoten in der Ebene des Quadrats liegen und keine ¨ außere Last auf das Netz einwirkt als die unbelastete Referenzkonfiguration des Netzes. Angenommen, das Netz werde in den Knoten aij einer Menge von senkrecht nach unten gerichteter Belastungen der Gr¨oße fij h2 ausgesetzt. Das Netz wird sich unter der Belastung verformen und die Knoten werden sich aus der unbelasteten Referenzkonfiguration entfernen. Sei die vertikale Entfernung des Knotens aij gleich ui,j . Sind die Entfernungen klein, dann sind (mit R¨ uckblick auf das Kapitel Stringtheorie“) die senkrecht aufw¨arts ge” richteten Kr¨ afte durch das Netz auf den Knoten aij gleich (ui,j − ui−1,j ) + (ui,j − ui+1,j ) + (ui,j − ui,j−1 ) + (ui,j − ui,j+1 ), wobei wir die Beitr¨ age von den vier Fadenst¨ ucken, die in aij aufeinander treffen, erkennen. Diese Formel r¨ uhrt daher, dass die senkrechte Neigung der Strecke zwischen beispielsweise dem Knoten (i, j) und (i − 1, j) gleich (ui,j − ui−1,j )/h ist und dass die Spannung h betr¨agt. Dadurch erhalten wir die folgende Gleichgewichtsgleichung f¨ ur jeden Knoten aij : −
ui,j−1 − 2ui,j + ui,j+1 ui−1,j − 2ui,j + ui+1,j − = fij . 2 h h2
73.6 Eine elastische Membran
1045
Bilden wir den Grenzwert f¨ ur h gegen Null und erinnern wir uns dabei an den Satz von Taylor, so folgt daraus u(x − h) − 2u(x) + u(x + h) d2 u = u (x) = (x). h→0 h2 dx2 lim
Ist u : R → R zweimal differenzierbar, so f¨ uhrt uns dies auf die Gleichung −∆u(x) = f (x). Diese Gleichung bringt das Gleichgewicht einer horizontalen Membran, die aus einem elastischen Material hergestellt ist und auf die eine senkrechte Belastung (Kraft pro Einheitsfl¨ ache) f (x) einwirkt, zum Ausdruck. Dabei ist u(x) die senkrechte Auslenkung der Membran in x und wir gehen davon aus, dass die Membran in der unbelasteten ebenen Referenzkonfiguration mit in allen Richtungen einheitlicher Spannung vorgespannt ist. Wir k¨ onnen dies auf eine waagrechte Membran, die ein beliebiges Gebiet Ω in R2 bedeckt, verallgemeinern. Wenn wir annehmen, dass die Membran auf der Begrenzung Γ von Ω fixiert ist, so dass die vertikale Auslenkung u(x) in Γ Null ist, so erhalten wir die Poisson-Gleichung −∆u = f
in Ω, u = 0
auf Γ
(73.12)
als Modell f¨ ur die senkrechte Auslenkung einer waagerechten elastischen Membran, die in der Begrenzung Γ eines Gebiets Ω in R2 eingespannt ist und die einer vertikalen Belastung f (x) ausgesetzt wird. Dies ist ein wichtiges Modell f¨ ur die Theorie der Elastizit¨at.
u f Abb. 73.4. Eine in Γ eingespannte elastische Membran unter einer Belastung f
Beispiel 73.4. Ist Ω = {x ∈ R2 : x < 1} die Einheitsscheibe und ist die Belastung f radial symmetrisch, dann ist auch die Auslenkung u radial symmetrisch. Wenn wir uns an die Form des Laplace-Operators in Polarkoordinaten aus dem Kapitel Divergenz, Rotation und Laplace-Operator“ ” erinnern, k¨ onnen wir (73.12) in der Form 1 ∂ ∂u ∂u (0) = 0 −∆u = − r = f (r) f¨ ur 0 < r < 1, u(1) = 0, r ∂r ∂r ∂r schreiben. Beachten Sie, dass die Randbedingung ∂u ur die es ∂r (0) = 0, f¨ in den x-Koordinaten kein Gegenst¨ uck gibt, besagt, dass u(x) in x = 0
1046
73. Laplacesche Modelle
differenzierbar ist. Ist ∂u ∂r (0) = 0, dann besitzt u(x) eine konische Spitze in x = 0 und ist nicht in x = 0 differenzierbar. Ist f (r) = 0, dann lautet die L¨ osung: u(r) =
1 (1 − r2 ) f¨ ur 0 ≤ r ≤ 1. 4
73.7 L¨osung der Poisson-Gleichung Angenommen, wir wollten die Poisson-Gleichung −∆u = f
in Ω,
u = ub
auf Γ
numerisch l¨ osen, wobei Ω das Einheitsquadrat mit Begrenzung Γ ist und f (x) eine gegebene Funktion auf Ω. Wenn wir uns an die Herleitung der Modellgleichung −∆u = f im vorangegangenen Abschnitt erinnern, f¨ uhrt uns das auf die Berechnung von N¨ aherungen Ui,j von u(ih, jh) f¨ ur i, j = 0, 1, . . . , N , mit h = 1/N aus dem Gleichungssystem −
Ui−1,j − 2Ui,j + Ui+1,j Ui,j−1 − 2Ui,j + Ui,j+1 − = f (ih, jh), h2 h2 i, j = 1, . . . , N − 1,
d.h., 4Ui,j − Ui−1,j − Ui+1,j − Ui,j−1 − Ui,j+1 = h2 f (ih, jh), i, j = 1, . . . , N − 1, (73.13) mit Ui,j = ub (ih, jh), falls i oder j gleich 0 oder N ist. Wir erkennen, dass dies einem m × m-Gleichungssystem entspricht, mit m = (N − 1) × (N − 1) und den Unbekannten Ui,j mit i, j = 1, . . . , N − 1. Dies ist der ber¨ uhmte 5-Punkte Stern f¨ ur die Poisson-Gleichung, durch den die Unbekannten Ui,j mit den vier Nachbarn Ui−1,j , Ui+1,j , Ui,j−1 und Ui,j+1 gekoppelt ist. F¨ ur f = 0 nimmt der 5-Punkte Stern die Gestalt ( Svensson-Formel“) ” 1 Ui,j = (Ui−1,j + Ui+1,j + Ui,j−1 + Ui,j+1 ), 4 an, wonach jeder Wert Ui,j sich als Mittelwert der Nachbarwerte ergibt (wodurch ein wichtiger schwedischer Nationalcharakter zum Ausdruck kommt). Beachten Sie, dass (73.13) ein lineares Gleichungssystem f¨ ur die Werte von U bildet, das zur L¨ osung einige Arbeit ben¨otigt. So k¨onnen wir beispielsweise versuchen, (73.13) durch eine Fixpunkt-Iteration mit k = 0, 1, . . . wie folgt zu l¨ osen: k+1 k = Ui,j Ui,j k k k k k − α 4Ui,j − Ui−1,j − Ui+1,j − Ui,j−1 − Ui,j+1 − h2 f (ih, jh) , (73.14)
73.8 Die Wellengleichung: Eine schwingende elastische Membran
1047
k f¨ ur i, j = 1, . . . , N − 1 mit Ui,j = ub (ih, jh), falls i oder j gleich 0 oder k N ist. Hierbei ist Ui,j eine N¨ aherung f¨ ur Ui,j nach k Iterationsschritten, wobei wir mit einer Anfangsn¨ aherung Uij0 beginnen; α ist eine positive Konstante. Es stellt sich heraus, dass die Iteration f¨ ur gen¨ ugend kleines α konvergiert, vgl. Aufgabe 73.9, obwohl die Konvergenz schlechter wird, wenn die Schrittweite h abnimmt.
angig, so f¨ uhrt uns dies zum Modell Beispiel 73.5. Ist x2 unabh¨ −u (x) = f (x) mit u (x) =
du dx .
f¨ ur 0 < x < 1,
u(0) = u0 , u(1) = u1 ,
Das zugeh¨ orige diskrete Modell nimmt die Form −(Ui−1 − 2Ui + Ui+1 ) = h2 f (ih), i = 1, . . . , N − 1, U0 = u0 , UN = u1
(73.15)
aherung f¨ ur u(ih) ist. Wenn wir der Einfachheit halber an, wobei Ui eine N¨ u0 = u1 = 0 annehmen, dann kann das diskrete Modell als AU = b, geschrieben werden, mit U = (U1 , . . . , UN −1 ), b = (b1 , . . . , bN −1 ) mit bi = h2 f (ih) und der (N − 1) × (N − 1)-Matrix A = (aij ) mit aii = 2, ai,i−1 = ai−1,i = −1 und aij = 0 f¨ ur |i − j| > 1. Die oben vorgestellte FixpunktIteration nimmt dann folgende Gestalt an: U k+1 = U k − α(AU k − b). Als Kriterium f¨ ur die Konvergenz ergibt sich daraus I − αA < 1. In Aufgabe 73.9 beweisen Sie, dass dies f¨ ur gen¨ ugend kleine α > 0 erf¨ ullt ist. Hierbei ist I − αA die euklidische Norm der Matrix I − αA, wobei aus dem Spektralsatz folgt, dass I − αA = max |1 − αλi |, i
wobei die λi die Eigenwerte der symmetrischen Matrix A sind.
73.8 Die Wellengleichung: Eine schwingende elastische Membran Als N¨ achstes wollen wir die dynamische Bewegung der elastischen Membran, die wir oben statisch betrachtet haben, untersuchen. Dazu erweitern wir die vorgegebene ¨ außere Kraft f (x, t), die nun auch von der Zeit
1048
73. Laplacesche Modelle
abh¨ angen mag, um eine dynamische Kraft, die nach dem Newtonsche Gesetz die Form m¨ u besitzt. Dabei steht m f¨ ur die Masse pro Einheitsfl¨ache und u¨ f¨ ur die Beschleunigung der senkrechten Auslenkung u. Dies f¨ uhrt uns auf die Wellengleichung, die eine schwingende Membran unter einer außeren ⎧ Last modelliert: ¨ ⎪ ¨ − ∆u = f in Ω × (0, T ], ⎨u (73.16) u=0 auf Γ × (0, T ], ⎪ ⎩ ˙ 0) = u˙ 0 (x) f¨ ur x ∈ Ω. u(x, 0) = u0 (x), u(x, Dabei ist Ω ein Gebiet in Rd mit der Begrenzung Γ, u0 ist eine gegebene Anfangsauslenkung, u˙ 0 entspricht einer gegebenen anf¨anglichen Auslenkungsgeschwindigkeit und wir gehen der Einfachheit halber von homogenen Dirichlet-Randbedingungen aus. Andere Randbedingungen, insbesondere periodische Randbedingungen, spielen f¨ ur dieses Modell aber auch eine wichtige Rolle.
73.9 Str¨omungsmechanik Die Str¨ omung von Fl¨ ussigkeiten bietet ein reiches Feld f¨ ur die mathematische Modellierung. Dabei stellen wir uns eine Fl¨ ussigkeit als eine Ansammlung sehr kleiner Fl¨ ussigkeitsteilchen“ vor und wir versuchen, die ” Str¨ omung der Fl¨ ussigkeit als Ergebnis der Bewegung aller dieser Fl¨ ussigkeitsteilchen zu beschreiben. Wir arbeiten dabei mit der Annahme, dass diese Teilchen so klein sind und dass es so viele davon gibt, dass wir die Fl¨ ussigkeit als ein Kontinuum betrachten k¨onnen. Normalerweise benutzen wir eine Eulersche Beschreibungstechnik, indem wir die Str¨omung mit ussigkeitsteilchen in der PoHilfe der Geschwindigkeit u(x, t) ∈ R3 der Fl¨ sition x ∈ R3 zur Zeit t beschreiben oder einfach nur die Geschwindigkeit der Fl¨ ussigkeit in (x, t). Dies entspricht der Vorstellung, in jedem Punkt x einen Beobachter zu haben, um die Geschwindigkeit u(x, t) der Fl¨ ussigkeitsteilchen, die gerade zur Zeit t in der Position x sind, zu messen. Der Beobachter sitzt somit in Position x und beobachtet die Fl¨ ussigkeitsteilchen, wie sie vorbei wirbeln. Alternativ k¨ onnen wir uns in der Lagrangeschen Beschreibungstechnik einen Beobachter denken, der in jedem Fl¨ ussigkeitsteilchen sitzt, um die Ver¨ anderung der Geschwindigkeit dieses Fl¨ ussigkeitsteilchen mit der Zeit zu beobachten. Dabei folgt der Beobachter dem Teilchen. Beide Beschreibungsmodi sind n¨ utzlich und k¨ onnen gemeinsam benutzt werden, vgl. die Kapitel u ber die Konvektion-Diffusion in [10]. ¨
Die Massenerhaltungsgleichung Wir betrachten die Str¨ omung einer Fl¨ ussigkeit in einem bestimmten Volumen Ω ∈ R3 mit Hilfe einer Eulerschen Beschreibung, wobei u(x, t) f¨ ur die
73.9 Str¨ omungsmechanik
1049
Geschwindigkeit der Fl¨ ussigkeit in x zur Zeit t steht. Die Geschwindigkeit u ist ein Vektor u = (u1 , u2 , u3 ). Sei ρ(x, t) die Dichte einer Fl¨ ussigkeit in (x, t), die die Masse der Fl¨ ussigkeitsteilchen pro Einheitsvolumen angibt. Sei V ein festes Volumen mit Begrenzung S. Die gesamte Masse der Fl¨ ussigkeit in V zur Zeit t ergibt sich aus ρ(x, t) dx. V
Die Masse der Fl¨ ussigkeit, die zur Zeit t pro Einheitszeit durch die Grenze S fließt, wird durch ρ(x, t)u(x, t) · n(x) ds(x) = ∇ · (ρu)(x, t) dx S
V
gegeben, wobei wir den Divergenzsatz benutzen. Die Ver¨anderung der Masse in V muss zusammen mit dem Massenfluss durch die Begrenzung Null ergeben, wenn wir davon ausgehen, dass keine Fl¨ ussigkeit weggenommen wird oder hinzukommt. Dies f¨ uhrt uns zu folgendem Ausdruck f¨ ur die Massenerhaltung: ∂ ρ(x, t) dx + ∇ · (ρu)(x, t) dx = 0. ∂t V V ∂ unter das Integralzeichen gezoWenn sich ρ allm¨ ahlich ver¨ andert, kann ∂t gen werden. Da V beliebig war, f¨ uhrt uns das zur Differentialgleichung f¨ ur die Massenerhaltung: ∂ρ + ∇ · (ρu) = 0. (73.17) ∂t Dies ist nat¨ urlich eine wichtige Gleichung in der mathematischen Modellierung. Wenn wir die Ableitung nach x ausf¨ uhren, k¨onnen wir die Massenerhaltung auch in folgender Form schreiben:
∂ρ + u · ∇ρ + ρ∇ · u = 0. ∂t
(73.18)
Bahnlinien und Str¨omungslinien Die Geschwindigkeit einer Fl¨ ussigkeit sei durch die Funktion u(x, t) gegeben. Wir betrachten das AWP d x(t) = u(x(t), t) f¨ ur t > 0, x(0) = x0 . dt Die L¨ osung x(t) bildet eine Kurve, eine Bahnlinie oder eine Trajektorie, die sich aus der Verfolgung eines Fl¨ ussigkeitsteilchens ergibt, die in der Position ur t > 0 x0 zur Zeit t = 0 beginnt und mit der Geschwindigkeit u(x(t), t) f¨ fortgesetzt wird. Ist die Geschwindigkeit u(x, t) = u(x) unabh¨angig von der Zeit t, so werden die Teilchentrajektorien auch als Str¨omungslinien bezeichnet.
1050
73. Laplacesche Modelle
Inkompressible Str¨omung Wenn f¨ ur die Str¨ omungsgeschwindigkeit u(x, t) gilt, dass ∂u1 ∂u2 ∂u3 ∇ · u(x, t) = + + (x, t) = 0 f¨ ur x ∈ Ω, ∂x1 ∂x2 ∂x3
t > 0,
dann wird die Str¨ omung als inkompressibel in Ω f¨ ur t > 0 bezeichnet. Ist die Str¨ omung inkompressibel, dann nimmt die Gleichung (73.18) f¨ ur den Massenerhalt die folgende Gestalt an: ∂ρ + u · ∇ρ = 0. ∂t Da f¨ ur eine gegebene Teilchentrajektorie Kettenregel, dass
dx dt
(73.19) = u gilt, ergibt sich aus der
∂ ∂ρ ρ(x(t), t) = + u · ∇ρ = 0. ∂t ∂t Diese Gleichung besagt, dass die Dichte entlang einer Teilchentrajektorie konstant ist, oder anders formuliert, dass das Volumen, das von einer gewissen Menge an Fl¨ ussigkeitsteilchen eingenommen wird, konstant ist. Somit kann die Fl¨ ussigkeit nicht verdichtet, d.h. komprimiert, werden. Im Allgemeinen wird angenommen, dass die Dichte einer inkompressiblen Fl¨ ussigkeit konstant ist. Wasser ist fast inkompressibel; das Volumen eines Eimers voller Wasser zu ver¨ andern ist sehr schwierig. Luft ist kompressibel; die Pressluftflasche eines Tauchers enth¨ alt ein großes Luftvolumen bei Normaldruck, das in einem kleinen Volumen unter hohem Druck komprimiert und aufbewahrt wird. Allerdings ist Energie notwendig, um die Luft in die Pressluftflasche hineinzudr¨ ucken.
Inkompressible Potentialstr¨omung Bei sogenannter station¨arer Str¨omung ist die Geschwindigkeit u(x, t) von der Zeit unabh¨angig, so dass die Str¨ omungsgeschwindigkeit u(x) nur eine Funktion von x ∈ Ω ist. Beachten Sie, dass sich bei einer station¨aren Str¨ omung die Fl¨ ussigkeitsteilchen in x bewegen, wenn u(x) = 0, aber dass sich die Teilchengeschwindigkeit, die in x gemessen wird, nicht mit der Zeit ver¨ andert. Das Geschwindigkeitsfeld u(x) einer rotationsfreien Fl¨ ussigkeitsstr¨omung erf¨ ullt ∇ × u = 0, woraus unter entsprechenden Konvexit¨atsannahmen f¨ ur eine skalares Geschwindigkeitspotential ϕ folgt, dass u = ∇ϕ. Ist die Fl¨ ussigkeit inkompressibel, dann ist ∇ · u = 0 und wir erhalten die LaplaceGleichung ∆ϕ = 0 f¨ ur das Potential einer rotationsfreien inkompressiblen Str¨ omung. An einer festen Begrenzung, die die Fl¨ ussigkeit nicht durchdringen kann, ist die Geschwindigkeit senkrecht zur Begrenzung gleich Null,
73.9 Str¨ omungsmechanik
1051
wodurch wir f¨ ur das Potential ϕ eine homogene Neumann-Randbedingung ∂n ϕ = 0 erhalten. Wir wollen nun einige wichtige Beispiele f¨ ur inkompressible Potentialstr¨ omungen geben. Der Einfachheit halber betrachten wir nur Situationen, in denen die Geschwindigkeit u(x) nicht von der x3 -Koordinate abh¨angig ist. Beispiel 73.6. Das Potential ϕ(x1 , x2 ) = x21 − x22 erf¨ ullt ∆ϕ = 0 und die zugeh¨ orige Str¨ omungsgeschwindigkeit u = ∇ϕ wird durch u(x) = (2x1 , −2x2 ) gegeben. Daher stellt sich in den Ecken eine station¨are Str¨omung ein, vgl. Abb. 73.5. F¨ ur eine Str¨ omungslinie x(t) gilt dx dt = (2x1 , −2x2 ), wodurch wir eine separierbare Gleichung mit L¨ osungen x1 (t)x2 (t) = c erhalten, wobei c eine beliebige Konstante ist, vgl. Abb. 73.5. Wir u ¨ berd x1 x2 = x˙ 1 x2 + x1 x˙ 2 = 2x1 x2 − 2x1 2x2 = 0 pr¨ ufen dies, indem wir dt berechnen. 3
3
3
2
2
2
1
1
1
0
0
0
-1
-1
-1
-2
-2
-2
-3
-3
-2
0
2
-2
0
2
-3
-2
0
2
Abb. 73.5. Beispiele f¨ ur inkompressible Potentialstr¨ omungen
Beispiel 73.7. Das Potential ϕ(x) = log(x) erf¨ ullt ∆ϕ = 0 f¨ ur x = 0 und die zugeh¨ orige Fließgeschwindigkeit u = ∇ϕ x wird durch u(x) = x 2 gegeben, vgl. Abb. 73.5. Beispiel 73.8. Wir betrachten die inkompressible Potentialstr¨omung von links nach rechts um einen senkrechten unendlichen kreisf¨ormigen Zylinder
1052
73. Laplacesche Modelle
mit Querschnitt Ω = {x = (x1 , x2 ) ∈ R2 : x < 1}, vgl. Abb. 73.5. Das Potential ϕ lautet in Polarkoordinaten x = r(cos(θ), sin(θ)): 1 ϕ(x) = ϕ(r, θ) = r + cos(θ) r und entspricht damit einer Str¨ omung von links nach rechts um Ω herum, die sich f¨ ur große x2 an u(x) = (1, 0) ann¨ahert. Wir halten fest, dass 2 ur r = 1, so dass die ∇ϕ = 0 f¨ ur r = 0 und dass ∂ϕ ∂r = 1 − 1/r = 0 f¨ Str¨ omung zur Zylinderwand tangential verl¨ auft. Beachten Sie, dass die Str¨ omung von Fl¨ ussigkeiten selten im gesamten Gebiet, das die Fl¨ ussigkeit einnimmt, rotationsfrei ist. Insbesondere dann nicht, wenn die Fl¨ ussigkeit viskos (z¨ ahfl¨ ussig) ist, da dann an festen Grenzen Wirbel erzeugt werden.
Inkompressible Str¨omung mit Rotation Als N¨ achstes betrachten wir die zwei-dimensionale inkompressible Str¨omung mit von Null verschiedener Rotation. Wir gehen davon aus, dass ullt, mit x = (x1 , x2 ). u(x) = (u1 (x), u2 (x)) die Gleichung ∇ · u = 0 erf¨ Indem wir v = (−u2 , u1 ) definieren, l¨ asst sich diese Gleichung in der Form ∇ × v = 0 schreiben und unter geeigneten Konvexit¨atsannahmen existiert ein Potential ϕ mit v = ∇ϕ. Somit gilt: u = (v2 , −v1 ) = (
∂ϕ ∂ϕ ,− ) = ∇ × ϕ. ∂x2 ∂x1
F¨ ur die vorgegebene Rotation ∇×u = f erhalten wir die Poisson-Gleichung f¨ ur ϕ: f = ∇ × u = ∇ × (∇ × ϕ) = −∆ϕ.
Beispiel 73.9. F¨ ur f = 4 erhalten wir f¨ ur das Potential ϕ(x) = −x2 die Str¨ omungsgeschwindigkeit u(x1 , x2 ) = (−2x2 , 2x1 ), vgl. Abb. 73.6. Die Wahl von ϕ(x) = log(x) entspricht f (x) = 0 f¨ ur x = 0 mit zugeh¨origer Geschwindigkeit u(x1 , x2 ) = x−2 (−x2 , x1 ), vgl. Abb. 73.6.
Die Euler- und die Navier-Stokes-Gleichung Die Euler-Gleichung f¨ ur eine inkompressible nicht viskose Fl¨ ussigkeit mit konstanter Dichte gleich Eins besitzt die Form: ∂u + (u · ∇)u + ∇p = f, ∂t
∇ · u = 0,
(73.20)
73.9 Str¨ omungsmechanik 3
3
2
2
1
1
0
0
-1
-1
-2
-2
-3 -3
-2
-1
0
1
2
3
-3 -3
-2
-1
0
1
2
1053
3
Abb. 73.6. Inkompressible Str¨ omung mit Rotation
wobei u(x, t) die Geschwindigkeit und p(x, t) der Druck der Fl¨ ussigkeit im Punkte x zur Zeit t ist. Dabei ist f eine einwirkende Volumenkraft wie beispielsweise die Schwerkraft. Bei einer nicht viskosen Fl¨ ussigkeit ist die Viskosit¨at gleich Null und zwischen den Fl¨ ussigkeitsteilchen herrscht als einzige innere Kraft die Druckkraft, die in alle Richtungen gleich ist und auf alle Fl¨ achen senkrecht einwirkt. Die Gleichung ∇ · u = 0 bringt zum Ausdruck, dass die Fl¨ ussigkeit inkompressibel ist. Ist x(t) die Trajektorie, der ein Fl¨ ussigkeitsteilchen folgt, f¨ ur das dx dt = u(x(t), t) gilt, so ist nach d dem Newtonschen Gesetz die Beschleunigung dt u(x(t), t) gleich der Kraft −∇p + f . Dies ist in der linken Gleichung formuliert, wobei sich die Kraft aus der Druckkraft −∇p und der einwirkenden Kraft f zusammensetzt. Dieser Zusammenhang wird deutlich, wenn wir die Kettenregel und die Gleichung dx dt = u(x(t), t) benutzen: ∂ui dx ∂ui d ui (x(t), t) = + · ∇ui = + (u · ∇)ui . dt ∂t dt ∂t
Abb. 73.7. Luftstr¨ omung und Druck um einen Spielzeugzug
1054
73. Laplacesche Modelle
Dies ist die Vektorschreibweise von (73.20). Die Navier-Stokes-Gleichung ist eine Modifikation der Euler-Gleichung und enth¨alt einen zus¨atzlichen Ausdruck f¨ ur die Viskosit¨ atskraft −ν∆u mit dem Viskosit¨atskoeffizienten ν. In einer viskosen Fl¨ ussigkeit treten außerdem tangentiale (Scher-) Kr¨afte an den Fl¨ achen auf.
73.10 Die Maxwellschen Gleichungen Die Wechselwirkungen zwischen elektrischen und magnetischen Feldern werden durch die Maxwellschen Gleichungen beschrieben: ⎧ ∂B ⎪ ⎪ + ∇ × E = 0, ⎪ ⎪ ∂t ⎪ ⎪ ⎨ ∂D + ∇ × H = J, − (73.21) ∂t ⎪ ⎪ ⎪ ∇ · B = 0, ∇ · D = ρ, ⎪ ⎪ ⎪ ⎩ B = µH, D = E, J = σE. Dabei ist E das elektrische Feld, H das magnetische Feld, D die elektrische Verschiebung, B die magnetische Flussdichte, J der elektrische Strom, ρ die Ladung, µ die magnetische Permeabilit¨at, die Dielektrizit¨atskonstante der elektrischen Leitf¨ahigkeit und σ die elektrische Leitf¨ahigkeit. Die erste Gleichung ist auch als Faradaysches Gesetz bekannt, die zweite als Amp`eresches Gesetz, ∇ · D = ρ ist das Coulomb Gesetz. Das Gesetz von Gauss ∇ · B = 0 bringt die Abwesenheit einer magnetischen Ladung“ zum ” Ausdruck und J = σE entspricht dem Ohmschen Gesetz. Von Maxwell, vgl. unden Abb. 73.8, wurde der Ausdruck ∂D/∂t aus rein mathematischen Gr¨ eingef¨ uhrt. Dann nutzte er die Infinitesimalrechnung, um die Existenz von elektromagnetischen Wellen vorherzusagen, bevor diese experimentell entdeckt wurden. Typische Randbedingungen beinhalten verschiedene Kombinationen von E · n (idealer Isolator), E × n (idealer Leiter), H · n und H × n. Die Maxwellschen Gleichungen beschreiben s¨amtliche elektromagnetischen Ph¨ anomene mit einer in Erstaunen versetzenden kurzen Schreibweise und Modellierungsgenauigkeit. Unsere moderne Informationsgesellschaft ist auf elektromagnetische Wellen aufgebaut. Wir wollen nun eine Reihe von Modellen mit Laplace-Gleichungen aus den Maxwellschen Gleichungen herausgreifen indem wir einige wichtige Spezialf¨alle betrachten.
Elektrostatik Ein wichtiges Problem in der Elektrostatik ist die Beschreibung des station¨ aren elektrischen Feldes E(x) in einem Volumen Ω in R3 , das eine Ladung
73.10 Die Maxwellschen Gleichungen
1055
Abb. 73.8. Maxwell (1831–1879), Erfinder der mathematischen Theorie f¨ ur den Elektromagnetismus: Wir k¨ onnen wohl kaum der Folgerung entgehen, dass Licht ” in transversalen schl¨ angelnden Bewegungen desselben Mediums besteht, das auch Ursache f¨ ur elektrische und magnetische Ph¨ anomene ist“
mit Dichte ρ(x) enth¨ alt und von einer ideal leitenden Fl¨ache Γ umgeben ist. Nach dem Faradayschen Gesetz gilt ∇×E =0
in Ω,
da wir von ∂B ∂t = 0 ausgehen. Wir erinnern uns an das Kapitel ”Potentialfelder“, wonach das elektrische Feld E dem Gradienten eines skalaren elektrischen Potentials ϕ entspricht, d.h. E = ∇ϕ. Nach dem Coulomb Gesetz gilt: ∇·E = ρ
in Ω,
wodurch wir die Poisson-Gleichung f¨ ur das Potential ϕ erhalten: ∆ϕ = ∇ · ∇ϕ = ρ in Ω. Die Randbedingung E×n = 0 f¨ ur die Begrenzung Γ von Ω, mit der ausw¨arts gerichteten Einheitsnormalen n, besagt, dass die tangentiale Komponente von E auf der Begrenzung verschwindet. Dadurch wird eine ideal leitende Begrenzungsfl¨ ache modelliert, in der nat¨ urlich alle Unterschiede im elektrischen Feld ausgeglichen werden. Dies bedeutet, dass E = ∇ϕ zur Begrenzung normal ist, d.h. die Begrenzung ist eine Isofl¨ache von ϕ und das Potential ϕ ist auf der Begrenzungsfl¨ ache konstant. Da ϕ nur bis auf einen konstanten Wert eindeutig bestimmt ist, k¨ onnen wir auf der Begrenzung ϕ = 0 setzen, wodurch wir die Poisson-Gleichung −∆ϕ = f mit f = −ρ in Ω mit homogenen Dirichlet-Randbedingungen ϕ = 0 auf Γ erhalten. Das Potential ϕ(x) einer Punktladung im Ursprung lautet c ϕ(x) = x
1056
73. Laplacesche Modelle
mit zugeh¨ origem elektrischen Feld E(x) = −
cx x3
f¨ ur eine geeignete Konstante c. Wir werden unten auf diese L¨osung zur¨ uckkommen. Beispiel 73.10. Sei Ω = {x ∈ R2 : x < 1, x1 < 0 und x2 > 0} ein Teil einer kreisf¨ ormigen Scheibe mit Winkel ω = 3π uck 2 , aus der ein St¨ herausgeschnitten ist, vgl. Abb. 73.9. Durch direkte Berechnung k¨onnen wir zeigen, dass die Funktion ϕ(x) = rα sin(αθ), die in Polarkoordinaten x = r(cos(θ), sin(θ)) mit α = ωπ = 23 formuliert ist, die Laplace-Gleichung ∆ϕ = 0 in Ω erf¨ ullt und dabei auch der Randbedingung ϕ = 0 auf den geraden Teilen der Grenzlinien, die durch den Ursprung laufen, gen¨ ugt. Wenn ϕ f¨ ur ein elektrisches Potential steht, dann gilt f¨ ur das zugeh¨ orige elektrische Feld E(x) = ∇ϕ(x): ∂E = αrα−1 sin(αθ). ∂r Da α < 1, ist dieses Feld in der Ecke mir r = 0 singul¨ar (unendlich). Dies bedeutet, dass das elektrische Feld nahe dieser Ecke sehr stark ist. Je sch¨ arfer diese Ecke ist (α ist dann kleiner), desto st¨arker ist das Feld. Diesen Effekt kennen wir aus unserer Erfahrung, wonach ein elektrischer Blitz wahrscheinlicher in einen spitzen Turm einer Kirche einschl¨agt als in einen flachen Berg, oder auch von einem elektronischen Scanner, bei dem Elektronen aus der Spitze einer scharfen Nadel herausspringen.
Beispiel 73.11. Das Potential ϕ des elektrischen Feldes zwischen zwei konzentrischen Kugeln S1 = {x ∈ R3 : x < r1 } und S2 = {x ∈ R3 : x < r2 } mit r2 > r1 lautet ϕ(x) =
1 , x
wenn wir annehmen, dass ϕ = 1/ri auf Si , i = 1, 2. Beispiel 73.12. Die f¨ ur x1 > 0 definierte Funktion x2 ϕ(x1 , x2 ) = arctan x1
73.10 Die Maxwellschen Gleichungen
1057
2.5
ϕ
E(x1 , x2 ) 3
2
2 1.5 1
x
2
1
0 -1
0.5 -2 0
-3
-5
-3
-2
-1
0 x
1
2
3
1
5
0 0 x2
5
-5
x
1
Abb. 73.9. Ein Potential mit einem singul¨ aren elektrischen Feld
erf¨ ullt die Gleichung ∆ϕ(x) = 0 f¨ ur x1 > 0. Die Funktion ist auf Strahlen x2 = cx1 , die durch den Ursprung mit Neigung c verlaufen, konstant gleich arctan(c). Das zugeh¨ orige elektrische Feld E(x) = ∇ϕ(x) wird durch E(x) =
(−x2 , x1 ) x2
gegeben. Wir k¨onnen erkennen, dass E(x) in x = 0 singul¨ar ist.
Magnetostatik Wenn wir annehmen, dass µ konstant ist und dabei gleichzeitig gew¨ahrleisten, dass H = ∇ × ψ f¨ ur ein Vektorpotential ψ f¨ ur das ∇ · ψ = 0 gilt, erhalten wir ein wichtiges Problem der Magnetostatik. Dabei kombinieren wir das Gesetz von Gauss ∇ · H = 0 mit dem Faradayschen Gesetz ∇ × H = J zu: ∇ × (∇ × ψ) = −∆ψ = J, wobei wir die Tatsachen ausnutzen, dass ∇ × (∇ × ψ) = −∆ψ + ∇(∇ · ψ) und ∇ · ψ = 0. Das magnetische Feld um einen Einheitsstrom J in x3 -Richtung wird durch H(x) =
1 (−x2 , x1 , 0) 2π x2
1058
73. Laplacesche Modelle
gegeben, was sich durch direkte Berechnung zeigen l¨asst. Dazu pr¨ ufen wir zun¨ achst nach, dass ∇ · H(x) = 0 und∇ × H(x) = 0 f¨ ur (x1 , x2 ) = 0. 1 f¨ uhrt zu Γ H · ds = 1 f¨ ur jeden im UhrzeiDie Gegenwart des Faktors 2π gersinn orientierten Kreis in der x1 x2 -Ebene, woraus nach dem Satz von Stokes folgt, dass ∇ × H = J, wie wir in den n¨achsten Abschnitten u ¨ ber Gravitation und Delta-Funktionen zeigen werden.
Zeitabh¨angiger Magnetismus In niederfrequenten Anwendungen spielt der so intelligent von Maxwell einassigbare Rolle und kann weggelassen gef¨ uhrte Ausdruck ∂D ∂t eine vernachl¨ werden. Wir wollen untersuchen, wohin uns das f¨ uhren mag. Da ∇ · B = 0, k¨ onnen wir das Magnetfeld B als B = ∇× ψ schreiben, wobei ψ ein magnetisches Vektorpotential ist. Wenn wir diesen Ausdruck in das Faradaysche Gesetz einsetzen, erhalten wir ∂ψ + E = 0, ∇× ∂t woraus folgt, dass ∂ψ + E = ∇ϕ ∂t f¨ ur ein skalares Potential ϕ. Wir k¨ onnen mit σ multiplizieren und das Ohmsche und das Amp`eresche Gesetz benutzen und erhalten so eine Vektorgleichung f¨ ur das magnetische Potential ψ: ∂ψ σ + ∇ × µ−1 ∇ × ψ = σ∇ϕ. ∂t Dieses System l¨ asst sich unter der Annahme, dass B = (B1 , B2 , 0) von x3 unabh¨ angig ist, zu einer skalaren Gleichung in zwei Variablen reduzieren. Daraus ergibt sich f¨ ur ψ die Gestalt ψ = (0, 0, u) mit einer skalaren Funkangt, so dass also B1 = ∂u/∂x2 und tion u, die nur von x1 und x2 abh¨ ur B2 = −∂u/∂x1 . Wir gelangen schließlich zu einer skalaren Gleichung f¨ das skalare magnetische Potential u in der Form ∂u − ∇ · µ−1 ∇u = f, σ (73.22) ∂t mit einer Funktion f (x1 , x2 ). Wenn wir σ = µ = 1 w¨ahlen, gelangen wir zu der W¨ armegleichung ⎧ ∂ ⎪ ur x ∈ Ω, 0 < t ≤ T, ⎨ ∂t u(x, t) − ∆u(x, t) = f (x, t) f¨ (73.23) u(x, t) = 0 f¨ ur x ∈ Γ, 0 < t ≤ T, ⎪ ⎩ f¨ ur x ∈ Ω, u(x, 0) = u0 (x) f¨ ur Ω ⊂ R2 mit der Begrenzung Γ, wobei wir die homogene DirichletRandbedingung formuliert haben. Im station¨aren Fall erhalten wir wiederum die Poisson-Gleichung mit Dirichlet-Randbedingungen.
73.11 Die Gravitation
1059
73.11 Die Gravitation In seinem ber¨ uhmten f¨ unfb¨ andigen Werk M´ecanique C´eleste, das zwischen 1799–1825 ver¨ offentlicht wurde, erweiterte Laplace die Newtonsche Gravitationstheorie und entwickelte insbesondere eine Theorie f¨ ur die Beschreibung von Schwerkraftfeldern, die auf Gravitationspotentialen, die die Laplace-Gleichung oder ganz allgemein die Poisson-Gleichung erf¨ ullen, aufbaut. Wir betrachten ein Schwerkraftfeld in R3 mit Gravitationskraft F (x) in der Position x, das durch eine Massenverteilung der Dichte ρ(x) hervorgerufen wird. Wir ber¨ ucksichtigen dabei, dass die Arbeit, um eine Einheitsmasse entlang einer Kurve Γ zu bewegen, durch F · ds Γ
gegeben ist. Ist die Kurve Γ geschlossen, dann sollte die zu verrichtende Gesamtarbeit gleich Null sein. Nach dem Satz von Stokes folgt, dass f¨ ur ein Schwerkraftfeld F die Gleichung ∇ × F = 0 gelten sollte. Mit Hilfe des wichtigen Ergebnisses aus dem Kapitel Potentialfelder“ k¨onnen wir ” den Schluss ziehen, dass F dem Gradienten eines skalaren Potentials ϕ entspricht, d.h. F (x) = ∇ϕ(x). (73.24) Laplace schlug die folgende Beziehung zwischen dem Schwerkraftfeld F und der Massenverteilung ρ vor: −∇ · F (x) = ρ(x),
(73.25)
wobei wir von einer auf Eins normierten Gravitationskonstanten ausgehen. Diese Formulierung ist analog zum Coulomb Gesetz ∇ · E = ρ der Elektrostatik und zur Energieausgleichsgleichung ∇ · q = f der station¨aren W¨ armeleitung, wobei q f¨ ur den W¨ armefluss steht und f f¨ ur eine W¨armequelle. Insbesondere besagt (73.25), dass in den Punkten x, in denen keine Masse vorhanden ist und folglich ρ(x) = 0 gilt, die Gleichung ∇ · F (x) = 0 erf¨ ullt ist. Wenn wir (73.24) und (73.25) kombinieren, gelangen wir zur ur das Graviationspotential ϕ. Poisson-Gleichung −∆ϕ = ρ f¨ Da f¨ ur die Ursache und die Eigenschaft der entfernten Wirkung“ der ” Gravitation immer noch eine u ¨berzeugende physikalische Erkl¨arung fehlt, sollte die Gleichung −∇·F (x) = ρ(x) und somit ∇·F (x) = 0 im materiefreien Raum als das zentrale Postulat u ¨ber die Natur eines Gravitationsfeldes aufgefasst werden. Nat¨ urlich f¨ allt es sehr schwer, sich vorzustellen, dass ∇ · F (x) im materiefreien Raum etwas anderes als Null sein sollte, aber ein echter Beweis“ daf¨ ur, dass ∇ · F (x) Null sein muss, scheint noch zu fehlen. ” Newton betrachtete Gravitationsfelder, die durch Punktmassen erzeugt wurden. Mathematisch betrachtet wird eine Einheitspunktmasse in einem
1060
73. Laplacesche Modelle
Punkte z ∈ R3 durch die so genannte Delta-Funktion δz in z dargestellt, die durch die Eigenschaft definiert wird, dass f¨ ur jede glatte Funktion v δz v dx = v(z) (73.26) R3
gilt, wobei die Integration in einem verallgemeinerten Sinne zu sehen ist. ur kleiner Wir k¨ onnen uns δz als Grenzwert der positiven Funktionen ϕh (x) f¨ werdendes h vorstellen, mit ϕh (x) = 0 f¨ ur x − z > h, wobei die ϕh (x) ϕh (x) dx = 1 R3
erf¨ ullen. Beispielsweise k¨ onnten wir
f¨ ur x − z < h sonst
3 4πh3
ϕh (x) =
0
w¨ ahlen. Ist v(x) in z Lipschitz-stetig, dann folgt limh→0 ϕh (x)v(x) dx = v(z), R3
wodurch (73.26) eine praktische Bedeutung erh¨alt. Die Funktion ϕh (x) beschreibt einen sehr spitzen und schmalen H¨ ugel“ um z mit Volumen ” Eins. Wir erwarten, dass das Gravitationspotential Φ(x), das zu einer Einheitsmasse im Ursprung geh¨ ort, die Gleichung −∆Φ = δ0
in R3
(73.27)
erf¨ ullt, wobei wir von der Gravitationskonstanten gleich Eins ausgehen. Um dieser Gleichung eine exakte Bedeutung zu verleihen und insbesondere die etwas mysteri¨ ose Delta-Funktion δ0 in 0 zu erkl¨aren, multiplizieren wir (73.27) zun¨achst mit einer glatten Testfunktion v, die außerhalb einer beschr¨ ankten Menge verschwindet. Wir erhalten so: ∆Φ(x)v(x) dx = v(0). (73.28) − R3
Als N¨ achstes integrieren wir die linke Seite rein formal mit Hilfe der Greenschen Formel partiell, um so den Laplace-Operator von Φ auf v zu verschieben. Dabei beachten wir, dass Randausdr¨ ucke wegfallen, da v außerhalb einer beschr¨ ankten Menge verschwindet. Somit k¨onnen wir (73.27) als die Suche nach einem Potential Φ(x) formulieren, das Φ(x)∆v(x) dx = v(0) (73.29) − R3
73.11 Die Gravitation
1061
f¨ ur alle glatten Funktionen v(x), die außerhalb einer beschr¨ankten Menge verschwinden, erf¨ ullt. Wir k¨ onnen dies als die konkrete Interpreation von (73.27) betrachten, die nun wohl-definiert ist, da der Laplace-Operator nun auf eine glatte Funktion v(x) angewandt wird und wir davon ausgehen, dass Φ(x) integrierbar ist. Wir verlangen außerdem, dass das Potential Φ(x) auf Null abnimmt, wenn x gegen Unendlich w¨achst, was einer Dirichlet” Randbedingung im Unendlichen“ entspricht. Im Kapitel Divergenz, Rotation und Laplace-Operator“ haben wir ge” zeigt, dass die Funktion 1/x die Laplace-Gleichung ∆u(x) = 0 f¨ ur 0 = ullt, aber in x = 0 singul¨ ar ist. Wir wollen nun beweisen, dass x ∈ R3 erf¨ die folgende skalierte Version dieser Funktion Φ(x) =
1 1 4π x
(73.30)
die Gleichung (73.29) erf¨ ullt. Wir bezeichnen diese L¨osung als die Fundamentall¨osung von −∆ in R3 . Wir werden insbesondere folgern, dass das Gravitationsfeld in R3 , das durch eine Einheitsmasse im Ursprung erzeugt wird, durch 1 x F (x) = ∇Φ(x) = − 4π x3 beschrieben wird, was genau dem Newtonschen Gravitationsgesetz mit inverser Proportionalit¨ at zum Quadrat des Abstands entspricht. Laplace liefert folglich eine Begr¨ undung f¨ ur das quadratische Verhalten, was Newton nicht konnte (weswegen er von Leibniz kritisiert wurde). Nat¨ urlich fehlt uns noch die Begr¨ undung von (73.25). Im Zusammenhang mit der W¨armeleitung beschreibt die Fundamentall¨ osung Φ(x) die station¨are Temperatur in einem homogenen K¨ orper mit der W¨ armeleitf¨ahigkeit Eins, der den gesamullt, in dem eine konzentrierte W¨ armequelle der St¨arke Eins im ten R3 ausf¨ Ursprung sitzt und die Temperatur gegen Null abnimmt, wenn x gegen Unendlich geht. Wir wollen nun beweisen, dass die Funktion Φ(x), die durch (73.30) definiert wird, die Gleichung (73.29) erf¨ ullt. Dazu halten wir zun¨achst fest, dass Φ∆v dx = lim Φ∆v dx, (73.31) R3
a→0+
Da
da ∆v eine glatte Funktion ist, die außerhalb einer beschr¨ankten Menge verschwindet und wir annehmen, dass Φ(x) u ¨ber beschr¨ankte Gebiete integrierbar ist. Dabei ist Da = {x ∈ R3 : a < x < a−1 } mit einem kleinen positiven a ein beschr¨ ankter Bereich, den wir aus R3 erhalten, indem wir eine kleine Kugel mit Radius a und Begrenzungsfl¨ache Sa entfernen und auch Punkte, die weiter als a−1 vom Ursprung entfernt sind, weglassen, vgl. Abb. 73.10. Wir benutzen nun die Greensche Formel f¨ ur Da mit w = Φ. Da v f¨ ur große x Null ist, verschwinden die Integrale u ¨ber die ¨außere Begrenzung, wenn a gen¨ ugend klein ist. Wenn wir dann noch ausnutzen,
1062
73. Laplacesche Modelle
dass ∆Φ = 0 in Da , Φ = 1/(4πa) auf Sa und ∂Φ/∂n = 1/(4πa2 ) auf Sa , wobei die Normale zum Ursprung hin gerichtet ist, erhalten wir: 1 1 ∂v ds = I1 (a) + I2 (a), Φ∆v dx = v ds − − 2 4πa 4πa ∂n Da Sa Sa mit entsprechenden Definitionen f¨ ur I1 (a) und I2 (a). Da v(x) in x = 0 stetig ist und die Fl¨ ache von Sa gleich 4πa2 betr¨ agt, gilt aber lima→0 I1 (a) = v(0). unschte Gleichung (73.29) Andererseits gilt aber lima→0 I2 (a) = 0. Die gew¨ ergibt sich nun daraus, wenn wir dabei noch (73.31) bedenken.
a−1 a Sa Da Abb. 73.10. Ein Querschnitt durch das Gebiet Da
Die zugeh¨ orige Fundamentall¨ osung von −∆ in R2 lautet 1 1 log Φ(x) = . 2π x
(73.32)
F¨ ur diesen Fall ist die Fundamentall¨ osung im Unendlichen nicht Null. Wenn wir 0 durch einen beliebigen Punkt z ∈ R3 ersetzen, wird (73.29) zu − Φ(z − x)∆v(x) dx = v(z), (73.33) R3
womit wir eine L¨ osungsformel f¨ ur die Poisson-Gleichung in R3 erhalten. Erf¨ ullt u beispielsweise die Poisson-Gleichung −∆u = f in R3 und u(x) = ur x → ∞, dann kann u mit Hilfe der Fundamentall¨osung Φ O(x−1 ) f¨ und der rechten Seite f folgendermaßen formuliert werden: f (x) 1 dx. (73.34) Φ(z − x)f (x) dx = u(z) = 4π z − x 3 3 R R Wir erkennen, dass u(z) einem Mittelwert von f entspricht, der um z zentriert ist und so gewichtet ist, dass der Einfluss der Werte von f (x) invers proportional zum Abstand von z ist. Ganz ¨ ahnlich ergibt sich das Potential u auf einer (beschr¨ankten) Oberfl¨ ache Γ in R3 , das durch eine Massenverteilung mit Dichte ρ(x) erzeugt wird, zu ρ(x) 1 ds(x). (73.35) u(z) = 4π Γ z − x
73.12 Das Eigenwertproblem f¨ ur den Laplace-Operator
1063
Formal erhalten wir diese Formel, indem wir einfach die Potentiale der verschiedenen Teile der Masse auf Γ addieren. Wir k¨onnen zeigen, dass das Potential u, das durch (73.35) definiert wird, in R3 stetig ist, wenn ρ auf Γ beschr¨ ankt ist und nat¨ urlich erf¨ ullt u die Laplace-Gleichung außerhalb von Γ. Angenommen, wir wollten nun die Massenverteilung ρ auf Γ bestimmen, so dass das zugeh¨ orige Potential u, das durch (73.35) definiert ist, dem vorgegebenen Potential u0 auf Γ entspricht, d.h. wir suchen insbesondere eine Funktion u, die das Randwertproblem ∆u = 0 in Ω erf¨ ullt mit u = u0 auf Γ, wobei Ω f¨ ur das Volumen steht, das von Γ umschrieben wird. Dies f¨ uhrt uns zu folgender Integralgleichung: Sei u0 auf Γ gegeben, so suchen wir die Funktion ρ auf Γ, so dass gilt: 1 ρ(y) ds(y) = u0 (x) f¨ ur x ∈ Γ. (73.36) 4π Γ x − y Dies ist eine Fredholm-Integralgleichung erster Art, die nach dem schwedischen Mathematiker Ivar Fredholm (1866–1927) benannt ist. Zu Anfang des 20. Jahrhunderts wetteiferten Fredholm und Hilbert mit Hilfe von Integralgleichungsmethoden um den Existenzbeweis f¨ ur L¨osungen der zentralen Randwertprobleme der Mechanik und der Physik. Die Integralgleichung (73.36) ist eine alternative Formulierung f¨ ur das Randwertproblem zur Suche von u, so dass ∆u = 0 in Ω und u = u0 auf Γ. Integralgleichungen k¨ onnen auch mit Hilfe von Galerkin-Methoden gel¨ost werden.
73.12 Das Eigenwertproblem fu ¨r den Laplace-Operator Das Eigenwertproblem f¨ ur den Laplace-Operator mit Dirichlet-Randbedingungen auf einem Gebiet Ω in Rd besitzt die folgende Form: Gesucht sind die von Null verschiedenen Eigenfunktionen ϕ(x) mit den zugeh¨origen Eigenwerten λ, so dass −∆ϕ = λϕ in Ω, (73.37) ϕ=0 auf Γ. Im ein-dimensionalen Fall mit Ω = (0, π) lauten die Eigenfunktionen (modulo einer Normierung) ϕn (x) = sin(nx) mit den zugeh¨origen Eigenwerur ein zwei-dimensionales Quadrat Ω = ten λn = n2 , n = 1, 2, . . .. F¨ (0, π) × (0, π) lauten die Eigenfunktionen ϕnm (x1 , x2 ) = sin(nx1 ) sin(mx2 ), n, m = 1, 2, . . . , mit den Eigenwerten λnm = n2 + m2 . Durch Multiplikation von (73.37) mit ϕ und anschließender partieller Integration ergibt sich, dass alle Eigenwerte λ positiv sind. Genauer formuliert, so existiert eine anwachsende gegen Unendlich strebende Folge von Eigenwerten. Eigenfunktionen uglich zu verschiedenen Eigenwerten sind bez¨ des Skalarprodukts (v, w) = Ω vw dx orthogonal.
1064
73. Laplacesche Modelle
Ist ϕ(x) eine Eigenfunktion origem Eigenwert λ, dann l¨ost die √ mit zugeh¨ Funktion u(x, t) = exp(it λ)ϕ(x), genauer gesagt, ihr Realteil, die homogene Wellengleichung u¨ − ∆u = 0 in Ω × R, die ebenso eine schwingende elastische Membran (Schlagzeugfell) f¨ ur d = 2 (eine Saite f¨ ur d = 1) beschreibt. Der kleinste Eigenwert entspricht dem Grundton des Schlagzeugfells. In Abb. 73.11 sind Konturzeichnungen f¨ ur die ersten vier Eigenfunktionen dargestellt, die zu λ1 ≈ 38, 6, λ2 ≈ 83, 2, λ3 ≈ 111, 0 und λ4 ≈ 122, 0 geh¨ oren. Dabei soll Ω der Decke einer Gitarre in Ellipsenform entsprechen mit Dirichlet-Randbedingungen an den ¨ außeren Grenzen und NeumannRandbedingungen im Deckenloch.
Abb. 73.11. Konturzeichnungen der ersten vier Eigenfunktionen einer Gitarrendecke zu (a) λ1 ≈ 38, 6, (b) λ2 ≈ 83, 2, (c) λ3 ≈ 111 und (d) λ4 ≈ 122. Sie wurden mit Femlab mit festem Gitterabstand von 0, 02 Durchmesser berechnet
Die kleineren Eigenwerte sind bei Betrachtungen zum Design am wichtigsten. Dies gilt insbesondere beim Entwurf von H¨angebr¨ ucken, die so gebaut werden m¨ ussen, dass die unteren Schwingungseigenwerte in der Br¨ ucke nicht nahe bei m¨ oglichen durch den Wind induzierten Frequenzen liegen. Dies wurde bei den ersten H¨ angebr¨ ucken nicht richtig verstanden, was zum ber¨ uhmten Einsturz der Br¨ ucke von Tacoma im Jahre 1940 f¨ uhrte.
73.13 Quantenmechanik
1065
Der kleinste Eigenwert entspricht dem Minimum des Rayleigh-Quotienten (∇ψ, ∇ψ) , (ψ, ψ) wenn wir u ullen, mi¨ ber alle Funktionen ψ, die die Randbedingungen erf¨ nimieren. Ganz allgemein entsprechen die Eigenwerte station¨aren Punkten des Rayleigh-Quotienten.
73.13 Quantenmechanik Die beiden revolution¨ arsten Ergebnisse der Physik w¨ahrend des 20. Jahrhunderts waren die Entwicklung der Allgemeinen Relativit¨atstheorie durch Albert Einstein zur Gravitation in astronomischen Skalen und die Quantenmechanik durch Schr¨ odinger (1887-1961, 1933 Nobelpreis f¨ ur Physik) f¨ ur atomare Skalen, vgl. Abb. 73.12. Einstein akzeptierte die Quantenmechanik niemals vollst¨ andig. Die große einheitliche Theorie, die Schwerkraft und Quantenmechanik miteinander verbindet, wobei die Stringtheorie zu den neueren Versuchen z¨ ahlt, um diese L¨ ucke zu u ucken, fehlt nach ¨berbr¨ wie vor. Die zentrale Gleichung der Quantenmechanik ist die Schr¨odingergleichung, die f¨ ur ein System von N -Elektronen (in der Born-Oppenheimer N¨ aherung) die folgende normierte Form annimmt: ⎛ ⎞ 1 ∂ϕ = Hϕ = ⎝− (73.38) ∆j + V (r1 , . . . , rN )⎠ ϕ, i ∂t 2 j mit der imagin¨ aren Einheit i und einer Wellenfunktion ϕ = ϕ(r1 , . . . , rN , t), die von der Menge der Raumkoordinaten (r1 , . . . , rN ) abh¨angt. Dabei verandert sich jedes rj u ¨ ¨ ber die Zeit t in R3 , und ∆j bezeichnet den LaplaceOperator bez¨ uglich der Koordinaten rj ∈ R3 . Die abstoßenden Coulomb Kr¨ afte zwischen den Elektronen und die anziehenden Coulomb Kr¨afte zwischen den Elektronen und den (fixen) Kernen des Systems werden im Coudas von den Koordinaten lomb Potential V (r1 , . . . , rN ) zusammengefasst, angt. H = − 21 j ∆j + V wird als Hamilton-Operator be(r1 , . . . , rN ) abh¨ zeichnet. Er fasst die Summe aus kinetischer und potentieller Energie zusammen. Die Wellenfunktion ist komplexwertig und ihr Betragsquadrat steht f¨ ur die Wahrscheinlichkeitsdichte von Elektronen. Die Schr¨ odingergleichung scheint eine sehr gute Beschreibung f¨ ur Ph¨anomene auf atomaren Skalen zu liefern, aber ungl¨ ucklicherweise ist ihre Handhabung nicht einfach, da so viele r¨ aumliche Dimensionen ber¨ ucksichtigt werden m¨ ussen: F¨ ur ein System mit 100 Elektronen, was immer noch sehr
1066
73. Laplacesche Modelle
Abb. 73.12. Schr¨ odinger (1887–1961) im Alter von 13: Ich war in allen F¨ achern ” ein guter Student, liebte Mathematik und Physik, aber auch die strenge Logik der antiken Grammatiken und hasste nur das Auswendiglernen von Geschichtsdaten und Fakten. Von den deutschen Dichtern liebte ich besonders die Dramatiker, hasste aber die pedantische Zergliederung dieser Werke
klein ist, betr¨ agt die Zahl der Raum-Dimensionen 300 und Standardtechniken f¨ ur die analytische wie auch die numerische L¨osung sind doch sehr eingeschr¨ ankt. Obwohl die Schr¨ odingergleichung zugegebenermaßen eine wundervolle Gleichung ist, die eine u azise Beschreibung der atomaren ¨berraschend pr¨ Physik erlaubt, kann sie sicherlich unm¨ oglich exakt analytisch gel¨ost werden, weswegen N¨ aherungsl¨ osungen eine Schl¨ usselrolle zukommen. Der Nobelpreis f¨ ur Chemie wurde 1998 an Robert Kohn f¨ ur seine N¨aherungsl¨osung der Schr¨ odingergleichung verliehen, die darauf beruht, ein einziges Elektronendichtefunktional zu benutzen, dessen r¨aumliche Abh¨angigkeit unabh¨ angig von der Zahl der Elektronen und zugeh¨origen N¨aherungspotenankt ist. Derartig vereinfachte Schr¨odingergleichungen, tialen auf R3 beschr¨ die als Kohn-Sham Gleichungen bezeichnet werden, werden heute in der theoretischen Chemie ausgiebig eingesetzt.
73.13 Quantenmechanik
1067
Das Wasserstoffatom Das Wasserstoffatom, das aus einem Elektron und einem Proton besteht, ist der einzige Fall, f¨ ur den eine analytische L¨osung der Schr¨odingergleichung m¨ oglich ist: F¨ ur diesen Fall nimmt die Schr¨odingergleichung unter der Annahme, dass das Proton im Ursprung positioniert ist, die folgende (normierte) Gestalt an: Gesucht ist die Wellenfunktion ϕ(x, t) mit x ∈ R3 , so dass f¨ ur t > 0 ∂ϕ 1 i = − ∆ + V ϕ in R3 (73.39) ∂t 2 1 gilt, wobei ∆ der u uglich x ist und V (x) = − |x| ¨bliche Laplace-Operator bez¨ ist das Coulomb Potential des Protons. Die Normierung erfolgt so, dass |ϕ(x, t)|2 dx = 1 f¨ ur t > 0. R3
F¨ ur ein Gebiet Ω ∈ R3 beschreibt das Integral |ϕ(x, t)|2 dx Ω
die Wahrscheinlichkeit daf¨ ur, das Elektron zur Zeit t im Gebiet Ω anzup2 treffen. Rein formal betrachtet, beschreibt − 12 ∆ die kinetische Energie 2m mit Impuls p und Masse m, wobei p durch −i∇ ersetzt und m = 1 gesetzt wird. F¨ ur den harmonischen Fall mit einer Zeitabh¨angigkeit exp(−iωt) mit Frequenz ω erhalten wir das Eigenwertproblem: Gesucht ist ϕ(x) = 0 und ω ∈ R, so dass Hϕ = ωϕ, (73.40) wobei H = − 12 ∆ + V der Hamilton-Operator ist und der Eigenwert ω ein Energieniveau beschreibt. Die Eigenwerte sind reell und die (reelle) Eigenfunktion, die zum kleinsten Eigenwert (kleinste Energie) geh¨ort, wird als Grundzustand bezeichnet und die Eigenfunktionen zu h¨oheren Eigenwerten als angeregte Zust¨ande. Wenn wir sph¨ arische Symmetrie annehmen, nimmt (73.40) in sph¨arischen Koordinaten mit Radius r die folgende Form an: Gesucht ist ϕ(r), so dass −
1 d2 ϕ 1 dϕ 1 − ϕ = ωϕ f¨ ur r > 0, − 2 dr2 r dr r
mit der Nebenbedingung, dass ϕ(0) endlich ist und das Quadrat von ϕ(x) u ¨ ber R3 integrierbar ist. Der Grundzustand wird durch die Eigenfunktion ϕ(r) = exp(−r) gegeben mit zugeh¨ origem Eigenwert ω = − 21 .
1068
73. Laplacesche Modelle
Aufgaben zu Kapitel 73 73.1. Interpretieren Sie die Fixpunkt-Iteration f¨ ur die Poisson-Gleichung als ex− ∆u = f mit Zeitschritplizites Zeitschrittverfahren f¨ ur die W¨ armegleichung du dt aherung U 0 entspricht. Erkl¨ aren ten αh2 und einem Startwert, der der Anfangsn¨ Sie, warum die Konvergenz f¨ ur kleineres h langsamer wird. 73.2. Betrachten Sie eine waagerechte elastische Membran, die im unbelasteten Zustand mit homogener konstanter Spannung H auf einen geschlossenen Ring aufgezogen ist. Diskutieren Sie, unter welchen Bedingungen die Membran ein von Null verschiedenes Wasservolumen tragen kann und versuchen Sie, das Volumen zu berechnen. 73.3. Beweisen Sie, dass (73.32) eine Fundamentall¨ osung von −∆ in R2 ist. 73.4. Da die vorgestellten mathematischen Modelle f¨ ur den W¨ armefluss und die Gravitation, insbesondere die Poisson-Gleichung, gleich sind, k¨ onnen wir uns ein Gravitationspotential als Temperatur“ und ein Gravitationsfeld als W¨ arme” ” fluss“ denken. K¨ onnen Sie mit Hilfe dieser Analogie etwas u ¨ber die Gravitation verstehen“? ” 73.5. Formulieren Sie f¨ ur d = 2 die Integralgleichung (73.36). 73.6. Welche Gleichung erh¨ alt man, wenn der Ausdruck ∂D/∂t bei der Betrachtung des zeitabh¨ angigen Magnetismus’ nicht vernachl¨ assigt, sondern in der x3 Koordinate ber¨ ucksichtigt wird? 73.7. Leiten Sie die W¨ armegleichung her, die die W¨ armeleitung in einem d¨ unnen Drahtst¨ uck der L¨ ange Eins, dessen Enden bei konstanter Temperatur gehalten werden, beschreibt (d.h. formulieren Sie die ein-dimensionale W¨ armegleichung): ⎧ ⎪ in (0, 1) × (0, T ], ⎨u˙ − u = f (73.41) u(0, t) = u(1, t) = 0 f¨ ur t ∈ (0, T ], ⎪ ⎩ f¨ ur x ∈ (0, 1). u(x, 0) = u0 (x) 73.8. Sei F (x) das durch eine homogene Kugel der Masse m mit dem Volumen ulle ∇F (x) = ρ f¨ ur x < r {x ∈ R3 : x ≤ r} erzeugte Gravitationsfeld. Es erf¨ und ∇F (x) = 0 f¨ ur x > r, wobei ρ die Dichte der Kugel angibt. Begr¨ unden −x f¨ ur x > r mit einer Funktion Sie, dass Symmetrie bedingt F (x) = f ( x ) x f : (0, ∞) → R gelten muss. Benutzen Sie den Divergenzsatz, um zu zeigen, dass f¨ ur R > r gilt: F (x) · ndS = 4πR2 f (R) = ∇F (x) dx = m. SR
KR
Dabei ist SR die Begrenzung der Kugel KR = {x ∈ R3 : x ≤ R}. Folgern Sie, m m −x ur x > r gilt. Auf diese Weise dass f (R) = 4πR 2 und somit F (x) = 4π x3 f¨ erhalten Sie einen alternativen Zugang zum Albtraum von Newton. Beachten Sie die Ver¨ anderung in der Normierung, wodurch hier der Faktor 1/4π auftritt.
Aufgaben zu Kapitel 73
1069
73.9. F¨ ur die Konvergenzanalyse der Fixpunkt-Iteration f¨ ur das Gleichungssystem (73.15) m¨ ussen wir zeigen, dass I − αA < 1, wobei A = (aij ) die ur (N − 1) × (N − 1)-Matrix mit aii = 2, ai,i−1 = ai−1,i = −1 und aij = 0 f¨ |i − j| > 1 ist. Da A symmetrisch ist, erhalten wir mit R¨ uckblick auf das Kapitel Der Spektralsatz“: ” I − αA = max |1 − αλi |, i
wobei λi , i = 1, . . . , N − 1 die Eigenwerte von A sind. Diagonalisieren Sie A, um dies nachzuvollziehen. Beweisen Sie, dass f¨ ur alle von Null verschiedenen V ∈ RN−1 AV · V =
N−1
aij Vi Vj > 0
i,j=1
ur alle i (Hinweis: Quadratische Erg¨ anzung!). gilt und folgern Sie, dass λi > 0 f¨ ¨ Ahnlich k¨ onnen Sie zeigen, dass f¨ ur alle V ∈ RN−1 (I − αA)V · V ≥ 0 1 4
(Hinweis: Quadratische Erg¨ anzung!). Folgern Sie, dass die gilt, falls α ≤ onnen Sie die Konvergenz Fixpunkt-Iteration konvergiert, wenn 0 < α ≤ 14 . K¨ ur α < 0? (Hinweis: f¨ ur α < 12 beweisen? Was geschieht mit der Konvergenz f¨ Machen Sie Gebrauch davon, dass f¨ ur eine symmetrische m × m-Matrix A mit den Eigenwerten λ1 ≤ λ2 ≤ . . . ≤ λm gilt, dass λ1 = minV ∈Rm (AV · V )/(V · V ) ur V = 0.). und λm = maxV ∈Rm (AV · V )/(V · V ) f¨ 73.10. Erweitern Sie die obige Analyse auf den 5-Punkte Stern f¨ ur den LaplaceOperator und zeigen Sie, dass Fixpunkt-Iterationen konvergieren, wenn 0 < α < 18 (oder besser noch α < 14 ). 73.11. Treffen Sie sich mit einigen Freunden und stellen Sie sie in einem quadratischen regelm¨ aßigen Gitter auf. Bitten Sie ihre Freunde, ihren eigenen Wert immer wieder nach der Svensson-Formel als den Mittelwert der Werte der Nachbarn neu zu berechnen (beginnend bei Null), nachdem Sie den Freunden auf der Begrenzung bestimmte andere Werte zugewiesen haben. Notieren Sie die Werte nachdem Konvergenz erzielt wurde. Sie haben jetzt die Laplace-Gleichung auf einem Quadrat mit Dirichlet-Randbedingungen numerisch gel¨ ost. Welchen Wert f¨ ur α haben Sie dabei effektiv in der Fixpunkt-Iteration benutzt? 73.12. Beweisen Sie den Satz von Bernoulli, nach dem f¨ ur eine station¨ are Eulersche Str¨ omung, f¨ ur die (u · ∇)u + ∇p = 0 gilt, die Gr¨ oße 12 u 2 + p entlang von Str¨ omungslinien konstant bleibt. 73.13. Erkl¨ aren Sie den Magnuseffekt, nach dem ein Tennisball mit Top-Spin eine abw¨ arts gerichtete Kurve beschreibt, vgl. auch das Kapitel Analytische ” Funktionen“. 73.14. Beweisen Sie, dass das Wasserstoffatom stabil ist, in dem Sinne, dass f¨ ur den Rayleigh-Quotienten 1 |∇ψ|2 dx − Ω ψ 2 /r dx RQ(ψ) = 2 Ω ψ 2 dx Ω
1070
73. Laplacesche Modelle
gilt: min RQ(ψ) ≥ −2.
ψ∈V
Dadurch wird verhindert, dass das Elektron in das Proton st¨ urzt. Hinweis: Sch¨ atzen Sie Ω ψ ψr mit Hilfe der Cauchyschen Ungleichung und der folgenden Poincar´eschen Ungleichung ab: ψ2 dx ≤ 4 |∇ψ|2 dx. (73.42) 2 Ω r Ω Dadurch zeigen Sie, dass die potentielle Energie im Rayleigh-Quotienten nicht u ¨ ber die kinetische Energie dominieren kann. Um die letzte Ungleichung zu beweisen, nutzen Sie zusammen mit der Cauchyschen Ungleichung die folgende Gleichung ψ2 dx = − 2ψ∇ψ · ∇ ln(|x|) dx, 2 Ω r Ω die sich aus der Greenschen Formel ergibt. 73.15. (a) Zeigen Sie, dass das Eigenwertproblem f¨ ur das Wasserstoffatom f¨ ur Eigenfunktionen, die nur radiale Abh¨ angigkeit besitzen, auch in der folgenden ein-dimensionalen Formulierung geschrieben werden kann: 1 1 1 ϕ2 r 2 dr < ∞, (73.43) − ϕrr − ϕr − ϕ = λϕ, r > 0, ϕ(0) endlich, 2 r r R dϕ . (b) Zeigen Sie, dass ψ(r) = exp(−r) eine zum Eigenwert λ = − 21 dr zugeh¨ orige Eigenfunktion ist. (c) Bestimmen Sie λ2 und die zugeh¨ orige Eigenosen Sie funktion, indem Sie wie folgt substituieren: ϕ(r) = v(r) exp(− 2r ). (d) L¨ (73.43) numerisch.
mit ϕr =
Uns scheint das Kontinuum einfach zu sein. Irgendwie haben wir den Blick f¨ ur die Probleme verloren, die es mit sich bringt . . . Uns wird gesagt, dass die Bedenken zu einer Zahl wie Wurzel 2 Pythagoras und seine Schule fast zur Verzweiflung brachte. Nun, da wir an derartige seltsame Zahlen von Kindheit an gewohnt sind, sollten wir uns davor h¨ uten, die mathematische Intuition dieser klassischen Periode zu bel¨ acheln; ihre Bedenken sind wohl begr¨ undet. (Schr¨ odinger)
74 Chemische Reaktionen*
Wir kennen bereits die Gesetze, die das Verhalten von Materie unter allen, außer den extremsten Situationen, beschreiben. Insbesondere kennen wir die zentralen Gesetze, die die Grundlage der Chemie und der Biologie bilden. Dennoch betrachten wir diese Gebiete sicherlich nicht als gel¨ oste Probleme; wir hatten bisher recht geringen Erfolg darin, das menschliche Verhalten aus mathematischen Gleichungen vorherzusagen. Selbst wenn wir eine vollst¨ andige Menge von Grundgesetzen kennen, wird es f¨ ur die kommenden Jahren eine Herausforderung an unsere Intelligenz bleiben, bessere N¨ aherungsmethoden zu entwickeln, um sinnvolle Vorhersagen u ¨ ber das wahrscheinliche Ergebnis in komplizierten und realistischen Situationen zu treffen. (S. Hawking in Eine kurze Geschichte der Zeit“) ” Es ist besonders schwer, exakte L¨ osungen der (Einsteinschen) Gleichungen zu finden, da diese Gleichungen nicht linear sind. (Einstein) Da eine sich ausbreitende Flamme als Welle einer chemischen Reaktion betrachtet werden kann, die durch ein str¨ omendes Gas verl¨ auft, bietet sie einen ausgezeichneten Pr¨ ufstein f¨ ur die analytischen F¨ ahigkeiten eines Str¨ omungsmechanikers, eines Spezialisten f¨ ur W¨ armeund Massentransport und eines physikalischen Chemikers, die alle zusammen in einem rundum bewanderten angewandten Mathematiker vereint sind. (M. Kanury)
74.1 Konstante Temperatur Wir betrachten N verschiedene chemische Substanzen A1 , . . . , AN , die an J Reaktionen mit den st¨ ochiometrischen (positiven) ganzzahligen Koeffizi-
1072
74. Chemische Reaktionen*
enten νn,j und λn,j teilnehmen, wobei die Substanz n in der Reaktion j als Reaktand (νn,j ) oder als Produkt (λn,j ) auftreten kann. (Die Koeffizienten sind Null, wenn die Substanz in einer Reaktion weder Reaktand noch Produkt ist.) Dies wird im Allgemeinen wie folgt formuliert: N n=1
νn,j An →
N
λn,j An
f¨ ur j = 1, . . . , J.
(74.1)
n=1
N Wir sagen, dass die Ordnung der Reaktion j gleich n=1 νn,j ist und bezeichnen die molare Konzentration (ausgedr¨ uckt in Mol pro Einheitsvolumen) einer Substanz An mit cn . Wir nehmen an, dass die Reaktionsgeschwindigkeit rj von Reaktion j durch rj = kj (T )
N .
cνmm,j
m=1
ausgedr¨ uckt werden kann, wobei der Reaktionskoeffizient oder der Arrhenius Faktor kj (T ) sich wie folgt ergibt: Ej αj kj (T ) = Bj T exp − , RT wobei Ej > 0 die Aktivierungsenergie angibt, R ist die Gaskonstante und Bj T αj steht f¨ ur den H¨aufigkeitsfaktor, wobei Bj und αj positive Konstanten sind. Wir gehen davon aus, dass die absolute Temperatur T f¨ ur alle Substanzen gleich ist. Der zentrale Gedanke hinter der Produktformulie/ νm,j ist der, dass die Reaktionsgeschwindigkeit zur molaren rung N m=1 cm Konzentration des Reaktanden Am , die νm,j -fach reagiert, proportional ist. Der Arrhenius Faktor ist klein, wenn T unterhalb eines bestimmten E Grenzwertes liegt, was damit zusammenh¨ angt, dass dann der Quotient RTj nur m¨ aßig groß ist. Die Nettoproduktion (in Mol pro Volumen pro Einheitszeit) von Substanz An in Reaktion j entspricht αn,j rj mit αn,j = λn,j − νn,j , und die gesamte Nettoproduktionsgeschwindigkeit sn von Substanz An betr¨ agt: sn =
J
αn,j rj .
j=1
Wir wollen nun annehmen, dass die Temperatur T konstant und vorgegeben ist. Wir suchen den Konzentrationsvektor c(t) = (c1 (t), . . . , cN (t)) als Funktion der Zeit t. Er beschreibt die Dynamik der Reaktionen f¨ ur t > 0,
74.1 Konstante Temperatur
1073
wobei wir annehmen, dass c(0) = c0 der Vektor c0 = (c01 , . . . , c0N ) mit vorgegebenen Anfangskonzentrationen ist. Mit Hilfe der Balancegleichung ur jede Substanz n = 1, 2, . . . , N gilt, erhalten wir das folgende c˙n = sn , die f¨ Anfangswertproblem f¨ ur ein System gew¨ ohnlicher Differentialgleichungen: Gesucht ist c(t) = (c1 (t), . . . , cN (t)), so dass / νm,j c˙n (t) = Jj=1 αn,j kj (T ) N ur t > 0, n = 1, . . . , N, m=1 cm (t) f¨ (74.2) c(0) = c0 . Dies entspricht einem Anfangswertproblem der Form u(t) ˙ = f (u(t)) f¨ ur t > 0 mit u(0) = c0 und u(t) = c(t) und einer vorgegebenen Funktion f : RN → RN . Ein Gleichgewicht bei einer bestimmten Temperatur T bedeutet dann ur t > 0, n = 1, . . . , N . Es wird durch das algebraische Gleic˙n (t) = 0 f¨ chungssystem J
αn,j kj (T )
N .
cνmm,j = 0
f¨ ur n = 1, . . . , N
(74.3)
m=1
j=1
beschrieben, was der Gleichung f (u) = 0 entspricht. Beispiel 74.1. Die Reaktion 2NO + Cl2 → 2NOCl kann in die Form (74.1) gebracht werden, wenn wir A1 = NO, A2 = Cl2 , A3 = NOCl, N = 3, J = 1, ν1,1 = 2, ν2,1 = 1, ν3,1 = 0, λ1,1 = 0, λ2,1 = 0, λ3,1 = 2, α1,1 = −2, α2,1 = −1 und α3,1 = 2 setzen. Beispiel 74.2. Die zwei Reaktionen 2NO + Cl2 →k1 2NOCl, 2NOCl →k2 2NO + Cl2 k¨ onnen in die Form (74.1) gebracht werden, wenn wir A1 = NO, A2 = Cl2 , A3 = NOCl, N = 3, J = 2, ν1,1 = 2, ν2,1 = 1, ν3,1 = 0, λ1,1 = 0, λ2,1 = 0, λ3,1 = 2, α1,1 = −2, α2,1 = −1, α3,1 = 2, ν1,2 = 0, ν2,2 = 0, ν3,2 = 2, λ1,2 = 2, λ2,2 = 1, λ3,2 = 0, α1,2 = 2, α2,2 = 1 und α3,2 = −2 setzen. Das Gleichgewicht wird folgendermaßen beschrieben: k1 c21 c2 = k2 c23
oder
c21 c2 k2 = . c23 k1
Beispiel 74.3. Ein idealer Tankreaktor erster Ordnung wird durch die Gleichung qc0 − V kc = qc
1074
74. Chemische Reaktionen*
beschrieben, wobei c0 die Konzentration des Reaktanden am Einlass ist, c ist die Konzentration im Reaktor, q die einstr¨omende (= ausstr¨omende) Menge, V das Tankvolumen und k der Reaktionskoeffizient. Die Gleichung bringt zum Ausdruck, dass die (Menge an) Reaktandenzugabe abz¨ uglich der durch die Reaktion verbrauchte Reaktandenmenge dem Reaktandabuhren, die sich der Reaktand fluss entspricht. Wenn wir die Zeit τ = Vq einf¨ im Reaktor aufh¨ alt, erhalten wir: c=
c0 . 1 + τk
Der Wirkungsgrad des Reaktors ergibt sich zu: η=
c0 − c 1 τk = = . 0 c 1 + τk 1 + τ1k
Insbesondere erkennen wir, dass der Wirkungsgrad abnimmt, wenn τ abnimmt. Beispiel 74.4. Ein idealer Rohrreaktor erster Ordnung, der das Intervall (0, 1) einnimmt, kann als eine in Serie geschaltete Menge von Tankreaktoren erster Ordnung betrachtet werden. Er wird durch qc(x) − A∆xkc(x) = qc(x + ∆x)
f¨ ur 0 < x < 1
modelliert, wobei q die (konstante) Fließgeschwindigkeit, A der Durchmesser des Rohrs und ∆x ein kleines x-Inkrement ist. Wenn wir durch ∆x dividieren und ∆x gegen Null streben lassen, f¨ uhrt uns dies zu einem Anfangswertproblem, bei dem wir nach der Konzentration c(x) f¨ ur 0 ≤ x ≤ 1 suchen, so dass dc = −τ kc dx
f¨ ur 0 < x ≤ 1,
c(0) = c0 ,
A osung lautet c(x) = c0 e−τ kx und der Wirkungsgrad beq . Die L¨ 0 x = c −c(1) = 1 − e−τ k . Wenn wir nun bedenken, dass 1+x < 1 − e−x c0
mit τ =
tr¨ agt η f¨ ur x > 0, so folgt daraus, dass der ideale Rohrreaktor einen h¨oheren Wirkungsgrad besitzt als der ideale Tankreaktor.
74.2 Ver¨anderliche Temperatur Wir wollen nun zulassen, dass sich die Temperatur T (t) mit der Zeit t ver¨ andert und ebenso wie die Konzentrationen c1 (t), . . . , cN (t) unbekannt ist. Die Reaktionsw¨arme von Reaktion j ergibt sich aus N αm,j hm rj , − m=1
74.3 R¨ aumliche Abh¨ angigkeit
1075
wobei hm der molaren Enthalpie der Substanz Am entspricht. Die Reaktionsw¨ arme ist f¨ ur eine exotherme Reaktion positiv und f¨ ur eine endotherme Reaktion negativ. ur Das Problem besteht nun darin, c(t) = (c1 (t), . . . , cN (t)) und T (t) f¨ t > 0 zu bestimmen, so dass ⎧ J /N ν ⎪ c˙n = j=1 αn,j kj (T ) m=1 cmm,j , t > 0, n = 1, . . . , N, ⎪ ⎨ / ν J N N m,j Cp T˙ = j=1 (− m=1 αm,j hm )kj (T ) m=1 cj , ⎪ ⎪ ⎩ c(0) = c0 , T (0) = T 0 mit den Anfangskonzentrationen c0 = (c01 , . . . , c0N ) und der Anfangstemperatur T 0 . Cp ist die spezifische W¨ arme der Substanzmischung.
74.3 Ra¨umliche Abha¨ngigkeit Wenn wir r¨ aumliche Abh¨ angigkeiten in einem Gebiet Ω in R3 ber¨ ucksichtigen, f¨ uhrt uns dies zu folgendem Modell: Gesucht wird T (x, t) und ur x ∈ Ω, t > 0, so dass c(x, t) = (c1 (x, t), . . . , cN (x, t)) f¨ ⎧ ⎪ c˙n + ∇ · (cn β) − ∇ · (n ∇cn ) ⎪ ⎪ ⎪ J /N ⎪ ν ⎪ ⎪ = j=1 αn,j kj (T ) m=1 cmm,j f¨ ur x ∈ Ω, t > 0, n = 1, . . . , N, ⎪ ⎨ Cp T˙ + ∇ · (Cp T β) − ∇ · (0 ∇T ) ⎪ ⎪ J N /N ν ⎪ ⎪ = j=1 (− m=1 αm,j hm )kj (T ) m=1 cmm,j f¨ ur x ∈ Ω, t > 0, ⎪ ⎪ ⎪ ⎪ ⎩c(x, 0) = c0 , T (x, 0) = T 0 f¨ ur x ∈ Ω, wobei β(x, t) eine vorgegebene Konvektionsgeschwindigkeit ist und die n sind gegebene Diffusionskoeffizienten. Das System wird durch Randbedingungen vervollst¨ andigt, die f¨ ur jede Gleichung vom Dirichlet-, Neumannoder vom Robin-Typ sein k¨ onnen. Beispiel 74.5. Eine station¨ are Reaktion erster Ordnung mit konstanter Temperatur und einer Substanz mit konstanter Diffusion, aber ohne Konvektion, wird in dimensionsloser Form durch die Gleichung ∆u = ϕ2 u
in Ω,
zusammen mit Dirichlet-, Neumann- oder Robin-Randbedingungen modelliert, wobei ϕ der Thiele-Modulus ist und Ω ein Gebiet in Rd , d = 1, 2, 3. Dabei interessiert vor allem die Gesamtproduktion Ω u(x) dx als Funktion von Ω, dem Thiele-Modulus ϕ2 und den Randbedingungen.
1076
74. Chemische Reaktionen*
Beispiel 74.6. Ein einfaches Modell f¨ ur die Flammenausbreitung in einem Kanal besitzt folgende Gestalt: ⎧ ∂u ⎪ ⎨u˙ 1 − ∆u1 + β1 1 = u2 f (u1 ) x ∈ Ω, t > 0, ∂x1 (74.4) ∂u ⎪ ⎩u˙ 2 − ∆u2 + β1 2 = −u2 f (u1 ) x ∈ Ω, t > 0, ∂x1 wobei geeignete Randbedingungen noch fehlen. Dabei ist Ω = R × (0, 1), ur die Temperatur, u2 beschreibt die Konzentration des Reaktanu1 steht f¨ den, β1 die Geschwindigkeit des Reaktanden in x1 -Richtung und u2 f (u1 ) die Reaktionsgeschwindigkeit, wobei f : R+ → R+ vorgegeben ist. Bei geonnen wir station¨ are L¨osungen mit u˙ = 0 finden, eigneter Wahl von β1 k¨ die eine sich ausbreitende Flammenfront beschreiben. Beispiel 74.7. Ein wichtiges Modell f¨ ur die Verbrennung in einem Gebiet Ω in R3 besitzt die folgende Gestalt: Gesucht ist die Konzentration c und die Temperatur T , so dass E c˙ − 1 ∆c = −B1 e− RT c, x ∈ Ω, t > 0, (74.5) E T˙ − 0 ∆T = B0 e− RT c x ∈ Ω, t > 0, beispielsweise in Verbindung mit homogenen Neumann-Randbedingungen angig von der Aktivierungsenerund positiven Konstanten B0 und B1 . Abh¨ gie E und den Anfangsbedingungen kann der Prozess in Raum und Zeit schnell oder langsam ablaufen. Axiom 1: Alle K¨ orper sind entweder in Bewegung oder in Ruhe. Axiom 2: Jeder K¨ orper kann seine Geschwindigkeit ver¨ andern. Lemma 1: K¨ orper unterscheiden sich voneinander bez¨ uglich ihrer Bewegung oder ihrer Ruhe, ihrer Schnelligkeit oder Langsamkeit und nicht bez¨ uglich ihres Materials. Lemma 2: Alle K¨ orper stimmen in gewissen Gesichtspunkten u ¨ berein. Lemma 3: Ein K¨ orper in Bewegung oder in Ruhe muss durch einen anderen K¨ orper veranlasst worden sein sich zu bewegen oder zu ruhen. Dieser andere K¨ orper wurde seinerseits zur Bewegung oder Ruhe durch einen anderen K¨ orper veranlasst, der wiederum durch einen anderen und so weiter. ... Lemma 6: Werden gewisse K¨ orper, die ein individuelles Ding bilden, ¨ zu einer Anderung der Bewegungsrichtung veranlasst und zwar so, dass sie alle ihre Bewegung fortsetzen k¨ onnen und dieselbe relative Beziehung behalten wie zuvor, so wird auch dieses individuelle Ding ¨ seine relative Beziehung und seine eigene Natur ohne Anderung der Gestalt erhalten. (Spinoza 1632–1677, Ethica II)
75 Werkzeugkoffer: Infinitesimalrechnung II
Timeo hominem unius libri. (Thomas von Aquin)
75.1 Einleitung Wir sammeln hier die zentralen Werkzeuge der Infinitesimalrechnung f¨ ur die Funktionen f : Rn → Rm , das bedeutet die Infinitesimalrechnung von vektorwertigen Funktionen in mehreren Variablen. Die euklidische Norm n eines Vektors x = (x1 , . . . , xn ) ∈ Rn wird als x = i=1 x2i bezeichnet.
75.2 Lipschitz-Stetigkeit Eine Funktion f : A → Rm ist auf einer Untermenge A von Rn Lipschitzstetig, wenn es eine Konstante L gibt, so dass f (x) − f (y) ≤ Lx − y f¨ ur alle x, y ∈ A.
75.3 Differenzierbarkeit Eine Funktion f : A → Rm ist in x ¯ ∈ A differenzierbar, wobei A eine offene Untermenge des Rn ist, wenn eine m × n-Matrix f (¯ x), die als JacobiMatrix der Funktion f (x) in x¯ bezeichnet wird, und eine Konstante Kf (¯ x)
1078
75. Werkzeugkoffer: Infinitesimalrechnung II
existiert, so dass f¨ ur alle x ∈ A in der N¨ ahe von x ¯ gilt: x)(x − x ¯) + Ef (x, x¯), f (x) = f (¯ x) + f (¯ wobei Ef (x, x¯) ein m-Vektor ist, f¨ ur den Ef (x, x¯) ≤ Kf (¯ x)x − x ¯2 gilt. m Wir sagen, dass f : A → R gleichm¨aßig differenzierbar auf A ist, wenn x) = Kf unabh¨ angig von x¯ ∈ A gew¨ahlt werden kann. die Konstante Kf (¯ Wir schreiben f = ∇f f¨ ur m = 1 und bezeichnen ∇f als den Gradienten von f .
75.4 Die Kettenregel Ist g : Rn → Rm Lipschitz-stetig und in x ¯ ∈ Rn differenzierbar und ist m p m x) ∈ R differenzierbar, dann ist auch die zusamferner f : R → R in g(¯ mengesetzte Funktion f ◦ g : Rn → Rp in x ¯ ∈ Rn differenzierbar, mit der Jacobi-Matrix: x) = f (g(¯ x))g (¯ x). (f ◦ g) (¯
75.5 Der Mittelwertsatz fu ¨r f : Rn → R Ist f : Rn → R auf Rn differenzierbar und ist der Gradient ∇f Lipschitzstetig, dann gibt es f¨ ur vorgegebene x und x ¯ in Rn ein y = x + t¯(x − x ¯) mit ¯ t ∈ [0, 1], so dass f (x) − f (¯ x) = ∇f (y) · (x − x ¯).
75.6 Ein Minimum ist ein stationa¨rer Punkt Ist x ¯ ∈ Rn ein lokales Minimum einer differenzierbaren Funktion f : Rn → R, d.h. f (¯ x) ≤ f (x) f¨ ur alle x nahe bei x ¯, dann gilt: ∇f (¯ x) = 0.
75.7 Der Satz von Taylor Ist f : Rn → R zweifach differenzierbar mit der Lipschitz-stetigen Hesse2 f , dann gibt es f¨ ur schen Matrix H = (hij ) mit den Elementen hij = ∂x∂i ∂x j n ¯ ¯ vorgegebene x und x¯ ∈ R ein y = x + t(x − x¯) mit t ∈ [0, 1], so dass f (x) = f (¯ x) + ∇f (¯ x) · (x − x ¯) +
n 1 ∂2f (y)(xi − x¯i )(xj − x ¯j ) 2 i,j=1 ∂xi ∂xj
1 = f (¯ x) + ∇f (¯ x) · (x − x ¯) + (x − x ¯) H(y)(x − x ¯). 2
75.8 Der Kontraktionssatz
1079
75.8 Der Kontraktionssatz Ist g : Rn → Rn Lipschitz-stetig zur Lipschitz-Konstanten L < 1, dann besitzt die Gleichung x = g(x) eine eindeutige L¨ osung x ¯ = limi→∞ x(i) , wobei (i) ∞ n {x }i=1 eine Folge in R ist, die beginnend bei irgendeinem Anfangswert x(0) durch die Fixpunkt-Iteration x(i) = g(x(i−1) ) erzeugt wird.
75.9 Der Satz zur inversen Funktion Sei f : Rn → Rn und habe f (x) nahe bei x ¯ Lipschitz-stetige Koeffizienten x) nicht singul¨ ar. Dann besitzt die Gleichung f (x) = y eine und sei f (¯ eindeutige L¨ osung x f¨ ur ein y nahe bei y¯ = f (¯ x). Dadurch wird x als eine Funktion x = f −1 (y) von y definiert.
75.10 Die Newtonsche Methode Ist x ¯ eine Nullstelle von f : Rn → Rn und f (x) in der N¨ahe von x ¯ mit einer Lipschitz-stetigen Ableitung f (¯ x) gleichm¨aßig differenzierbar, die nicht singul¨ ar ist. Dann konvergiert die Newtonsche Methode x(i+1) = (i) (i) −1 osung von f (x) = 0, wenn wir x − f (x ) f (x(i) ) quadratisch zur L¨ gen¨ ugend nahe bei x ¯ beginnen.
75.11 Differential-Operatoren Der Gradient einer Funktion u : Rd → R: ∂u ∂u ∂u grad u = ∇u = , ,..., . ∂x1 ∂x2 ∂xd Die Divergenz einer Vektorfunktion u : Rd → Rd : div u = ∇ · u =
d ∂ui i=1
∂xi
.
Die Rotation einer Vektorfunktion u : R3 → R3 : ∂u3 ∂u2 ∂u1 ∂u3 ∂u2 ∂u1 rot u = ∇ × u = − , − , − . ∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2 Der Laplace-Operator einer Funktion u : Rd → R: ∆u = ∇ · (∇u) = div (grad u) =
d ∂2u i=1
∂x2i
.
1080
75. Werkzeugkoffer: Infinitesimalrechnung II
Gleichungen: ∇ · (∇ × u) = 0, ∇ × (∇u) = 0, ∇ × (∇ × u) = −∆u + ∇(∇ · u). Der Laplace-Operator in R2 lautet in Polarkoordinaten x = (x1 , x2 ) = (r cos(θ), r sin(θ)): 1 ∂ ∂u 1 ∂2u ∆u = r + 2 2. r ∂r ∂r r ∂θ Der Laplace-Operator lautet in sph¨arischen Koordinaten x = (r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ)): ∂2u ∂u ∂ 1 ∂ 1 ∂u 1 ∆u = 2 . r2 + 2 sin(θ) + 2 2 r ∂r ∂r r sin(θ) ∂θ ∂θ r sin (θ) ∂ϕ2 Der Laplace-Operator ist unter orthogonalen Koordinatentransformationen invariant in Rd .
75.12 Kurvenintegrale Sei Γ = s([a, b]) eine Kurve in Rn , die durch die Funktion s : [a, b] → Rn gegeben ist und sei u : Γ → R, dann gilt: b u ds = u(x) ds(x) = u(s(t))s (t) dt, Γ
Γ b
u · ds = Γ
a
u(s(t)) · s (t) dt,
a
ds = Γ
b
s (t) dt = L¨ ange von Γ.
a
Ist u = ∇ϕ, dann gilt:
u · ds = ϕ(s(b)) − ϕ(s(a)). Γ
75.13 Mehrfachintegrale Integrale ¨ uber dem Einheitsquadrat: Ist f : Q = [0, 1] × [0, 1] → R Lipschitzstetig, dann gilt: 1 1 N N f (x) dx = f (x1 , x2 ) dx1 dx2 = lim f (xn1,i , xn2,j )hn hn , Q
0
0
n→∞
i=1 j=1
75.14 Ober߬ achenintegrale
mit hn = 2−n , xnj,i = ihn , N = 2n und 1 1 f (x) dx = f (x1 , x2 ) dx2 dx1 = 0
Q
0
0
1
1081
1
f (x1 , x2 ) dx1
dx2 .
0
˜ in Rd auf Substitution: Die Funktion y → x = g(y) bilde ein Gebiet Ω d ein Gebiet Ω in R ab, wobei die Jacobi-Matrix von g wie auch f : Ω → R Lipschitz-stetig ist. Dann gilt: f (x) dx = f (g(y))| det g (y)| dy. ˜ Ω
Ω
Polarkoordinaten: f (x1 , x2 ) dx1 dx2 = f (r cos(θ), r sin(θ)) rdr dθ, ˜ Ω
Ω
˜ auf Ω ist, mit x = wobei (r, θ) → x eine Eins zu Eins Abbildung von Ω (r cos(θ), r sin(θ)). Sph¨ arische Koordinaten: f (x) dx Ω = f r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ) r2 sin(ϕ) dr dθ dϕ, ˜ Ω
˜ auf Ω ist, mit wobei (r, θ, ϕ) → x eine Eins zu Eins Abbildung von Ω x = (r sin(ϕ) cos(θ), r sin(ϕ) sin(θ), r cos(ϕ)).
75.14 Oberfl¨achenintegrale Ist S = s(Ω) eine Fl¨ ache in R3 , die durch die Abbildung s : Ω → R3 parametrisiert ist, wobei Ω ein Gebiet in R2 ist und u : S → R eine reellwertige Funktion, die auf S definiert ist. Dann gilt: u ds = u(s(y))s,1 (y) × s,2 (y) dy, S
Ω
1 ∂s2 ∂s3 mit s,i = ( ∂s ∂yi , ∂yi , ∂yi ).
75.15 Die Greensche Formel und der Satz von Gauss Ist Ω ein Gebiet in R3 mit der Begrenzung Γ und der ausw¨arts gerichteten Normalen n = (n1 , n2 , n3 ) und ist u : Ω → R3 und v, w : Ω → R, dann gilt: ∂v dx = v ni ds, i = 1, 2, 3, Ω ∂xi Γ
1082
75. Werkzeugkoffer: Infinitesimalrechnung II
Ω
∂v w dx = ∂xi
vw ni ds −
v
Γ
Ω
∂w dx, ∂xi
i = 1, 2, 3,
∇ · u dx =
u · n ds,
Ω
(Divergenzsatz von Gauss)
Γ
∇ × u dx =
Ω
∇v · ∇w dx =
Ω
v∂n w ds −
Γ
v∆w dx − Ω
n × u ds, Γ
v∆w dx, Ω
v ∂n w ds −
∆v w dx = Ω
Γ
∂n v w ds. Γ
75.16 Der Satz von Stokes Sei S eine Fl¨ ache in R3 , die durch eine geschlossene Kurve Γ begrenzt ist und sei n eine Einheitsnormale zu S. Γ sei dabei in Uhrzeigerrichtung zur positiven Richtung der Normalen n orientiert. Ferner sei u : R3 → R3 differenzierbar. Dann gilt: (∇ × u) · n ds = u · ds. S
Γ
76 Stu¨ckweise lineare Polynome in R2 und R3
. . . normalerweise saß er in bequemer Haltung, nach unten schauend, leicht gebeugt mit im Schoß gefalteten H¨ anden. Er sprach frei, sehr deutlich, einfach und gerade heraus: Wenn er aber einen neuen Gesichtspunkt betonen wollte, . . . dann hob er seinen Kopf, wendete sich an einen von denen, die ihm am n¨ achsten saßen und starrte ihn mit seinen sch¨ onen, durchdringenden blauen Augen w¨ ahrend seiner energischen Rede an. . . . Wenn er von einer Erkl¨ arung von Prinzipien zur Entwicklung mathematischer Formeln u ¨ berging, dann stand er auf und schrieb in einer w¨ urdevollen sehr aufrechten Haltung in seiner eigenartigen sch¨ onen Handschrift an die Tafel neben ihm: Dank seiner Sparsamkeit und besonnenen Aufteilung gen¨ ugte ihm stets sehr wenig Platz. F¨ ur numerische Beispiele, auf deren sorgf¨ altige Fertigstellung er besonderen Wert legte, brachte er die erforderlichen Daten auf kleinen Zetteln mit sich. (Dedekind u ¨ ber Gauss)
76.1 Einleitung In diesem Kapitel werden wir den Einsatz der FEM f¨ ur partielle Differentialgleichungen vorbereiten, indem wir N¨ aherungen von Funktionen durch st¨ uckweise lineare Funktionen in R2 und R3 untersuchen. Wir betrachten drei Hauptgebiete: (i) Die Konstruktion eines Gitters oder Triangulierung uckweise linearen f¨ ur ein Gebiet in R2 oder R3 , (ii) die Konstruktion von st¨ Funktionen auf einer Triangulierung und (iii) die Absch¨atzung von Interpolationsfehlern.
1084
76. St¨ uckweise lineare Polynome in R2 und R3
Abb. 76.1. Das Gitter links wurde benutzt, um die Luftstr¨ omung um zwei Tragfl¨ ugel zu berechnen. Das Gitter rechts wurde benutzt, um ein St¨ uck Metall, in das ein Fantasiezeichen eingestanzt ist, zu diskretisieren. In beiden F¨ allen handelt es sich um ein adaptives Gitter, um so bei gleichzeitiger Ber¨ ucksichtigung des L¨ osungsverhaltens und der Gebietsform genaue Berechnungen zu erhalten
76.2 Die Triangulierung eines Gebiets in R2 Wir beginnen mit der Betrachtung eines zwei-dimensionalen Gebiets Ω mit einem Polygonzug als Begrenzung Γ. Eine Triangulierung Th = {K} ist eine Unterteilung von Ω in eine Menge sich nicht u ¨ berlagernder Dreiecke oder Elemente K, die so konstruiert sind, dass keine Ecke eines Dreiecks auf einer Seite eines anderen Dreiecks liegt, vgl. Abb. 76.2. Wir verwenden Nh = {N }, um die Menge von Knoten N oder Ecken der Dreiecke zu bezeichnen, die u ¨ blicherweise mit N1 , N2 , . . . , NM nummeriert werden. Dabei entspricht M der Gesamtzahl an Knoten. Eine Triangulierung wird durch eine Liste der Koordinaten der Knoten zusammen mit einer Liste der Knotennummern jedes Dreiecks spezifiziert. Wir k¨onnen auch die Menge an Dreiecksseiten oder Kanten Sh = {S} auflisten, wobei jede Kante S durch die zwei Knotennummern ihrer Endpunkte spezifiziert wird, zusammen mit einer Liste der Knoten und Kanten auf der Begrenzung Γ. Wir messen die Gr¨ oße eines Dreiecks K ∈ Th als die L¨ange hK seiner l¨ angsten Seite, die auch als Durchmesser des Dreiecks bezeichnet wird. Die Gitterfunktion h(x), die einer Triangulierung Th zugeordnet wird, ist die ur x ∈ K f¨ ur jedes st¨ uckweise konstante Funktion, die durch h(x) = hK f¨ K ∈ Th definiert ist. Wir messen die Isotropie eines Elements K ∈ Th als den kleinsten Winkel τK . Ist τK ≈ π/3, dann ist K fast gleichschenklig, wohingegen K spitz ist, wenn τK klein ist, vgl. Abb. 76.3. Wir nutzen den kleinsten Winkel in allen Dreiecken in Th , d.h. τ = min τK , K∈Th
als Maß f¨ ur die Anisotropie der Triangulierung Th . Unten werden wir sehen, dass bestimmte Interpolationsfehler, die in Verbindung mit der N¨aherung
76.2 Die Triangulierung eines Gebiets in R2
N
1085
hK K
K
K
K
S
Abb. 76.2. Eine Triangulierung eines Gebiets Ω
K
K
τK << π/3 τK ≈ π/3 Abb. 76.3. Zur Isotropie von Dreiecken
durch st¨ uckweise lineare Funktionen auftreten, bei vorgegebener Triangulierung gr¨ oßer werden, wenn τ gegen Null geht, d.h., wenn die Dreiecke sehr spitz sind. Das zentrale Problem der Gittergenerierung ist es, eine Triangulierung eines gegebenen Gebiets zu erzeugen, dessen Gitterweite durch eine Gitterfunktion h(x) vorgeschrieben ist. Dieses Problem tritt in jedem Schritt eines adaptiven Algorithmuses auf, in dem eine neue Gitterfunktion aus einer N¨ aherungsl¨ osung auf einem vorgegebenen Gitter berechnet und ein neues Gitter konstruiert wird, dessen Gitterweite durch die neue Gitterfunktion festgelegt ist. Dieser Vorgang wird dann wiederholt, bis ein Endkriterium erf¨ ullt ist. Das neue Gitter kann vollst¨andig neu gebildet werden oder durch Ver¨ anderung des vorhergehenden Gitters unter Ber¨ ucksichtigung lokaler Verfeinerungen oder Vergr¨ oberungen. Bei der Frontstrategie wird ein Gitter zu gegebener Gitterweite so konstruiert, dass an einem Punkt (meist auf der Begrenzung) begonnen wird und nach und nach ein Dreieck hinzugef¨ ugt wird, wobei dessen Durchmesser durch die Gitterfunktion bestimmt wird. Die Kurve, die den triangulierten Teil des Gebiets vom verbleibenden Teil abtrennt, wird als Front bezeichnet.
1086
76. St¨ uckweise lineare Polynome in R2 und R3
Die Front bewegt sich mit der fortschreitenden Triangulierung durch das Gebiet. Alternativ dazu kann eine h-Verfeinerungsstrategie benutzt werden. Dabei wird ein Gitter mit einer vorgegebenen lokalen Gitterweite so konstruiert, dass nach und nach Elemente einer anf¨anglichen groben Triangulierung, dessen Elemente Eltern genannt werden, in kleinere Elemente, die Kinder genannt werden, unterteilt werden. Wir veranschaulichen die Verfeinerungs- und die Frontstrategie in Abb. 76.4. Oft ist es sinnvoll, beide Strategien zu kombinieren und die Frontstrategie zu benutzen, um ein Anfangsgitter zu konstruieren, die die Geometrie des Gebiets mit angemessener Genauigkeit wiedergibt und anschließend mit der h-Verfeinerung weiterzuarbeiten. Es gibt verschiedene Strategien f¨ ur die Unterteilung bei einer Verfeinerung, um die Anisotropie der Elemente gering zu halten. Nach der Verfeine-
Abb. 76.4. Das Gitter links wird durch wiederholte h-Verfeinerung aus dem groben Elterngitter in dicken Linien gebildet. Das Gitter rechts wird durch die Frontstrategie erzeugt. In beiden F¨ allen wird in der oberen rechten Ecke besondere Genauigkeit verlangt
Abb. 76.5. Links sind zwei Elemente im Gitter zur Verfeinerung markiert. Die Verfeinerung nutzt den Algorithmus nach Rivara, wobei ein Element durch eine Kante, die die l¨ angste Seite halbiert und mit dem Knoten gegen¨ uber verbindet, in zwei Teile unterteilt wird. Zus¨ atzliche Seiten verhindern, dass ein Knoten eines neuen Elements auf der Seitenmitte eines alten Elements liegt. Das Ergebnis der Verfeinerung ist rechts zu sehen, wobei alle Elemente, die ver¨ andert werden mussten, umrahmt sind
76.3 Die Erzeugung von Gittern in R3
1087
rung wird das erhaltene Gitter korrigiert, indem Seiten eingef¨ ugt werden, um zu vermeiden, dass Knoten auf Seitenmitten liegen. Dadurch wird das adaptierte Gebiet etwas ausgeweitet“. Eine Technik zur h-Verfeinerung ha” ben wir in Abb. 76.5 veranschaulicht. Im Allgemeinen werden durch Gitterverfeinerungen Elemente mit kleinen Winkeln eingef¨ uhrt, wie in Abb. 76.5 zu sehen ist. Daher ist es ein interessantes Problem, Algorithmen f¨ ur die Gitterverfeinerung zu konstruieren, die diese Tendenz in Situationen vermeiden, in denen die Anisotropie beschr¨ ankt werden muss. Auf der anderen Seite ist in gewissen Situationen der Einsatz von gezogenen“ Gittern, die ” Bereiche mit d¨ unnen Elementen, die aneinander gereiht einen hohen Verfeinerungsgrad in einer Richtung, besitzen, wichtig. In solchen Situationen benutzen wir auch Gitterfunktionen, die Informationen zum Dehnungsgrad, der Anisotropie und der Orientierung von Elementen enthalten. Wir untersuchen die Konstruktion und den Einsatz derartiger Gitter in den fortgeschrittenen begleitenden B¨ anden.
76.3 Die Erzeugung von Gittern in R3 Die Erzeugung von Gittern in drei Dimensionen verl¨auft ¨ahnlich zu der in zwei Dimensionen, wobei die Dreiecke durch Tetraeder ersetzt werden. In der Praxis sind die auftretenden geometrischen Einschr¨ankungen komplizierter und die Anzahl an Elementen w¨ achst außerdem dramatisch an. Wir haben Beispiele in Abb. 76.6 und Abb. 76.7 und weitere in Abb. 76.13 und Abb. 76.14 dargestellt.
76.4 Stu ¨ ckweise lineare Funktionen Sei Th = {K} eine Triangulierung eines zwei-dimensionalen Gebiets Ω, das durch einen Polygonzug begrenzt wird. Mit Nh = {N } bezeichnen wir
Abb. 76.6. Anf¨ angliches und verfeinertes Gitter f¨ ur einen Zylinder
1088
76. St¨ uckweise lineare Polynome in R2 und R3
Abb. 76.7. Das Ober߬ achengitter und Teile des tetraedrischen Gitters um eine Saab 2000
die Knoten von Th und wir f¨ uhren den zugeh¨origen endlich-dimensionalen uckweise linearen Funktionen Vektorraum Vh ein, der aus den stetigen st¨ auf Th besteht. Mit anderen Worten, so ist & ' ur K ∈ Th , Vh = v : v ist stetig auf Ω, v|K ∈ P(K) f¨ wobei P(K) die Menge der linearen Funktionen auf K bezeichnet, d.h. die Menge der Funktionen v(x) = v(x1 , x2 ) der Form v(x) = c0 + c1 x1 + c2 x2 mit Konstanten ci . Wir k¨ onnen aus zwei Gr¨ unden jede Funktion v(x) in Vh durch den Wert der Funktion v(x) in den Knotenpunkten v(N ) mit N ∈ Nh beschreiben. Zum einen wird eine lineare Funktion eindeutig durch ihre Werte in drei Punkten bestimmt, so lange diese Punkte nicht auf einer Geraden liegen. Um diese Behauptung zu u ufen, ge¨ berpr¨ hen wir davon aus, dass K ∈ Th die Ecken ai = (ai1 , ai2 ), i = 1, 2, 3 besitzt, vgl. Abb. 76.8. Wir wollen nun zeigen, dass v ∈ P(K) durch die drei Werte {v(a1 ), v(a2 ), v(a3 )} = {v1 , v2 , v3 } eindeutig bestimmt ist. Eine lineare Funktion v kann f¨ ur Konstanten c0 , c1 und c2 in der Form v(x1 , x2 ) = c0 +c1 x1 +c2 x2 geschrieben werden. Wenn wir die Knotenwerte von v in diesen Ausdruck einsetzen, erhalten wir ein lineares Gleichungs(a21 , a22 ) (a31 , a32 )
K
(a11 , a12 ) Abb. 76.8. Links zeigen wir, dass die drei Knotenwerte eines Dreiecks eine lineare Funktion, vgl. Kapitel Geometrie im Rn , beschreiben. Rechts zeigen wir die ” Beschriftung f¨ ur die Beschreibung der Knoten eines typischen Dreiecks
76.4 St¨ uckweise lineare Funktionen
1089
system:
⎞⎛ ⎞ ⎛ ⎞ ⎛ 1 a11 a12 c0 v1 ⎟⎜ ⎟ ⎜ ⎟ ⎜ 2 2 ⎜1 a1 a2 ⎟ ⎜c1 ⎟ = ⎜v2 ⎟ . (76.1) ⎠⎝ ⎠ ⎝ ⎠ ⎝ 1 a31 a32 c2 v3 Die Determinante der Koeffizientenmatrix ist mit der Determinante der folgenden Matrix identisch, die wir durch Subtraktion der ersten Zeile von der zweiten und dritten Zeile erhalten: ⎞ ⎛ a12 1 a11 ⎟ ⎜ ⎜0 a21 − a11 a22 − a12 ⎟ . ⎠ ⎝ 0 a31 − a11 a32 − a12
Die Determinante ist (bis auf das Vorzeichen) gleich der doppelten Fl¨ache des Dreiecks K. Daher ist die Determinante der Koeffizientenmatrix von Null verschieden und wir folgern, dass das Gleichungssystem (76.1) eine eindeutige L¨ osung hat und dass daher eine lineare Funktion eindeutig durch die Werte in drei (nicht auf einer Geraden liegenden) Punkte, hier w¨ahlen wir die Eckpunkte eines Dreiecks K, bestimmt wird. Der zweite Grund ist der, dass, wenn eine Funktion in zwei benachbarten Dreiecken linear ist und wenn die Knotenwerte in zwei gemeinsamen Knoten der Dreiecke gleich sind, dass dann eine Funktion, die u ¨ ber die gemeinsame Seite hinweg verl¨ auft, stetig ist. Um dies zu sehen, seien K1 und K2 zwei benachbarte Dreiecke mit gemeinsamer Begrenzung ∂K1 = ∂K2 , vgl. die Zeichnung links in Abb. 76.9. Wenn wir v entlang dieser Begrenzung parametrisieren, erkennen wir, dass v eine lineare Funktion einer Variablen ist. Derartige Funktionen werden eindeutig durch die Werte in zwei Punkten bestimmt. Da die Werte von v in K1 und K2 in den gemeinsamen Ecken u ¨ bereinstimmen, stimmt v auf allen Werten der gemeinsamen Grenze zwi¨ schen K1 und K2 u ¨ berein und daher ist v tats¨achlich beim Uberschreiten der Begrenzung stetig. v(Nj )
K1 v(Ni ) Ni
Nj ∂K1 = ∂K2 K2
K2
K1
Abb. 76.9. Links zeigen wir, dass eine st¨ uckweise lineare Funktion auf Dreiecken in eine lineare Funktion in einer Variablen reduziert wird, wenn sie auf einer Dreiecksseite verl¨ auft. Rechts zeichnen wir eine Funktion, deren Werte in den gemeinsamen Knoten zweier benachbarter Dreiecke nicht u ¨ bereinstimmen und die st¨ uckweise linear aber nicht stetig ist
1090
76. St¨ uckweise lineare Polynome in R2 und R3
Um eine Menge von Basisfunktionen f¨ ur Vh zu konstruieren, beginnen wir mit der Beschreibung einer Menge von Elementbasisfunktionen f¨ ur Dreiecke. Wiederum f¨ uhrt uns die Annahme, dass ein Dreieck K in {a1 , a2 , a3 } Knoten besitzt, dazu, als Elementknotenbasis die Menge an Funktionen λi ∈ P(K), i = 1, 2, 3 zu w¨ ahlen, mit 1, i = j, λi (aj ) = 0, i = j. Wir haben diese Funktion in Abb. 76.10 dargestellt. λ3
ϕi λ2
λ1
a3 1 Ni
a2 a1
Abb. 76.10. Links haben wir die Knotenbasisfunktionen bei drei Elementen f¨ ur lineare Funktionen auf K dargestellt. Rechts zeigen wir eine typische Zelt“-Funktion einer globalen Basis ”
Wir konstruieren die globalen Basisfunktionen f¨ ur Vh , indem wir die Elementbasisfunktionen auf benachbarten Elementen zusammensetzen und dabei die Stetigkeitsanforderung benutzen, d.h. dadurch dass wir Elementbasisfunktionen auf benachbarten Dreiecken zusammenbringen, die in der gemeinsamen Seite dieselben Knotenwerte besitzen. Die daraus resultierende Menge an Basisfunktionen {ϕj }M j=1 , wobei N1 , N2 , . . . , NM eine Nummerierung der Knoten N ∈ Nh wiedergibt, wird als Menge der Zelt-Funktionen bezeichnet. Die Zelt-Funktionen k¨ onnen auch so definiert werden, dass wir fordern, dass f¨ ur ϕj ∈ Vh gilt: 1, i = j, ϕj (Ni ) = 0, i = j, f¨ ur i, j = 1, . . . , M . Wir haben eine typische Zeltfunktion in Abb. 76.10 dargestellt. Wir k¨ onnen dabei insbesondere erkennen, dass genau die Dreiecke, denen der Knoten Ni gemeinsam ist, den sogenannten Tr¨ager von ϕi bilden. Die Zeltfunktionen bilden eine Knotenbasis f¨ ur Vh , da f¨ ur v ∈ Vh gilt: M v(x) = v(Ni )ϕi (x). i=1
76.5 Fehlerabsch¨ atzungen mit der Maximum-Norm
1091
76.5 Fehlerabsch¨atzungen mit der Maximum-Norm In diesem Kapitel beweisen wir die zentrale punktweise Fehlerabsch¨atzung in der Maximum-Norm f¨ ur die lineare Interpolation auf einem Dreieck. Der Interpolationsfehler h¨ angt dabei von der partiellen Ableitung zweiter Ordnung der zu interpolierenden Funktion ab, d.h. von der Kr¨ ummung“ ” der Funktion und nat¨ urlich von der Gitterweite und der Dreiecksform. F¨ ur ¨ andere Normen l¨ asst sich Ahnliches zeigen. Die Ergebnisse lassen sich direkt f¨ ur mehr als zwei Raumdimensionen verallgemeinern. ur eine stetige Sei K ein Dreieck mit den Eckpunkten ai , i = 1, 2, 3. F¨ Funktion v, die auf K definiert ist, definieren wir die lineare Interpolierende πK v ∈ P(K) durch: πK v(ai ) = v(ai ),
i = 1, 2, 3.
Wir haben dies in Abb. 76.11 dargestellt. v
πK v a3 K a
1
a2
Abb. 76.11. Die Knoteninterpolierende πK v von v
Satz 76.1 Besitzt v stetige zweite Ableitungen, dann gilt: 1 2 h D2 vL∞ (K) , 2 K 3 hK D2 vL∞ (K) , ≤ sin(τK )
v − πK vL∞ (K) ≤ ∇(v − πK v)L∞ (K)
(76.2) (76.3)
wobei hK die gr¨oßte Seite und τK der kleinste Winkel von K ist. Dann ist: ⎞ 2 1/2 2 2 ∂ v ⎠ . D2 v = ⎝ ∂xi ∂xj i,j=1 ⎛
Ist ∇v stetig, dann gilt: v − πK vL∞ (K) ≤ hK DvL∞ (K) .
(76.4)
1092
76. St¨ uckweise lineare Polynome in R2 und R3
Beachten Sie, dass die Absch¨ atzung des Gradienten von dem Reziprokwert des Sinus des kleinsten Winkels von K abh¨angt, weswegen diese Fehlergrenze sich verschlechtert, wenn das Dreieck spitzer wird. Der Beweis verl¨ auft in seinen Grundz¨ ugen wie die Beweise der entsprechenden Ergebnisse im Kapitel St¨ uckweise lineare Polynome“. Seien ” ur P(K), die durch λi (aj ) = 1 λi , i = 1, 2, 3 die Elementbasisfunktionen f¨ j f¨ ur i = j und λi (a ) = 0 sonst, definiert sind. Eine Funktion w ∈ P(K) besitzt die folgende Darstellung: w(x) =
3
w(ai )λi (x)
f¨ ur x ∈ K
i=1
und folglich ist πK v(x) =
3
v(ai )λi (x)
f¨ ur x ∈ K,
(76.5)
i=1
da πK v(ai ) = v(ai ). Wir werden darstellende Formeln f¨ ur die Interpolationsfehler v − πK v und ∇(v − πK v) herleiten und dabei die TaylorEntwicklung in x ∈ K benutzen: v(y) = v(x) + ∇v(x) · (y − x) + R(x, y), wobei R(x, y) =
2 1 ∂2v (ξ)(yi − xi )(yj − xj ) 2 i,j=1 ∂xi ∂xj
der Restterm mit Ordnung 2 ist und ξ ein Punkt auf dem Geradenst¨ uck zwischen x und y. Wenn wir insbesondere y = ai = (ai1 , ai2 ) w¨ahlen, erhalten wir: (76.6) v(ai ) = v(x) + ∇v(x) · (ai − x) + Ri (x), mit Ri (x) = R(x, ai ). Wenn wir (76.6) in (76.5) einsetzen, erhalten wir f¨ ur x ∈ K: πK v(x) = v(x)
3
λi (x)+∇v(x)·
i=1
3
(ai −x)λi (x)+
i=1
3
Ri (x)λi (x). (76.7)
i=1
Wir werden die folgenden Gleichungen benutzen, die f¨ ur j, k = 1, 2 und x ∈ K gelten: 3
λi (x) = 1,
i=1 3 ∂ λi (x) = 0, ∂x k i=1
3
(aij − xj )λi (x) = 0,
(76.8)
i=1 3 i=1
(aij − xj )
∂λi = δjk , ∂xk
(76.9)
76.5 Fehlerabsch¨ atzungen mit der Maximum-Norm
1093
mit δjk = 1 f¨ ur j = k und ansonsten δjk = 0. Die erste der Gleichung in (76.8) ergibt sich nach Wahl von v(x) = 1 in (76.7). Die zweite ergibt sich durch Wahl von v(x) = d1 x1 + d2 x2 mit di ∈ R. Schließlich folgt (76.9) durch Ableitung von (76.8). Mit Hilfe von (76.8) erhalten wir die folgende Darstellung des Interpolationsfehlers: v(x) − πK v(x) = −
3
Ri (x)λi (x).
i=1
Da |ai − x| ≤ hK , k¨ onnen wir den Restterm Ri (x) durch |Ri (x)| ≤
1 2 h D2 vL∞ (K) , 2 K
i = 1, 2, 3
absch¨ atzen, wobei wir die Cauchysche Ungleichung zweimal benutzt haben, um einen Ausdruck der Form ij xi cij xj = i xi j cij xj abzusch¨atzen. Nun erhalten wir mit Hilfe der Tatsache, dass 0 ≤ λi (x) ≤ 1 f¨ ur x ∈ K f¨ ur i = 1, 2, 3: |v(x) − πK v(x)| ≤ max |Ri (x)| i
3
λi (x) ≤
i=1
1 2 h D2 vL∞ (K) 2 K
f¨ ur x ∈ K,
womit (76.2) bewiesen ist. Um (76.3) zu beweisen, leiten wir (76.5) nach xk , k = 1, 2 ab und erhalten: ∇(πK v)(x) =
3
v(ai )∇λi (x).
i=1
Daraus ergibt sich zusammen mit (76.6) und (76.9) die folgende Fehlerdarstellung: ∇(v − πK v)(x) = −
3
Ri (x)∇λi (x)
f¨ ur x ∈ K.
i=1
Wir halten noch fest, dass max |∇λi (x)| ≤ x∈K
2 , hK sin(τK )
was sich durch eine einfache Absch¨ atzung der k¨ urzesten H¨ohe (Abstand zwischen einem Knoten und der gegen¨ uberliegenden Seite) von K ergibt. Wir erhalten nun (76.3) und (76.4) ergibt sich schließlich mit Hilfe des Mittelwertsatzes. Damit ist der Beweis abgeschlossen. Sei nun Th = {K} eine Triangulierung eines Gebiets Ω mit der Gitterfunktion h(x) und ferner bezeichne πh die Knoteninterpolierende auf den
1094
76. St¨ uckweise lineare Polynome in R2 und R3
zugeh¨ origen Raum der stetigen st¨ uckweise linearen Funktionen Vh auf Th . Die Absch¨ atzungen f¨ ur den Interpolationsfehler in Satz 76.1 nehmen nun die folgende Form an: 1 2 2 h D vL∞ (Ω) , 2 v − πh vL∞ (Ω) ≤ hDvL∞ (Ω) , 3 hD2 vL∞ (Ω) , ∇(v − πh v)L∞ (Ω) ≤ sin(τ ) v − πh vL∞ (Ω) ≤
(76.10) (76.11) (76.12)
wobei τ dem Minimum der τK entspricht. Unten werden wir analoge Absch¨ atzungen benutzen und dabei L∞ (Ω) durch L2 (Ω) ersetzen.
76.6 Sobolev und seine R¨aume Sergei Sobolev (1908–1989) spielte in der mathematischen Welt der fr¨ uheren Sowjetunion eine f¨ uhrende Rolle und er leistete wichtige Beitr¨age zur Theorie und dem praktischen Einsatz von partiellen Differentialgleichungen, insbesondere zu Fragen der Existenz, Eindeutigkeit, Stabilit¨at und Regularit¨ at von L¨ osungen, indem er die Werkzeuge der Funktionalanalysis entwickelte. Er arbeitete auch u ¨ ber numerische Methoden und erzielte wichtige Ergebnisse zur Interpolation und Quadratur von Funktionen mehrerer Variabler, indem er Techniken von Sobolev-R¨aumen entwickelte. Ein zentraler Sobolev-Raum, der als H 1 (Ω) bezeichnet wird, ist der Raum der reellwertigen Funktionen, die auf einem Gebiet Ω in Rd definiert und quadratisch integrierbar sind zuz¨ uglich ihrer ersten partiellen Ableitungen.
Abb. 76.12. Sergei Lvovich Sobolev (1908–1989), Begr¨ under der Funktionalanalysis und Erfinder der Sobolov-R¨ aume: Ich frage mich, ob mein Funktionenraum ” osung zu enthalten?“ H 1 (Ω) groß genug ist, um die L¨
76.7 Quadratur in R2
1095
76.7 Quadratur in R2 Um die Steifigkeitsmatrix und den Lastvektor bei der FEM aufzustellen, m¨ ussen wir Integrale der Form K g(x) dx berechnen, wobei K ein Dreieck oder Tetraeder ist und g eine vorgegebene Funktion. Manchmal k¨onnen wir diese Integrale exakt bestimmen, aber normalerweise ist dies entweder unm¨ oglich oder ineffektiv. Daher werten wir im Allgemeinen diese Integrale n¨ aherungsweise mit Hilfe von Quadraturformeln aus. Wir wollen einige Quadraturformeln f¨ ur Integrale u ¨ber Dreiecke in Kurzform vorstellen. Im Allgemeinen w¨ urden wir gerne Quadraturformeln verwenden, die die Genauigkeit der zugrunde liegenden finiten Element-Methode nicht beeinflusst, wozu wir nat¨ urlich eine Absch¨ atzung f¨ ur den Fehler bei der Quadratur ben¨ otigen. Eine Quadraturformel f¨ ur ein Integral u ¨ ber ein Element K besitzt die Form q g(x) dx ≈ g(y i )ωi , (76.13) K
i=1
bei vorgegebener Wahl der Knoten {y i } in K und Gewichten {ωi }. Wir wollen nun einige M¨ oglichkeiten f¨ ur die Quadratur anf¨ uhren, wobei wir die Schreibweise aiK benutzen, um damit die Ecken eines Dreiecks K zu i identifizieren. Dabei bezeichnet aij K den Mittelpunkt der Seite zwischen aK j 123 und aK , aK den Massenschwerpunkt von K und |K| die Fl¨ache von K:
g dx ≈ g a123 K |K|,
g(x) dx ≈
K
K 3 |K| + g dx ≈ g aiK 20 K j=1
3
g(ajK )
j=1
g dx ≈
(76.14)
K
1≤i<j≤3
1≤i<j≤3
|K| , 3
|K| , g aij K 3
9|K| 2|K| + g a123 . g aij K K 15 20
(76.15) (76.16)
(76.17)
Wir bezeichnen die Formel (76.14) als die Quadratur im Schwerkraftszentrum, (76.15) als Knotenquadratur und (76.16) als Mittelpunktsquadratur. Bedenken Sie, dass die Genauigkeit einer Quadraturformel mit der Genauigkeit der Formel verkn¨ upft ist. Eine Quadraturformel besitzt die Genauigkeit r, falls die Formel den exakten Wert des Integrals f¨ ur Polynome vom Grade kleiner gleich (r − 1) liefert, es aber ein Polynom vom Grade r gibt, so dass die Formel nicht exakt ist. Der Quadraturfehler f¨ ur eine Quadraturformel mit der Genauigkeit r ist proportional zu hr , wobei h die Gitterweite angibt. Genauer formuliert, so erf¨ ullt der Fehler der Quadra-
1096
76. St¨ uckweise lineare Polynome in R2 und R3
turformel (76.13): q i g(y )ωi ≤ ChrK |Dα g| dx, g dx − K K i=1
|α|=r
wobei C eine Konstante ist. Knotenquadratur und Quadratur im Schwerkraftszentrum besitzen die Genauigkeit 2, Mittelpunktsquadratur Genauigkeit 3, wohingegen (76.17) die Genauigkeit 4 besitzt. Bei finiten Element-Methoden, die auf stetigen st¨ uckweise linearen Funktionen aufbauen, wird oft Knotenquadratur eingesetzt, die auch als knotige Massenquadratur bezeichnet wird, da die so berechnete Massenmatrix diagonal ist. Beispiel 76.1. In Abb. 76.13 und Abb. 76.14 geben wir zwei Beispiele: Eines aus der Elektromagnetik und ein anderes aus der Str¨omungsmechanik.
Abb. 76.13. Magnetfeld um eine Spule und das verwendete Gitter
Aufgaben zu Kapitel 76 76.1. Bestimmen Sie f¨ ur ein gegebenes Dreieck K die Beziehung zwischen dem kleinsten Winkel τK , dem Dreiecksdurchmesser hK und den Durchmesser ρK des gr¨ oßten einbeschriebenen Kreises. 76.2. Zeichnen Sie das verfeinerte Gitter, das sich durch Unterteilung der beiden kleinsten Dreiecke im Gitter rechts von Abb. 76.5 ergibt. 76.3. Sei K ein Tetraeder mit den Ecken {ai , i = 1, . . . , 4}. Zeigen Sie, dass ein lineares Polynom v(x) = c0 + c1 x1 + c2 x2 + c3 x3 auf K durch die Knotenwerte orige finite {v(ai ), i = 1, . . . , 4} eindeutig definiert ist. Zeigen Sie, dass der zugeh¨ Elementeraum Vh aus stetigen Funktionen besteht.
Aufgaben zu Kapitel 76
1097
Abb. 76.14. Str¨ omung in der Zylinder¨ offnung eines Dieselmotors und das verwendete Gitter 76.4. Beweisen Sie, dass die Quadraturformeln (76.14), (76.15), (76.16) und (76.17) die angef¨ uhrten Genauigkeiten besitzen. 76.5. Beweisen Sie, dass die Knotenquadratur zur Berechnung einer Massenmatrix f¨ ur st¨ uckweise lineare Funktionen eine diagonale Massenmatrix ergibt, wobei ein Diagonalausdruck der Summe der Ausdr¨ ucke in der zugeh¨ origen Spalte f¨ ur die exakt berechnete Massenmatrix entspricht. Begr¨ unden Sie den Ausdruck knotig“. ”
77 FEM fu¨r Randwertprobleme in R2 und R3
. . . waren sehr verwirrt und pl¨ otzlich wurde das Thema gewechselt, von einer Formel zur n¨ achsten, ohne einen Versuch, eine Verbindung zwischen ihnen zu kn¨ upfen. Seine Pr¨ asentationen waren dunkle Wolken, die von Zeit zu Zeit von Genieblitzen durchzuckt wurden. . . . von den dreißig, die sich zusammen mit mir angemeldet haben, war ich der Einzige, der es zu Ende brachte. (Menabrea u ¨ ber Cauchy, 1832)
77.1 Einleitung In diesem Kapitel werden wir die cG(1)-FEM f¨ ur ein-dimensionale Konvektions-, Diffusions- und Reaktionsprobleme auf entsprechende Randwertprobleme in R2 und R3 der folgenden Form erweitern: Gesucht ist u : Ω → R, so dass −∇ · (a∇u) + ∇ · (ub) + cu = f in Ω (77.1) in Verbindung mit Dirichlet-, Neumann- oder Robin-Randwertbedingungen, wobei a(x) > 0, b(x) und c(x) vorgegebene variable Koeffizienten sind, f (x) ist eine gegebene rechte Seite und Ω ein beschr¨anktes offenes Gebiet ublicherin R2 oder R3 . Beachten Sie, dass der Koeffizient b ein Vektor ist (¨ weise eine vorgegebene Konvektionsgeschwindigkeit) und dass Gleichung (77.1) alternativ wie folgt geschrieben werden kann: −∇ · (a∇u) + b · ∇u + cˆu = f
in Ω,
(77.2)
mit cˆ = c + ∇ · b. Im Allgemeinen k¨ onnen Probleme dieser Art nicht analytisch gel¨ ost werden und wir m¨ ussen auf numerische Methoden, wie der
1100
77. FEM f¨ ur Randwertprobleme in R2 und R3
FEM, f¨ ur die Berechnung der L¨ osung u(x) zu vorgegebenen Daten vertrauen. Wir betrachten unten die Erweiterung auf zugeh¨orige Zeit-abh¨angige Probleme der Form u˙ − ∇ · (a∇u) + ∇ · (ub) + cu = f,
(77.3)
zusammen mit Anfangs- und Randwertproblemen und eine Erweiterung auf Gleichungssysteme derartiger Probleme mit Hilfe der Kapitel Das all” gemeine Anfangswertproblem“ und Adaptive AWP-L¨oser“. ” Das wichtigste Beispiel der Form (77.1) ist die Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen, das entspricht a = 1, b = 0 und c = 0: −∆u(x) = f (x) f¨ ur x ∈ Ω, (77.4) u(x) = 0 f¨ ur x ∈ Γ, wobei Ω ein beschr¨ anktes Gebiet in R2 ist, das durch einen Polygonzug Γ begrenzt wird. Wir erinnern daran, dass ∇ · (∇u) = ∆u. Wir stellen nun die cG(1)-Methode f¨ ur (77.4) vor und verallgemeinern damit cG(1) f¨ ur das Zwei-Punkte Randwertproblem (53.9) und erweitern darauf zum allgemeinen Problem (77.1).
77.2 Richard Courant: Erfinder der FEM Richard Courant (1888–1972) war Student von Hilbert und ver¨offentlichte zusammen mit ihm das gewaltige Werk Methoden der Mathemati” schen Physik“. Mitte der 1930er floh er vor den Nationalsozialisten nach
Abb. 77.1. Richard Courant (1888–1972), Pionier der finiten Elemente: Tat” s¨ achlich hatte ich bereits 1910 beim Schreiben meiner Doktorarbeit u ¨ ber den Gebrauch des Dirichlet Minimumsprinzips, um die Existenz von L¨ osung zur Poisson-Gleichung auf einem Gebiet Ω zu beweisen, die Idee, N¨ aherungsl¨ osungen in uckweise lieinem Unterraum des Sobolev-Raums H 1 (Ω) zu suchen, der aus st¨ nearen Funktionen auf einer Triangulierung von Ω besteht . . .“
77.3 Variationsformulierung
1101
New York und gr¨ undete das Courant Institute of Mathematical Sciences“, ” das seit 1964 ein 13-st¨ ockiges Geb¨ aude nahe dem Washington Square in Greenwich Village auf Manhattan belegt. Courant legte in einer ber¨ uhmten Ver¨ offentlichung ab 1943 die Grundlagen der finiten Elemente N¨aherung f¨ ur Differentialgleichungen als Erweiterung einer Fußnote in den 1924 erschienenen Methoden“. Diese Fußnote muss einer der fruchtbarsten Be” merkungen in der Wissenschaftsgeschichte gewesen sein, die hunderttausende wissenschaftlicher Artikel und eine F¨ ulle von Software seit der Mitte der 1960er nach sich zog.
77.3 Variationsformulierung Sei Th = {K} eine Triangulierung von Ω mit der Gitterfunktion h(x) und internen Knoten N1 , . . . , NM . Sei ferner Vh der zugeh¨orige finite Elementeraum von stetigen st¨ uckweise linearen Funktionen, die auf der Begrenzung Γ verschwinden. Wir formulieren zun¨ achst f¨ ur (77.4) eine vorl¨aufige Variationsformulierung −
∆u v dx = Ω
f v dx
(77.5)
Ω
f¨ ur alle geeigneten Testfunktionen v, die sich durch Multiplikation von (77.4) mit v(x) und Integration u ¨ ber Ω ergibt. Wir wollen nun die rechte Seite umschreiben, um eine Ableitung von ∆u zu v zu verschieben. Unter der Annahme, dass die Testfunktion v auf Γ Null ist, folgt aus der Greenschen Formel: − ∆u v dx = − ∂n uv ds + ∇u · ∇v dx = ∇u · ∇v dx, Ω
Γ
Ω
Ω
∂ die ausw¨ arts gerichtete Ableitung der Einheitsnormalen auf wobei ∂n = ∂n Γ bezeichnet. Wir erkennen, dass f¨ ur eine L¨ osung u(x) von (77.4) gilt: ∇u · ∇v dx = f v dx, (77.6) Ω
Ω
f¨ ur alle Testfunktionen v mit v = 0 auf Γ.
77.4 Die cG(1)-FEM Unsere Ergebnisse f¨ uhren uns zu folgender Formulierung der cG(1)-FEM f¨ ur (77.4): Gesucht ist U ∈ Vh , so dass ∇U · ∇v dx = f v dx f¨ ur alle v ∈ Vh , (77.7) Ω
Ω
1102
77. FEM f¨ ur Randwertprobleme in R2 und R3
wobei Vh der Raum der stetigen st¨ uckweise linearen Funktionen, die auf der Begrenzung Γ verschwinden, auf einer Triangulierung Th von Ω ist. Mit Hilfe der Bezeichnungen (w, v) = wv dx und (∇w, ∇v) = ∇w · ∇v dx, Ω
Ω
k¨ onnen wir cG(1) in der folgenden Form schreiben: Gesucht ist U ∈ Vh , so dass (77.8) (∇U, ∇v) = (f, v) f¨ ur alle v ∈ Vh . Wir sehen, dass der Versuchsraum und der Testraum gleich sind (= Vh ) und die homogene Dirichlet-Randbedingung beinhalten. Die Galerkin-Orthogonalit¨ at wird wie folgt ausgedr¨ uckt: (∇u − ∇U, ∇v) = 0
f¨ ur alle v ∈ Vh .
(77.9)
Diese Beziehung ergibt sich durch die Subtraktion von (77.8) von (77.6) f¨ ur v ∈ Vh . Wir erinnern uns daran, dass die Knotenbasisfunktionen {ϕi }M i=1 , die mit ur Vh den internen Knoten N1 , . . . , NM auf Th assoziiert sind, eine Basis f¨ bilden. Wir k¨ onnen U in dieser Basis ausdr¨ ucken, U (x) =
M
U (Nj )ϕj (x),
(77.10)
j=1
ur i = 1, . . . , M diesen Ausdruck in (77.8) einsetzen und dabei v = ϕi f¨ w¨ ahlen und erhalten: M
(∇ϕj , ∇ϕi )U (Nj ) = (f, ϕi ),
i = 1, . . . , M.
j=1
Dies entspricht dem linearen Gleichungssystem Aξ = b,
(77.11)
wobei ξ = (ξj ) der Vektor aus internen Knotenwerten ξj = U (Nj ) ist, A = (aij ) ist die Steifigkeitsmatrix mit den Elementen aij = (∇ϕj , ∇ϕi ) und b = (bi ) mit bi = (f, ϕi ) ist der Lastvektor. Die Steifigkeitsmatrix A ist offenbar symmetrisch und außerdem noch M positiv-definit, da f¨ ur jedes v = i=1 ηi ϕi in Vh gilt: M i,j=1
ηi aij ηj =
M i,j=1
ηi (∇ϕi , ∇ϕj )ηj ⎛ = ⎝∇
M i=1
ηi ϕi , ∇
M j=1
⎞ ηj ϕj ⎠ = (∇v, ∇v) > 0,
77.4 Die cG(1)-FEM
1103
es sei denn, ηi = 0 f¨ ur alle i. Insbesondere bedeutet dies, dass (77.11) einen eindeutigen L¨ osungsvektor U besitzt und somit besitzt das cG(1) finite Elementproblem (77.8) eine eindeutige L¨ osung U ∈ Vh . Ein Dreieck mit seiner zugeh¨ origen linearen N¨aherung, d.h. das zugrundeliegende finite Element von cG(1), wird auch in Andenken an seinen Erfinder Courant-Element genannt.
Gleichf¨ormige Triangulierung eines Quadrats Wir berechnen explizit die Steifigkeitsmatrix A und den Lastvektor b in (77.11) auf dem Quadrat Ω = [0, 1] × [0, 1] f¨ ur die in Abb. 77.2 dargestellte gleichf¨ ormige Triangulierung. Wir w¨ ahlen eine ganze Zahl m ≥ 1, setzen h = 1/(m + 1) und konstruieren√ die Dreiecke wie skizziert. Der Durchmesagt 2h mit M = m2 internen Knoten. Wir ser der Dreiecke in Th betr¨ nummerieren die Knoten beginnend bei der linken unteren Ecke, bewegen uns zun¨ achst nach rechts und so weiter von Reihe zu Reihe.
Abb. 77.2. Die Standardtriangulierung des Einheitsquadrats
In Abb. 77.3 haben wir den Tr¨ ager der Basisfunktion, die zum Knoten ort, zusammen mit Teilen der Basisfunktionen f¨ ur die NachbarknoNi geh¨ ten dargestellt. Wie in einer Dimension sind die Basisfunktionen fast“ ” orthogonal, in dem Sinne, dass nur Basisfunktionen ϕi und ϕj , die ein Dreieck im Tr¨ ager gemeinsam haben, einen von Null verschiedenen Wert f¨ ur (∇ϕi , ∇ϕj ) ergeben. Wir haben die Knoten, die zu Ni benachbart sind, in Abb. 77.4 dargestellt. Die Tr¨ ager zweier beliebiger benachbarter Basisfunktionen u ¨ berlappen sich genau auf zwei Dreiecken, wohingegen eine Basisfunktion sich selbst auf sechs Dreiecken u ¨ berlappt“. ”
1104
77. FEM f¨ ur Randwertprobleme in R2 und R3
i
Abb. 77.3. Der Tr¨ ager der Basisfunktion ϕi zusammen mit Teilen benachbarter Basisfunktionen
i i+m-1
i-1
i+m
i+1
i
i-m
i-m+1
Abb. 77.4. Die Indizes der Knoten, die Ni benachbart sind, und eine gespreng” te“ Ansicht von ϕi
Zun¨ achst berechnen wir
aii = (∇ϕi , ∇ϕi ) =
|∇ϕi |2 dx = Ω
|∇ϕi |2 dx, Tr¨ ager von
ϕi
f¨ ur i = 1, . . . , m2 . Wie gesagt, m¨ ussen wir nur das Integral u ¨ ber das in Abb. 77.4 dargestellte Gebiet betrachten, das sich als Summe von Integralen u ¨ ber die sechs Dreiecke, die dieses Gebiet bilden, schreiben l¨asst. Wenn wir aher betrachten, vgl. Abb. 77.4, erkennen wir, dass ϕi auf diesen Dreiecken n¨ es nur zwei verschiedene Integrale zu berechnen gilt, da ϕi abgesehen von ¨ der Orientierung auf zweien der sechs Dreiecke identisch ist. Ahnliches gilt f¨ ur die verbleibenden vier Dreiecke. Wir haben die entsprechenden Dreiecke in Abb. 77.3 schraffiert dargestellt. Die Orientierung beeinflusst nat¨ urlich die Richtung von ∇ϕi , aber sie hat keinen Einfluss auf |∇ϕi |2 . ur das in Abb. 77.5 dargestellte Dreieck. In Wir berechnen (∇ϕi , ∇ϕi ) f¨ diesem Fall besitzt ϕi den Wert Eins im Knoten mit dem rechten Winkel und Null in den beiden anderen Knoten. Wir ver¨andern die Koordinaten zur Berechnung von (∇ϕi , ∇ϕi ) auf dem Referenzdreieck in Abb. 77.5. Dabei ver¨ andert dieser Koordinatenwechsel wiederum nicht den Wert von
77.4 Die cG(1)-FEM
1105
i=1
i=0
h Ni
h
i=0
Abb. 77.5. ϕi f¨ ur den ersten Fall links zusammen mit den Variablen, die im Referenzdreieck rechts benutzt werden
(∇ϕi , ∇ϕi ), da ∇ϕi auf dem Dreieck konstant ist. Auf dem Dreieck kann ϕi in der Form ϕi = ax1 + bx2 + c mit Konstanten a, b, c geschrieben ¨ werden. Da ϕi (0, 0) = 1, gilt c = 1. Ahnlich k¨onnen wir a und b berechnen und erhalten so f¨ ur dieses Dreieck: ϕi = 1 − x1 /h − x2 /h. Daher gilt ∇ϕi = −h−1 , −h−1 und f¨ ur das Integral ergibt sich:
h
|∇ϕi |2 dx = 0
h−x1
0
2 dx2 dx1 = 1. h2
Im zweiten Fall besitzt ϕi den Wert Eins in einem Knoten mit spitzem Winkel und den Wert Null in den anderen Knoten des Dreiecks, vgl. Abb. 77.6. Wir wechseln zum Referenzdreieck in Abb. 77.6 und erhalten ϕi = 1−x1 /h. i=1
i=0
Ni
h
Abb. 77.6. ϕi f¨ ur den zweiten Fall zusammen mit dem Referenzdreieck
Die Integration u ¨ ber das Dreieck liefert 1/2. Wenn wir die Beitr¨ age von allen Dreiecken summieren, erhalten wir: aii = (∇ϕi , ∇ϕi ) = 1 + 1 +
1 1 1 1 + + + = 4. 2 2 2 2
Als N¨ achstes berechnen wir (∇ϕi , ∇ϕj ) f¨ ur Indizes zu benachbarten Knoten. F¨ ur einen allgemeinen Knoten Ni ergeben sich zwei unterschiedliche Arten von inneren Produkten, vgl. Abb. 77.4 und Abb. 77.3: ai i−1 = (∇ϕi , ∇ϕi−1 ) = (∇ϕi , ∇ϕi+1 ) = (∇ϕi , ∇ϕi−m ) = (∇ϕi , ∇ϕi+m )
1106
77. FEM f¨ ur Randwertprobleme in R2 und R3
und ai i−m+1 = (∇ϕi , ∇ϕi−m+1 ) = (∇ϕi , ∇ϕi+m−1 ). Die Orientierung dieser Dreiecke ist f¨ ur jeden der beiden F¨alle unterschiedlich, aber das innere Produkt der Gradienten der jeweiligen Basisfunktionen wird nicht durch die Orientierung beeinflusst. Beachten Sie, dass wir Knoten, die nahe der Begrenzung liegen, besonders behandeln m¨ ussen, da die Knotenwerte auf der Begrenzung Null sind, vgl. Abb. 77.2. So beinhaltet beispielsweise die Gleichung f¨ ur N1 nur N1 , N2 und Nm+1 . Als ersten Fall berechnen wir als N¨ achstes (∇ϕi , ∇ϕi+1 ). Wenn wir die Schnittmenge der jeweiligen Tr¨ ager zeichnen, vgl. Abb. 77.7, sehen wir, dass die beiden Dreiecke in der Schnittmenge gleich viel beitragen. Wir w¨ahlen i+1 i
¨ Abb. 77.7. Die Uberlappung von ϕi und ϕi+1
eines der Dreiecke aus und konstruieren wie oben ein Referenzdreieck. Wenn wir die Variablen geeignet w¨ ahlen, erhalten wir 1 1 1 1 ,0 = − 2, ∇ϕi · ∇ϕi+1 = − , − · h h h h so dass die Integration u ¨ ber das Dreieck den Wert −1/2 ergibt. Ganz ¨ahnlich erkennen wir, dass (∇ϕi , ∇ϕi−m+1 ) = (∇ϕi , ∇ϕi+m−1 ) = 0. Mit diesen Informationen k¨ onnen wir die Steifigkeitsmatrix A aufstellen. Wir beginnen mit der ersten Zeile. Der erste Eintrag ergibt sich aus (∇ϕ1 , ∇ϕ1 ) = 4, da N1 weder links noch unten Nachbarn besitzt. Der n¨ achste Eintrag lautet (∇ϕ1 , ∇ϕ2 ) = −1. Da die Tr¨ager von ϕ1 und ϕ3 sich nicht u achste Eintrag Null. Dies trifft allerdings f¨ ur ¨berlappen, lautet der n¨ alle Eintr¨ age bis einschließlich ϕm zu. Dagegen ist (∇ϕ1 , ∇ϕm+1 ) = −1, da die Tr¨ ager dieser benachbarten Basisfunktionen zwei Dreiecke gemeinsam u ¨ berdecken. Schließlich sind alle weiteren Eintr¨age in dieser Zeile gleich Null, da die Tr¨ager der zugeh¨ origen Basisfunktionen sich nicht u ¨berlappen. Auf gleiche Weise arbeiten wir uns Zeile f¨ ur Zeile vor. Das Ergebnis dieser Vorgehensweise ist in Abb. 77.8 dargestellt. Wir erkennen, dass A
77.4 Die cG(1)-FEM
1107
Blockstruktur besitzt und aus einem Band von m × m-Untermatrizen besteht, die haupts¨ achlich nur Nullen enthalten. Beachten Sie das Muster der Eintr¨ age in den Ecken zwischen Diagonalblockmatrizen; diese Werte werden sehr oft falsch programmiert.
Abb. 77.8. Die Steifigkeitsmatrix
Der ben¨ otigte Speicherplatz und die L¨ osung des d¨ unn besetzten Systems sind von der Struktur oder dem Besetzungsmuster der Matrix A abh¨ angig. Das Besetzungsmuster selbst ist wiederum vom Nummerierungsschema abh¨ angig, das wir f¨ ur die Markierung der Knoten benutzen. Es gibt verschiedene Algorithmen zur Umordnung der Koeffizienten einer d¨ unn besetzten Matrix, um eine Matrix mit kleinerer Bandbreite zu erhalten. Die Umnummerierung der Koeffizienten ist ¨aquivalent dazu, eine andere Basis f¨ ur den Vektorraum zu benutzen. Der Lastvektor b wird auf dieselbe Weise berechnet, indem jedes Integral
f ϕi dx = Ω
f (x)ϕi (x) dx Tr¨ ager von
ϕi
in Integrale u ager von ϕi bilden, zerlegt wird. Wir ¨ ber Dreiecke, die den Tr¨ setzen oft eines der in Kapitel 76 vorgestellten Quadraturverfahren ein, um die Elemente (f, ϕi ) des Lastvektors zu berechnen.
1108
77. FEM f¨ ur Randwertprobleme in R2 und R3
77.5 Wichtige Datenstrukturen Um die finite Elemente N¨ aherung U zu berechnen, m¨ ussen wir die Koeffizienten der Steifigkeitsmatrix A und den Lastvektor b bestimmen und das lineare Gleichungssystem (77.11) l¨ osen. Wir haben gerade A und b f¨ ur eine gleichf¨ ormige Triangulierung des Einheitsquadrats aufgestellt und wir wollen nun den Fall einer allgemeinen Triangulierung eines allgemeinen Gebiets untersuchen. Dazu m¨ ussen wir die von Null verschiedenen Elemente aij = (∇ϕi , ∇ϕj ) der Steifigkeitsmatrix A berechnen. Wir wissen, dass aij = 0, außer wenn sowohl Ni als auch Nj Knoten desselben Dreiecks K sind, da nur dann die Tr¨ ager der Basisfunktionen ϕi und ϕj u ¨ berlappen. Der gemeinsame Tr¨ager, der f¨ ur ein von Null verschiedenes Element aij verantwortlich ist, entspricht ur i = j den beiden Dreiecken, deren f¨ ur j = i dem Tr¨ ager von ϕi und f¨ gemeinsame Kante Nj und Ni verbindet. In jedem Fall ergibt sich aij aus der Summe der Beitr¨ age ∇ϕi · ∇ϕj dx,
aK ij =
(77.12)
K
wobei u ¨ ber die Dreiecke K mit gemeinsamem Tr¨ager summiert wird. Der Vorgang des Aufsummierens der Beitr¨ age aK ij der relevanten Dreiecke K, um das Element aij zu berechnen, wird als Assemblierung oder als Kombination der Steifigkeitsmatrix A bezeichnet. Wenn wir f¨ ur ein bestimmtes Dreieck K die Zahlen aK ij anordnen, wobei Ni und Nj Knoten von K sind, erhalten wir eine 3×3-Matrix, die Elementsteifigkeitsmatrix f¨ ur das Dreieck K genannt wird. Die assemblierte Matrix A wird dagegen auch als globale Steifigkeitsmatrix bezeichnet. Beachten Sie, dass wir den Begriff Element mit zwei verschiedenen Bedeutungen benutzen: Als ein Element aij der Steifigkeitsmatrix A und als ein finites Element oder Dreieck der Triangulierung. ur ein bestimmtes Dreieck K zu Um die Elementsteifigkeitsmatrix aK ij f¨ berechnen, ben¨ otigen wir die physikalischen Koordinaten der Knoten von K. Um die Assemblierung durchzuf¨ uhren, wobei wir alle Elemente ablaufen und dabei die entsprechenden Beitr¨ age zur globalen Steifigkeitsmatrix ¨ addieren, ben¨ otigen wir die Knotennummern jedes Dreiecks. Ahnliche Informationen ben¨ otigen wir auch f¨ ur die Berechnung des Lastvektors. Die notwendige Information wird in einer Datenstruktur oder einer Datenbasis organisiert. Sie muss (i) eine Liste der Koordinaten der Knoten, die in einer bestimmten Weise nummeriert sind, und (ii) eine Liste der Knotennummern f¨ ur jedes Dreieck enthalten. Außerdem ben¨otigen wir noch eine Liste f¨ ur die Knotennummern auf der Begrenzung, um die Randbedingungen gezielt behandeln zu k¨ onnen. All diese Informationen liefert u ¨blicherweise der sogenannte Gittergenerator, der eine Triangulierung des Gebiets erzeugt.
77.6 Die L¨ osung des diskreten Systems
1109
77.6 Die L¨osung des diskreten Systems Wenn wir die Steifigkeitsmatrix A assembliert haben und der Lastvektor b berechnet ist, m¨ ussen wir das lineare System AU = b l¨osen, um die finite Elemente L¨ osung U (x) zu erhalten. Wir wollen dieses Gebiet nun kurz diskutieren, wobei wir auf dem Stoff aus Kapitel Die L¨osung linearer ” Gleichungssysteme“ aufbauen. Die Steifigkeitsmatrix, die durch die Diskretisierung des Laplace-Operators entsteht, ist symmetrisch und positivdefinit und folglich invertierbar. Diese Eigenschaften bedeuten auch, dass wir u oglichkeiten verf¨ ugen, um das lineare Sy¨ ber eine breite Palette an M¨ stem AU = b zu l¨ osen, die außerdem ber¨ ucksichtigen, dass A d¨ unn besetzt ist. F¨ ur den Fall der standardm¨ aßigen gleichf¨ormigen Diskretisierung eines Quadrats haben wir f¨ ur A eine Bandmatrix mit f¨ unf von Null verschiedenen Diagonalen und Bandbreite m + 1 erhalten. Dabei ist m die Zahl der Knoten auf einer Seite des Quadrats. Die Dimension von A betr¨agt m2 und die asymptotische Zahl von Rechenoperationen ur das Gausssche Elimi f¨ nationsverfahren betr¨ agt etwa O m4 = O h−4 . Beachten Sie dabei, dass w¨ ahrend der Elimination neue von Null verschiedene Elemente innerhalb des Bandes erzeugt werden, obwohl die meisten Diagonalen von A innerhalb des Bandes Null sind. Eine kluge Umordnung von A zur Reduktion der Zahl der neu erzeugten Elemente f¨ uhrt uns zu einem L¨osungsalgorithurden wir mus, der ungef¨ ahr O(m3 ) = O(h−3 ) Operationen ben¨otigt. W¨ vergleichsweise A als voll besetzte Matrix behandeln, m¨ u ssten wir asymp uhren, was bei einer großen Zahl von Eletotisch O h−6 Operationen ausf¨ menten betr¨ achtlich mehr ist. Im Allgemeinen erhalten wir eine d¨ unn besetzte Steifigkeitsmatrix, jedoch meist ohne eine lineare Bandstruktur. Um im Allgemeinen ein Gausssches Eliminationsverfahren effektiv einzusetzen, ist eine Umordnung auf eine m¨ oglichst d¨ unne Bandstruktur unumg¨ anglich. Wir k¨ onnen auch sowohl das Jacobi- als auch das Gauss-Seidel-Verfahren anwenden, um das lineare Gleichungssystem, das bei der Diskretisierung der Poisson-Gleichung entsteht, zu l¨ osen. Im Falle der gleichf¨ormigen standardm¨ aßigen Diskretisierung eines Quadrats betr¨ agt die Zahl der Operationen f¨ ur beide Verfahren pro Iteration O M , wenn wir dabei ber¨ ucksichtigen, dass A d¨ unn besetzt ist. Daher ist ein einziger Schritt mit jeder dieser Methoden viel billiger als eine direkte L¨osung. Allerdings stellt sich die Frage: Wie viele Iterationen ben¨ otigen wir f¨ ur die Berechnung, um eine genaue L¨ osung zu erhalten? ¨ Ublicherweise liegt der Spektralradius der Iterationsmatrix des Jacobioder des Gauss-Seidel-Verfahrens bei 1−Ch2 , wobei C eine m¨aßig große positive Zahl ist. Dies f¨ uhrt dazu, dass die Konvergenzgeschwindigkeit schnell abnimmt, wenn h kleiner wird: Um den Fehler um einen bestimmten Faktor zu reduzieren, ben¨ otigen wir etwa O(h−2 ) Iterationen und, da in je−2 der Iteration O(h ) Operationen anfallen, verh¨alt sich die Gesamtzahl an
1110
77. FEM f¨ ur Randwertprobleme in R2 und R3
Operationen wie O(h−4 ), womit wir in dieselbe Gr¨oßenordnung gelangen wie bei einem Gaussschen Eliminationsverfahren f¨ ur Bandmatrizen. Es gab betr¨ achtliche Anstrengungen, um iterative Methoden zu entwickeln, die schneller als das Jacobi- oder das Gauss-Seidel-Verfahren konvergieren. In den letzten Jahren wurden sehr effektive Multigrid Methoden entwickelt, die allm¨ ahlich zum Standardwerkzeug werden. Eine Multigrid Methode basiert auf einer Folge von Gauss-Seidel- oder Jacobi-Schritten, die auf einer Hierarchie von immer gr¨ ober werdenden Gittern ausgef¨ uhrt werden. Die Methoden sind insofern optimal, als die Arbeit zur L¨osung zur Gesamtzahl an Unbekannten (das sind in unserem Modellproblem h−2 ) proportional ist.
77.7 Ein ¨aquivalentes Minimierungsproblem Das Variationsproblem (77.8) ist zu folgendem quadratischen Minimierungsproblem a ¨quivalent: Gesucht ist U ∈ Vh , so dass F (U ) ≤ F (v) mit 1 F (v) = 2
|∇v| dx − 2
Ω
f¨ ur alle v ∈ Vh ,
f v dx = Ω
(77.13)
1 (∇v, ∇v) − (f, v). 2
Die Gr¨ oße F (v) kann als Gesamtenergie der Funktion v(x) aufgefasst werden, die sich aus der inneren Energie 12 (∇v, ∇v) und dem Lastpotential −(f, v) zusammensetzt. Daher minimiert die L¨osung U die Gesamtenergie andert. F (v), wobei sich v in Vh ver¨ ¨ Um die Aquivalenz von (77.8) und (77.13) zu erkennen, gehen wir zuullt. Sei dann v ∈ Vh , n¨ achst davon aus, dass U ∈ Vh die Gleichung (77.8) erf¨ so schreiben wir v = U + (v − U ) = U + w mit w = v − U ∈ Vh . Mit Hilfe von (∇U, ∇w) = (∇w, ∇U ) erhalten wir: F (v) = F (U + w) = 1 1 (∇U, ∇U ) + (∇U, ∇w) + (∇w, ∇w) − (f, U ) − (f, w) 2 2 1 = F (U ) + (∇w, ∇w) ≥ F (U ), 2 wobei die Gleichheit nur f¨ ur w = 0 gilt. Wir folgern daraus, dass U die Bedingung (77.13) erf¨ ullt. Andererseits, wenn U eine L¨ osung von (77.13) ist, dann gilt f¨ ur alle v ∈ Vh : ur alle ∈ R, gv () = F (U + v) ≥ gv (0) = F (U ) f¨
77.8 Eine a priori Fehlerabsch¨ atzung in der Energienorm
1111
so dass = 0 ein Minimum von gv () f¨ ur festes v ist, weswegen gv (0) = 0 gilt. Eine einfache Berechnung liefert: 0 = gv (0) = (∇U, ∇v) − (f, v) und daher erf¨ ullt U Gleichung (77.8). Wir fassen dies in folgendem Satz zusammen: Satz 77.1 Die Probleme (77.8) und (77.13) sind in dem Sinne ¨aquivalent, als sie die gleiche eindeutige L¨osung besitzen.
77.8 Eine a priori Fehlerabsch¨atzung in der Energienorm In den folgenden Abschnitten wollen wir eine a priori und eine a posteriori Absch¨ atzung des Fehlers u − U in der Energienorm ∇(u − U ) geben, wobei 1/2 2 |∇v| dx . (77.14) ∇v = Ω
Dabei ist u die exakte L¨ osung und U eine finite Elemente-L¨osung der Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen. Die Energienorm, die in diesem Problem der L2 -Norm des Gradienten einer Funktion entspricht, tritt ganz selbstverst¨ andlich bei der Fehleranalyse der finiten Elemente Methode auf, da sie mit dem Variationsproblem eng verkn¨ upft ist. Der Gradient der L¨ osung, der beispielsweise den W¨armefluss, das elektrische Feld, die Str¨ omungsgeschwindigkeit oder den Druck beschreibt, kann eine Variable mit physikalischer Bedeutung sein, so wie die L¨osung selbst auch, die beispielsweise die Temperatur, das Potential oder eine Versetzung beschreibt. Und f¨ ur diese F¨ alle ist die Energienorm das relevante Fehlermaß. Zun¨ achst wollen wir beweisen, dass die Galerkin finite Elemente N¨aheuglich der Energierung die beste N¨ aherung der wahren L¨ osung in Vh bez¨ norm liefert. Satz 77.2 Angenommen, u l¨ose die Poisson-Gleichung (77.4) und U sei die Galerkin finite Elemente N¨aherung, die (77.8) l¨ost. Dann gilt: ∇(u − U ) ≤ ∇(u − v)
f¨ ur alle v ∈ Vh .
(77.15)
Der Beweis lautet folgendermaßen: Mit Hilfe der Galerkin-Orthogonalit¨at (77.9), wobei wir v durch U − v ∈ Vh ersetzen, k¨onnen wir schreiben: ∇e2 = (∇e, ∇(u − U )) = (∇e, ∇(u − U )) + (∇e, ∇(U − v)).
1112
77. FEM f¨ ur Randwertprobleme in R2 und R3
Wenn wir die Ausdr¨ ucke, die U enthalten, auf der rechten Seite addieren, f¨ allt U heraus und wir erhalten mit Hilfe der Cauchyschen Ungleichung: ∇e2 = (∇e, ∇(u − v)) ≤ ∇e ∇(u − v), womit der Satz nach Division durch ∇e bewiesen ist. ahlen und ein L2 (Ω) Analogon der InterpolatiWenn wir v = πh u w¨ onsabsch¨ atzung (76.12) benutzen, erhalten wir die folgende quantitative Fehlerabsch¨ atzung (mit v = vL2 (Ω) ): Korollar 77.3 Es gibt eine Konstante Ci , die nur von dem kleinsten Winkel τ in Th abh¨angt, so dass ∇(u − U ) ≤ Ci hD2 u.
(77.16)
77.9 Eine a posteriori Fehlerabsch¨atzung in der Energienorm Wir wollen nun eine a posteriori Fehlerabsch¨ atzung beweisen, wobei wir wie beim zwei-Punkte Randwertproblem in Kapitel 53 vorgehen. Als neue Eigenschaft bei h¨ oheren Dimensionen treten Integrale u ¨ ber die inneren Kanten S in Sh auf. Wir beginnen damit, dass wir mit Hilfe von (77.6) und (77.8) eine Gleichung f¨ ur den Fehler e = u − U formulieren, um ∇e2 = (∇(u − U ), ∇e) = (∇u, ∇e) − (∇U, ∇e) = (f, e) − (∇U, ∇e) = (f, e − πh e) − (∇U, ∇(e − πh e)) zu erhalten, wobei πh e ∈ Vh eine Interpolierende von e ist. Wir teilen nun die Integrale u ¨ ber Ω in Summen u ¨ ber Integrale u ¨ ber die Dreiecke K in Th auf und f¨ uhren partielle Integration im letzten Ausdruck u ¨ ber jedes Dreieck aus und erhalten ∂U (f + ∆U )(e − π ˜h e) dx − (e − πh e) ds, (77.17) ∇e2 = K ∂K ∂nK K
K
wobei ∂U/∂nK die Ableitung von U in Richtung der ausw¨arts gerichteten Normalen nK der Begrenzung ∂K von K bezeichnet. In der Integralsumme in (77.17) u ¨ ber die Begrenzung tritt jede innere Kante S ∈ Sh als Teil jeder der Begrenzungen ∂K der beiden Dreiecke K, die S als gemeinsame Kante besitzen, doppelt auf. Nat¨ urlich weisen die ausw¨arts gerichteten Normalen nK der beiden Dreiecke K, mit gemeinsamem S, in entgegengesetzte Richtungen. F¨ ur jede Kante S w¨ ahlen wir eine dieser Normalenrichtungen und bezeichnen die Ableitung einer Funktion v in diese Richtung auf S als ur v ∈ Vh im Allgemeinen ∂S v auf den beiden ∂S v. Wir halten fest, dass f¨ Dreiecken, die S gemeinsam besitzen, verschieden ist, vgl. Abb. 76.9, in
77.9 Eine a posteriori Fehlerabsch¨ atzung in der Energienorm
1113
welcher der Knick“ u ¨ ber S im Graphen von v angedeutet ist. Wir k¨onnen ” die Summe der Randintegrale in (77.17) als eine Summe von Integralen u ¨ ber die Kanten als [∂S U ](e − πh e) ds S
ausdr¨ ucken, wobei [∂S U ] den Unterschied oder den Sprung der Ableitung ∂S U zum Ausdruck bringt, der bei den beiden Dreiecken, die S gemeinsam besitzen, vorliegt. Der Sprung tritt auf, da die ausw¨artigen Normalenrichtungen der beiden Dreiecke, die S gemeinsam besitzen, entgegengesetzt sind. Wir halten außerdem fest, dass e − π ˜h e u ¨ ber S stetig ist, aber im Allgemeinen nicht auf S verschwindet, selbst dann nicht, wenn πh die Knoteninterpolierende ist. Dies ist anders als im ein-dimensionalen Fall, in dem die entsprechende Summe u ¨ ber die Knoten tats¨achlich verschwindet, da e − πh e in den Knoten verschwindet. Wir k¨onnen daher (77.17) wie folgt umschreiben, wobei wir die zweite Summe durch eine Summe u ¨ ber die inneren Kanten S ersetzen: ∇e2 = (f + ∆U )(e − πh e) dx + [∂S U ](e − πh e) ds. K
K
S∈Sh
S
Als N¨ achstes wandeln wir dies zu einer Summe u ¨ber die Elementkanten ∂K um, indem wir einfach jeden Sprung gleichm¨ aßig auf die beiden Dreiecke, denen er gemeinsam ist, verteilen. So erhalten wir eine Fehlerdarstellung in der Energienorm f¨ ur den Fehler als Ausdruck des Residualfehlers: ∇e = 2
+
(f + ∆U )(e − πh e) dx
K
K
1 K
2
∂K
h−1 K [∂S U ](e − πh e)hK ds,
wobei wir darauf vorbereitet sind, die zweite Summe abzusch¨atzen, indem ugen und wieder ausgleichen. Grob gesprochen, so wir einen Faktor hk einf¨ ergibt sich der Residualfehler durch die Substitution von U in die Differentialgleichung −∆u − f = 0, aber in der Praxis ist eine direkte Substitution nicht m¨ oglich, da U nicht zweifach differenzierbar in Ω ist. Das Integral u ¨ ber K auf der rechten Seite ist der Restterm der Substitution von U in die Differentialgleichung innerhalb jedes Dreiecks K, wohingegen das Integral u ¨ ber ∂K daher kommt, dass sich ∂S U im Allgemeinen unterscheidet, wenn es auf den beiden Dreiecken, denen S gemeinsam ist, berechnet wird. Wir sch¨ atzen den ersten Ausdruck in der Fehlerdarstellung dadurch ab, dass wir einen Faktor h einf¨ ugen, dies wieder ausgleichen und die Absch¨atzung h−1 (e−πh e) ≤ Ci ∇e in Analogie zu (76.12) benutzen. So erhalten
77. FEM f¨ ur Randwertprobleme in R2 und R3
1114
wir: −1 h(f + ∆U )h (e − πh e) dx K K
≤ hR1 (U )h−1 (e − πh e) ≤ Ci hR1 (U )∇e, wobei wir die Funktion R1 (U ) auf Ω definieren, indem wir auf jedem Dreieck K ∈ Th setzen: R1 (U ) = |f + ∆U |. Wir sch¨atzen den Beitrag durch die Spr¨ unge an den Kanten ¨ ahnlich ab. Rein formal ergeben sich die Absch¨ atzungen dadurch, dass wir hK ds durch dx ersetzen, was dem Ersatz der Integrale u ¨ ber die Elementgrenzen ∂K durch Integrale u ¨ ber Elemente K entspricht. Durch Division mit ∇e erhalten wir die folgende a posteriori Fehlerabsch¨ atzung: Satz 77.4 Es gibt eine Interpolationskonstante Ci , die nur von dem kleinsten Winkel τ abh¨angt, so dass f¨ ur den Fehler der Galerkin finite Elemente N¨aherung U verglichen zur L¨osung u der Poisson-Gleichung gilt: ∇u − ∇U ≤ Ci hR(U ),
(77.18)
mit R(U ) = R1 (U ) + R2 (U ) mit R1 (U ) = |f + ∆U | auf K ∈ Th , 1 auf K ∈ Th . R2 (U ) = max h−1 K [∂S U ] 2 S⊂∂K Beachten Sie, dass R1 (U ) der Beitrag zum gesamten Residuum aus dem Inneren der Elemente K ist. Im vorgestellten Fall einer st¨ uckweise linearen N¨ aherung gilt R1 (U ) = |f |. Des Weiteren ist R2 (U ) der Beitrag zum Residuum durch den Sprung der Ableitungen von U in Normalenrichtung an den Kanten. Im ein-dimensionalen Fall, den wir in Kapitel 53 untersucht haben, tritt dieser Beitrag nicht auf, da der Interpolationsfehler dort so gew¨ ahlt werden kann, dass er in den Knotenpunkten Null ist.
77.10 Adaptive Fehlerkontrolle Das grundlegende Ziel einer adaptiven Fehlerkontrolle ist es, eine Trianur die gulierung Th mit der geringsten Knotenanzahl zu finden, so dass f¨ zugeh¨ orige finite Elemente N¨ aherung U gilt: ∇u − ∇U ≤ TOL.
(77.19)
Mit Hilfe der a posteriori Fehlerabsch¨ atzung f¨ uhrt uns dies zu einer Trianur die zugeh¨orige gulierung Th mit der geringsten Knotenanzahl, so dass f¨ finite Elemente N¨ aherung U gilt: Ci hR(U ) ≤ TOL.
(77.20)
77.10 Adaptive Fehlerkontrolle
1115
Dies entspricht einem nicht linearen Minimierungsproblem, da U von Th abh¨ angt. Ist (77.18) eine vern¨ unftige und pr¨ azise Fehlerabsch¨atzung, dann wird eine L¨ osung dieser Optimierungsaufgabe unsere vordringliche Bedingung erf¨ ullen. Wir k¨ onnen nicht erwarten, diese Minimierungsaufgabe analytisch l¨osen zu k¨ onnen. Stattdessen m¨ ussen wir einen iterativen Prozess benutzen, bei dem wir mit einem groben Anfangsgitter beginnen und dann nach und nach das Gitter ver¨ andern und dabei versuchen, das Endkriterium (77.20) mit einer minimalen Anzahl von Elementen zu erf¨ ullen. Genauer gesagt, so f¨ uhren wir den folgenden adaptiven Algorithmus durch: (0)
1. Wahl einer anf¨ anglichen Triangulierung Th . (j)
2. F¨ ur die j. Triangulierung Th mit Gitterfunktion h(j) berechnen wir die zugeh¨ orige finite Elemente N¨ aherung U (j) . 3. Berechnung des zugeh¨ origen Residuums R1 (U (j) ) und R2 (U (j) ) zu¨ sammen mit der Uberpr¨ ufung, ob (77.20) erf¨ ullt ist. Falls ja, sind wir am Ziel. (j+1)
mit der Gitterfunktion h(j+1) 4. Wahl einer neuen Triangulierung Th mit einer minimalen Anzahl von Knoten, so dass Ci h(j+1) R(U (j) ) ≤ T OL und Fortsetzung bei Punkt 2. Der Erfolg dieser Iteration h¨ angt von der Strategie bei der Gitterver¨anderung in Schritt 4 ab. Eine nat¨ urliche Strategie zur Fehlerkontrolle, die auf der L2 -Norm basiert, verwendet das Gleichverteilungsprinzip des Fehlers, bei dem wir versuchen, den Beitrag von jedem Element zum Integral, mit dem die L2 -Norm definiert ist, u ¨ berall gleich zu halten. Die Idee dabei ist, dass die Verfeinerung eines Elements mit einem großen Fehlerbeitrag einen großen Gewinn im Sinne einer Fehlerreduktion durch jedes neue Element liefert. Anders formuliert, so erf¨ ullt die N¨ aherung auf dem optimalen Gitter Th im Hinblick auf den Rechenaufwand: ∇e2L2 (K) ≈
TOL2 M
f¨ ur alle K ∈ Th ,
wobei M der Anzahl der Elemente in Th entspricht. Aufbauend auf (77.18) sind wir daher an einer Triangulierung in Schritt 4 interessiert, f¨ ur die , ,2 TOL2 Ci2 ,h(j+1) R U (j+1) ,L2 (K) ≈ (j+1) M
f¨ ur alle K ∈ Th(j+1) (j+1)
(77.21)
gilt, wobei M (j+1) die Anzahl der Elemente in Th wiedergibt. Die Gleichung (77.21) ist jedoch eine nicht lineare Gleichung, da wir M (j+1) und
1116
77. FEM f¨ ur Randwertprobleme in R2 und R3
U (j+1) nicht kennen, bevor wir die Triangulierung gew¨ahlt haben. Daher ersetzen wir (77.21) durch , ,2 TOL2 f¨ ur alle K ∈ Th (j+1) (77.22) Ci2 ,h(j+1) R U (j) ,L2 (K) ≈ M (j) und nutzen stattdessen diese Formel zur Berechnung einer neuen Gitterweite h(j+1) . Es gibt mehrere offene Fragen zu dem hier vorgestellten Schema: Welche Effizienz verlieren wir durch den Ersatz von (77.19) durch (77.20)? Konvergiert der iterative Prozess mit den Schritten 1-4? Ist die N¨aherung (77.22) gerechtfertigt? Wir greifen diese Fragen in den weiterf¨ uhrenden Begleitwerken auf.
77.11 Ein Beispiel Wir wollen die L¨ osung u(x) =
a exp −a(x21 + x22 ) , π
a = 400,
der Poisson-Gleichung −∆u = f auf dem Quadrat (−0, 5; 0, 5)×(−0, 5; 0, 5) berechnen, wobei f (x) die folgende gen¨ aherte Deltafunktion“ ist: ” 4 f (x) = a2 1 − ax21 − ax22 exp −a(x21 + x22 ) . π Wir haben f in Abb. 77.9 zusammen mit dem Anfangsgitter mit 224 Elementen dargestellt. (Achten Sie auf den vertikalen Maßstab!) Der adaptive Algorithmus ben¨ otigt 5 Iterationen, um einen gesch¨atzten relativen Fehler von 0, 5% zu erhalten. Wir haben das resultierende Gitter zusammen mit der zugeh¨ origen finite Elemente N¨ aherung in (77.10) veranschaulicht. Der Algorithmus erzeugt Gitter mit jeweils 224, 256, 336, 564, 992 und 3000 Elementen.
Abb. 77.9. Die gen¨ aherte Deltafunktion f und das Anfangsgitter, das bei der finiten Elemente N¨ aherung benutzt wurde
77.12 Nicht homogene Dirichlet-Randbedingungen
1117
Abb. 77.10. Die finite Elemente N¨ aherung mit einem relativen Fehler von 0, 5% und das resultierende Gitter, das bei der finiten Elemente N¨ aherung benutzt wurde. Die N¨ aherung besitzt eine maximale H¨ ohe von etwa 5
77.12 Nicht homogene Dirichlet-Randbedingungen Nun wollen wir die Poisson-Gleichung mit nicht homogenen Dirichlet-Randbedingungen betrachten: −∆u = f in Ω, (77.23) u=g auf Γ, wobei g vorgegeben Daten auf der Begrenzung sind. Wir berechnen eine finite Elemente N¨ aherung auf einer Triangulierung ucksichtigen. Wir Th , wobei wir nun die Knoten auf der Begrenzung mit ber¨ bezeichnen die inneren Knoten wie oben mit Nh und die Menge an Knoten auf der Grenze mit Nb . Wir berechnen eine N¨aherung U der Form ξj ϕj + ξj ϕj , (77.24) U= Nj ∈Nb
Nj ∈Nh
wobei ϕj die zu den Knoten Nj geh¨ orenden Basisfunktionen bezeichnet und u ¨ ber alle Knoten nummeriert wird. Wegen der Randbedingungen gilt ξj = g(Nj ) f¨ ur Nj ∈ Nb . Daher werden die Grenzwerte von U durch g auf Γ gegeben und nur die Koeffizienten zu U f¨ ur innere Knoten m¨ ussen noch bestimmt werden. An dieser Stelle setzen wir (77.24) in die Variationsformel (77.23) ein, wobei die Testfunktionen allen m¨oglichen Basisfunktionen der inneren Knoten entsprechen, wodurch wir das folgende quadratische lineare Gleichungssystem f¨ ur die unbekannten Koeffizienten von U erhalten: ξj (∇ϕj , ∇ϕi ) = (f, ϕi ) − g(Nj )(∇ϕj , ∇ϕi ), Ni ∈ Nh . Nj ∈Nh
Nj ∈Nb
Dabei haben wir die Ausdr¨ ucke mit den bekannten Randwerten von U auf die rechte Seite als Eingabedaten verschoben.
1118
77. FEM f¨ ur Randwertprobleme in R2 und R3
77.13 Eine L-f¨ormige Membran Wir geben ein Beispiel f¨ ur ein Problem mit einer Singularit¨at auf der Begrenzung, mit dem wir die Leistung des adaptiven Algorithmuses aufzeigen. Die Ableitungen der exakten L¨ osung sind dabei in einer Ecke der Begrenzung unendlich. Wir betrachten die Laplace-Gleichung f¨ ur ein L-f¨ormiges Gebiet mit einer konvexen Ecke im Ursprung mit homogenen DirichletRandbedingungen in den Kanten, die sich im Ursprung treffen, und nicht homogene Randbedingungen auf den anderen Kanten, vgl. Abb. 77.11. Wir w¨ ahlen die Randbedingungen so, dass die exakte L¨osung in Polarkoordinaten (r, θ) mit Zentrum im Ursprung u(r, θ) = r2/3 sin(2θ/3) lautet, die eine typische Singularit¨ at f¨ ur ein Eckenproblem besitzt: ∂u 2 (r, θ) = r−1/3 sin(2θ/3). ∂r 3 Die Ableitung geht gegen Unendlich, wenn r gegen 0 strebt (außer f¨ ur θ = 0 oder θ = 3π ). Wir setzen die Kenntnis der exakten L¨ o sung ein, um 2 die Leistung des adaptiven Algorithmuses zu beurteilen. Wir f¨ uhren die Berechnung mit einem adaptiven FEM-L¨oser mit Fehlerkontrolle in der Energienorm, die auf (77.18) basiert, durch, um so eine Fehlertoleranz von TOL = 0, 005 zu erreichen, wobei wir die h-Verfeinerung zur Gitterver¨ anderung benutzen. In Abb. 77.11 haben wir das Anfangsgit(0) ter Th mit 112 Knoten und 182 Elementen dargestellt. In Abb. 77.12 zeigen wir die H¨ ohenlinien der L¨ osung und das abschließende Gitter mit 295 Knoten und 538 Elementen, mit dem wir die gew¨ unschte Fehlertoleranz erreichen. Die Interpolationskonstante wurde dabei auf Ci = 1/8 gesetzt. Der Quotient zwischen dem gesch¨ atzten und dem tats¨achlichen Fehler auf dem abschließenden Gitter betr¨ agt 1, 5. Da in diesem Beispiel die exakte L¨ osung bekannt ist, k¨onnen wir auch die a priori Fehlerabsch¨ atzung benutzen, um ein Gitter zu bestimmen, das die gew¨ unschte Genauigkeit liefert. Dazu kombinieren wir die a priori Fehlerabsch¨ atzung (77.16) und das Fehlergleichverteilungsprinzip um h(r) zu bestimmen, so dass Ci hD2 u = TOL, wobei wir h so groß wie m¨oglich halten (und somit die Zahl der Elemente so klein wie m¨oglich). Da D2 u(r) ≈ r−4/3 ,
(0,0) u=0
Abb. 77.11. Das L-f¨ ormige Gebiet und das Anfangsgitter
77.14 Robin- und Neumann-Randbedingungen
1119
Abb. 77.12. H¨ ohenlinien der L¨ osung und das abschließende adaptive Gitter auf dem L-f¨ ormigen Gebiet
so lange wie h ≤ r, d.h. bis zu den Elementen, die die innere Ecke ber¨ uhren, bestimmen wir: −4/3 2 2 TOL2 oder h2 = TOL M −1/2 r4/3 , h ≈ hr M ur die Elementfl¨ache wobei M die Anzahl der Elemente und h2 ein Maß f¨ ist. Um M aus dieser Beziehung zu berechnen, halten wir fest, dass M ≈ −2 dx, da die Anzahl der Elemente pro Einheitsfl¨ache sich wie O(h−2 ) Ωh verh¨ alt, woraus wir r−4/3 dx M ≈ M 1/2 TOL−1 Ω
¨ erhalten. Da das Integral konvergent ist (Uberpr¨ ufen Sie dies!), ergibt sich −2 M ∝ TOL , woraus folgt, dass h(r) ∝ r1/3 TOL. Beachten Sie, dass die Gesamtzahl an Unbekannten bis auf eine Konstante mit der Zahl, die wir f¨ ur eine glatte L¨ osung ohne Singularit¨ at ben¨ otigen, gleich ist, n¨amlich gleich TOL−2 . Dies h¨angt mit der sehr lokalisierten Singularit¨at im vorliegenden Beispiel zusammen. Im Allgemeinen ben¨ otigen L¨osungen mit Singularit¨aten eine viel gr¨ oßere Zahl von Elementen als glatte L¨osungen.
77.14 Robin- und Neumann-Randbedingungen Als N¨ achstes betrachten wir die Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen auf dem Grenzst¨ uck Γ1 und nicht homogene RobinBedingungen auf dem verbleibenden Grenzst¨ uck Γ2 : ⎧ ⎪ in Ω, ⎨−∆u = f (77.25) u=0 auf Γ1 , ⎪ ⎩ ∂n u + κu = g auf Γ2 , wobei κ ≥ 0 ein vorgegebener Koeffizient ist und f und g sind vorgegebene Daten. Wenn wir κ = 0 sezten, erhalten wir die Neumann-Bedingung
1120
77. FEM f¨ ur Randwertprobleme in R2 und R3
∂n u = g. Um zu einer Variationsformulierung zu gelangen, multiplizieren wir die Poisson-Gleichung mit einer Testfunktion v, die die homogene Dirichlet-Randbedingung l¨ ost, integrieren u ¨ber Ω und benutzen die Greensche Formel, um Ableitungen von u auf v zu verschieben: ∆u v dx = ∇u · ∇v dx − ∂n uv ds (f, v) = − Ω Ω Γ = ∇u · ∇v dx + κuv ds − gv ds. Ω
Γ2
Γ2
Dabei benutzen wir die Randbedingungen, um das Randintegral neu zu schreiben. Dies f¨ uhrt uns zu der folgenden cG(1)-FEM auf einem Raum Vh von stetigen st¨ uckweise linearen Funktionen, die auf Γ1 verschwinden: Gesucht ist U ∈ Vh , so dass κU v ds = (f, v) + gv ds f¨ ur alle v ∈ Vh . (77.26) (∇U, ∇v) + Γ2
Γ2
Wir erinnern daran, dass Randbedingungen, die wie die Dirichlet-Bedingung explizit durch die Wahl des Raumes Vh erzwungen werden, essentielle Randbedingungen genannt werden. Randbedingungen wie die Robin-Bedingung, die implizit in der schwachen Formulierung enthalten sind, werden als nat¨ urliche Randbedingungen bezeichnet. (Als Eselsbr¨ ucke: explizit, erzwungen und essentiell beginnen mit einem e“.) ” Beachten Sie, dass die zu (77.26) geh¨ orende Steifigkeitsmatrix und der Lastvektor Beitr¨ age von Integralen sowohl u ¨ ber Ω als auch u ¨ber Γ2 enthalten, die mit den Basisfunktionen f¨ ur die Knoten auf der Grenze Γ2 zusammenh¨ angen. Zur Veranschaulichung berechnen wir die L¨osung der Laplace-Gleichung mit einer Kombination von Dirichlet-, Neumann- und Robin-Randbedingungen mit einem adaptiven FEM-L¨ oser auf dem in Abb. 77.13 dargestellten Gebiet. Wir haben die Randbedingung in der Abbildung wiedergegeben. Durch das Problem wird beispielsweise station¨arer W¨armefluss in der Ebene um ein heißes Rohr modelliert. Wir haben das benutzte Gitter f¨ ur eine N¨ aherung, deren Fehler in der L2 -Norm kleiner als 0, 0013 u =-u n
u =0 n
u =0 n
- u=0 u=1 u=0
Abb. 77.13. Gebiet und verwendete Randbedingungen
77.15 Das station¨ are Problem f¨ ur Konvektion, Diffusion und Reaktion
1121
Abb. 77.14. Das adaptive Gitter und die H¨ ohenlinien f¨ ur die adaptive L¨ osung des Problems in Abb. 77.13 mit einer Fehlertoleranz von 0, 0013
ist, zusammen mit einer H¨ ohenlinienzeichnung in Abb. 77.14 dargestellt. Wir beobachten, dass die H¨ ohenlinien zu der Grenzlinie mit homogener Dirichlet-Bedingung parallel verlaufen und orthogonal zu einer Grenze mit homogener Neumann-Bedingung.
77.15 Das station¨are Problem fu ¨ r Konvektion, Diffusion und Reaktion Wir wollen nun die Erweiterung eines Problems f¨ ur Konvektion, Diffusion und Reaktion in der Form −∇ · (a∇u) + ∇ · (ub) + cu = f a∂n u + κu = g
in Ω, auf Γ,
(77.27)
mit Robin-Randbedingungen betrachten, wobei f und g vorgegebene Daten sind, a > 0, b, c und κ ≥ 0 sind gegebene Koeffizienten und Ω ist ein vorgegebenes Gebiet in R2 mit Begrenzung Γ. Der Ausdruck cu modelliert Absorption f¨ ur c ≥ 0 und Produktion f¨ ur c < 0. uckweise linearen Funktionen auf einer Sei Vh der Raum der stetigen st¨ Triangulierung von Ω ohne Beschr¨ ankung der Knotenwerte auf der Begrenzung. Die cG(1)-FEM f¨ ur (77.27) nimmt die folgende Form an: Gesucht ist U ∈ Vh , so dass a∇U · ∇v dx + ∇ · (U b)v dx + cU v dx + κU v ds Ω Ω Ω Γ f v dx + gv ds, (77.28) = Ω
Γ
f¨ ur alle v ∈ Vh . Beachten Sie, dass die Einbeziehung der neuen Ausdr¨ ucke ∇ · (U b) und cu ganz nat¨ urlich erfolgt und dass die entsprechenden Ausdr¨ ucke in der Variationsformulierung durch Multiplikation mit der Testfunktion v ohne partielle Integration erhalten werden. F¨ ur den Ausdruck
1122
77. FEM f¨ ur Randwertprobleme in R2 und R3
−∇ · (a∇u) erkennen wir, dass Multiplikation mit v(x) und Integration u ¨ ber Ω mit Hilfe des Divergenzsatzes − ∇ · (a∇u)v dx = a∇U · ∇v dx − a∂n u v ds Ω
Ω
Γ
ergibt. Die Variationsformulierung erh¨ alt man durch Ersetzen von −a∂n uds durch ku − g mit Hilfe der Robin-Randbedingung. Die zu (77.28) zugeh¨ orige Matrixgleichung besitzt Bandstruktur mit einer d¨ unn besetzten Steifigkeitsmatrix. Die Symmetrie ist jedoch verloren gegangen, wenn b = 0, was sofort aus der Gegenwart des unsymmetrischen Ausdrucks Ω ∇ · (ub)v dx deutlich wird. Die Asymmetrie des Konvektionsausdrucks verhindert die beste N¨ aherungseigenschaft der FEM, sie kann jedoch trotzdem gute Ergebnisse liefern. Ist c < 0, dann k¨onnen L¨ osungen nicht eindeutig sein, was damit zusammenh¨angt, dass es von Null verschiedene L¨ osungen (Eigenfunktionen) des homogenen Problems −∇ · (a∇u) + ∇ · (ub) + cu = 0 geben kann.
Der Fall mit dominanter Konvektion Ist |b| > ha f¨ ur die Gitterweite h(x), so liegt eine dominante Konvektion ¨ vor. Die exakte L¨ osung ist nicht glatt und zeigt schnelle Anderungen und die FEM L¨ osung kann falsche Oszillationen ergeben. F¨ ur den Fall muss die cG(1)-Methode (77.28) durch Ver¨ anderung der Testfunktion von v zu v+δ∇·(vb) in allen Ausdr¨ ucken, außer bei der Diffusion und auf der Begrenh als Parameter wirkt. Die Ver¨andezung, angepasst werden, wobei δ = 2|b| rung δ∇·(vb) f¨ u hrt nach Wahl von v = U zu einem positiven quadratischen Ausdruck Ω δ(∇ · (U b))2 dx, der die Stabilit¨at erh¨oht und (nahezu) die falschen Oszillationen zum Verschwinden bringt. Die Tatsache, dass diese Ver¨ anderung nicht f¨ ur den Diffusionsausdruck gemacht wird, verschlechtert die Genauigkeit nicht, da im Fall mit dominanter Konvektion der Diffusionskoeffizient klein ist. Die ver¨ anderte Methode wird auch Str¨omungslinienDiffusions-Methode oder gewichtete Stabilisierung mit kleinsten Fehlerquadraten genannt.
77.16 Das zeitabha¨ngige Problem fu ¨ r Konvektion, Diffusion und Reaktion Als N¨ achstes betrachten wir das zeitabh¨ angige Analogon zu (77.27), d.h. das Problem u˙ − ∇ · (a∇u) + ∇ · (ub) + cu = f a∂n u + κu = g u(·) = u0
in Ω × (0, T ], auf Γ × (0, T ], in Ω,
(77.29)
77.17 Die Wellengleichung
1123
wobei [0, T ] ein gegebenes Zeitintervall ist und u0 ein vorgegebener Anfangswert. F¨ ur die Zeitdiskretisierung k¨ onnen wir beispielsweise dG(0) oder cG(1) f¨ ur eine Unterteilung 0 = t0 < t1 < · · · < tN = T mit Zeitintervallen In = (tn−1 , tn ] und Zeitschritten kn = tn − tn−1 benutzen. Wenn wir dG(0) verwenden, dann suchen wir U n ∈ Vh f¨ ur n = 1, . . . , N , so dass f¨ ur n = 1, . . . , N gilt: U n v dx + a∇U n · ∇v dx dt Ω
Ω×In
∇ · (U n b)v dx dt +
+ Ω×In
Ω×In
U n−1 v dx +
= Ω
cU n v dx dt +
f v dx dt + Ω×In
κU n v ds dt (77.30) Γ×In
gv ds dt, Γ×In
f¨ ur alle v ∈ Vh mit U 0 = u0 . Das zugeh¨ orige diskrete System f¨ ur U n lautet wie folgt: M ξ n + kn An ξ n = M ξ n−1 + kn bn , wobei der Vektor ξ n die Knotenwerte von U n ∈ Vh enth¨alt, M ist die zu Vh geh¨ orige Massenmatrix, An die Steifigkeitsmatrix, in die die Ausdr¨ ucke f¨ ur die Konvektion, Diffusion und Reaktion eingehen, und bn ist der zugeh¨orige Lastvektor. Im von Konvektion dominierten Fall werden die Testfunktionen v wiederum in allen Ausdr¨ ucken mit Integration u ¨ ber Ω × In zu v + δ∇ · (vb) ver¨ andert, außer im Diffusionsausdruck.
77.17 Die Wellengleichung Wir untersuchen nun die Erweiterung auf die Wellengleichung mit homogenen Dirichlet-Randbedingungen: u¨ − ∆u = f
in Ω × (0, T ],
u = 0 auf Γ × (0, T ], u = u0 ,
u˙ = u˙ 0
(77.31)
in Ω,
wobei u0 und u˙ 0 gegebene Anfangsbedingungen sind. Wie oben ist Vh die Menge der st¨ uckweise linearen Funktionen auf einer Triangulierung von Ω, die die homogenen Dirichlet-Randbedingungen erf¨ ullen. Ferner ist 0 = t0 < t1 < · · · < tN = T eine Unterteilung von [0, T ] in Zeitintervalle In = (tn−1 , tn ] mit den Zeitschritten kn = tn − tn−1 . Wir benutzen die cG(1)-Methode in Raum und Zeit und suchen eine diskrete L¨osung U im
1124
77. FEM f¨ ur Randwertprobleme in R2 und R3
Funktionenraum Wh , der durch die Funktionen v(x, t) =
N M
ηjn ϕj (x)ψn (t)
n=0 j=1
aufgespannt wird, wobei {ϕj (x)}M ur Vh bildet und {ψn (t)}N n=0 j=1 eine Basis f¨ eine Basis f¨ ur den Raum der stetigen st¨ uckweise linearen Funktionen auf der Unterteilung 0 = t0 < t1 < · · · < tN = T . Das zugeh¨orige diskrete System nimmt die folgende explizite Form an, wenn wir sowohl im Raum als auch in der Zeit die knotige“ Massenmatrix benutzen und der Zeitschritt kn = k ” konstant ist: ξ n+1 = 2ξ n − ξ n−1 + k 2 Aξ n
f¨ ur n = 1, . . . , N − 1,
f¨ ur geeignete Startwerte ξ 0 und ξ 1 , die aus den Anfangsbedingungen berechnet werden. A ist die entsprechende Steifigkeitsmatrix zum LaplaceOperator.
77.18 Beispiele Wir stellen einige Beispiele f¨ ur Systeme von nicht linearen Gleichungen f¨ ur Probleme mit Diffusion, Konvektion und Reaktion (77.27) vor, die in der Physik, der Chemie und der Biologie auftreten: u˙ i − ∇ · (ai ∇ui ) + ∇ · (ui bi ) + ci ui = fi (u1 , . . . , ud ) in Ω × I, i = 1, . . . , d, (77.32) mit fi : Rd → R und vorgegebenen Koeffizienten ai > 0, bi und ci . Diese Systeme k¨ onnen numerisch durch eine direkte Erweiterung der oben vorgestellten cG(1)-Methode in Raum und Zeit gel¨ost werden. In allen Beispielen ist a eine positive Konstante. Beispiel 77.1. Die bistabile Gleichung f¨ ur den Ferromagnetismus: u˙ − a∆u = u − u3 . Beispiel 77.2. Superleitf¨ahigkeit von Fl¨ ussigkeiten: u˙ 1 − a∆u1 = (1 − |u|2 )u1 , u˙ 2 − a∆u2 = (1 − |u|2 )u2 . Beispiel 77.3. Flammenausbreitung: u˙ 1 − a∆u1 = −u1 e−α1 /u2 , u˙ 2 − a∆u2 = α2 u1 e−α1 /u2 , mit Konstanten α1 , α2 > 0.
Aufgaben zu Kapitel 77
1125
Beispiel 77.4. Wechselwirkung zweier Arten: u˙ 1 − a∆u1 = u1 M (u1 , u2 ), u˙ 2 − a∆u2 = u2 N (u1 , u2 ), ur unterwobei M (u1 , u2 ) und N (u1 , u2 ) vorgegebene Funktionen sind f¨ schiedliche Situationen: (i) R¨ auber-Beute (Mu2 < 0, Nu1 > 0), (ii) konkurrierende Arten (Mu2 < 0, Nu1 < 0) und (iii) Symbiose (Mu2 > 0, Nu1 > 0). Beispiel 77.5. Morphogenese von Mustern (Zebra): u˙ 1 − a∆u1 = −u1 u22 + α1 (1 − u1 ), u˙ 2 − a∆u2 = u1 u22 − (α1 + α2 )u2 . Beispiel 77.6. Belousov-Zhabotinski Reaktion der chemischen Kinetik: u˙ 1 − a∆u1 = α1 (u2 − u1 u2 + u1 − α2 u22 ), u˙ 2 − a∆u2 = α−1 1 (α3 u3 − u2 − u1 u2 ), u˙ 3 − a∆u3 = α4 (u1 − u3 ), mit α ≈ 102 , α2 ≈ 10−2 , α3 ≈ 1 und α4 ≈ 10−1 .
Aufgaben zu Kapitel 77 77.1. Berechnen Sie die Koeffizienten der Massenmatrix M f¨ ur die StandardTriangulierung eines Quadrats mit Gitterweite h. Hinweis: Man kann die Quadratur benutzen, die auf den Mittelpunkten der Kanten eines Dreiecks aufsetzt, da diese f¨ ur quadratische Funktionen exakt ist. Die Diagonalausdr¨ ucke lauten h2 /2 2 und die außer-Diagonalausdr¨ ucke sind alle gleich h /12. Die Elementensumme in einer Zeile ist gleich h2 . 77.2. Berechnen Sie die Steifigkeitsmatrix f¨ ur cG(1) f¨ ur das Problem −∆u = 1 in Ω = (0, 1) × (0, 1) mit u = 0 auf der Seite mit x2 = 0 und ∂n u + u = 1 auf den anderen drei Seiten von Ω mit der Standard-Triangulierung. Beachten Sie die Beitr¨ age zur Steifigkeitsmatrix durch die Knoten auf der Begrenzung. 77.3. Beschreiben Sie das Besetzungsmuster der Steifigkeitsmatrizen A f¨ ur die Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen auf dem Einheitsquadrat, das sich aus der stetigen st¨ uckweise linearen finite Elemente Methode auf der Standard-Triangulierung f¨ ur die drei Nummerierungsschemata in Abb. 77.15 ergibt. 77.4. Berechnen Sie den Lastvektor f¨ ur f (x) = x1 + x22 auf der StandardTriangulierung des Einheitsquadrats mit Hilfe exakter Integration und der Quadratur mit knotiger Masse (Trapez-Regel).
1126
77. FEM f¨ ur Randwertprobleme in R2 und R3
Abb. 77.15. Drei Knotennummerierungen f¨ ur die Standard-Triangulierung des Einheitsquadrats
77.5. Schreiben Sie ein Programm zur L¨ osung von Aξ = b nach dem Jacobi- und dem Gauss-Seidel-Verfahren, wobei Sie die d¨ unne Besetzung von A in punkto Speicherung und Rechenoperationen ausnutzen. Vergleichen Sie die Konvergenzgeschwindigkeit der beiden Methoden mit Hilfe des Ergebnisses eines direkten L¨ osers als Referenz. 77.6. Schreiben Sie ein Programm zur L¨ osung von Aξ = b f¨ ur eine Bandmatrix A. 77.7. Berechnen Sie die Steifigkeitsmatrix f¨ ur die Poisson-Gleichung mit homogenen Dirichlet-Randbedingungen f¨ ur (a) die Union Jack Triangulierung eines Quadrats wie in Abb. 77.16 und (b) die Triangulierung des dreieckigen Gebiets in Abb. 77.16. (1,1)
(0,(m+1)h)
(0,mh)
N(m -1)m
(0,2h)
Nm+1
(0,h)
N2m N2
Nm -1
N1 (0,0)
(h,0)
(2h,0)
((m-1)h,0)
(mh,0)
((m+1)h,0)
Abb. 77.16. Die Union Jack Triangulierung des Einheitsquadrats und eine gleichf¨ ormige Triangulierung eines rechtwinkligen Dreiecks
77.8. Berechnen Sie die diskreten Gleichungen f¨ ur die finite Elemente N¨ aherung f¨ ur −∆u = 1 auf Ω = (0, 1) × (0, 1) mit Randbedingungen u = 0 f¨ ur x1 = 0, ur x2 = 0, u = 1 f¨ ur x1 = 1 und u = x1 f¨ ur x2 = 1 mit Hilfe der u = x1 f¨ Standard-Triangulierung, vgl. Abb. 77.2. 77.9. (a) Zeigen Sie, dass die Element-Steifigkeitsmatrix (77.12) f¨ ur die linearen Polynome auf einem Dreieck K mit den Knoten (0, 0), (h, 0), und (0, h), die mit
Aufgaben zu Kapitel 77 1, 2 und 3 nummeriert werden, lautet: ⎛ 1 −1/2 ⎝−1/2 1/2 −1/2 0
1127
⎞ −1/2 0 ⎠. 1/2
(b) Benutzen Sie das Ergebnis, um die Formel f¨ ur die Steifigkeitsmatrix A f¨ ur die stetige st¨ uckweise lineare finite Elemente Methode f¨ ur die Poisson-Gleichung mit homogenen Randbedingungen auf dem Einheitsquadrat mit Standard-Triangulierung zu beweisen. (c) Berechnen Sie die Element-Steifigkeitsmatrix f¨ ur ein Dreieck K mit den Knoten {ai }. 77.10. Berechnen Sie den asymptotischen Berechnungsaufwand f¨ ur die direkte L¨ osung des Systems Aξ = b f¨ ur die drei in Aufgabe 77.3 berechneten Matrizen A. 77.11. Wenden Sie die finite Elemente Methode mit st¨ uckweise linearer N¨ aherung f¨ ur die Poisson-Gleichung in drei Dimensionen f¨ ur verschiedene Randbedingungen an. Berechnen Sie die Steifigkeitsmatrix und den Lastvektor f¨ ur einige einfache F¨ alle. 77.12. Leiten Sie die a priori Fehlerabsch¨ atzung in der Energienorm f¨ ur die cG(1)-FEM f¨ ur die Poisson-Gleichung mit Robin-Randbedingungen her. Verallgemeinern Sie dies f¨ ur Probleme der Form −∇ · (a∇u) + cu = f , f¨ ur a(x) > 0 und c ≥ 0. 77.13. Leiten Sie die a posteriori Fehlerabsch¨ atzung in der Energienorm f¨ ur die cG(1)-FEM f¨ ur die Poisson-Gleichung mit Robin-Randbedingungen her. Verallgemeinern Sie dies f¨ ur Probleme der Form −∇ · (a∇u) + cu = f , f¨ ur a(x) > 0 und c ≥ 0. 77.14. Implementieren Sie die adaptive Fehlerkontrolle mit einer a posteriori Fehlerabsch¨ atzung in der Energienorm f¨ ur cG(1) f¨ ur die Poisson-Gleichung. 77.15. Finden Sie eine exakte L¨ osung f¨ ur die L-f¨ ormige Membran, wenn Sie die Dirichlet-Bedingung durch eine Neumann-Bedingung auf einer der Seiten, die Ecke treffen, ersetzen. Welche Art von Singularit¨ at liegt vor? sich in der 3π 2 2 77.16. Sei ω(x) eine positive Gewichtsfunktion, die auf dem Gebiet Ω2 ⊂ R definiert ist. Nehmen Sie an, dass die Gitterfunktion h(x) das Integral Ω h (x)ω(x)dx unter der Nebenbedingung Ω h−2 (x) dx = N minimiert, wobei N eine gegebene positive ganze Zahl ist. Beweisen Sie, dass h4 (x)ω(x) konstant sein muss. Interpretieren Sie das Ergebnis als Gleichverteilung im Zusammenhang mit der Fehlerkontrolle. Hinweis: Behaupten Sie, dass h4 (x)ω(x) dem Gewinn entspricht, wenn wir einen Knoten hinzuf¨ ugen.
78 Inverse Probleme
Ich rate nie. Es ist ein schwerer Fehler zu theoretisieren, bevor man Daten hat. Unmerklich beginnt man, die Tatsachen an die Theorien anzupassen, anstatt die Theorien an die Tatsachen. Wenn man das Unm¨ ogliche ausgeschlossen hat, muss das, was u ¨ brig bleibt, so unwahrscheinlich es auch sei, die Wahrheit sein. (Sherlock Holmes in The sign of Four“, 1888) ”
78.1 Einleitung Wir haben oben bei unserer Untersuchung der Poisson-Gleichung nach ” vorne gerichtete“ Probleme der folgenden Form betrachtet: F¨ ur eine gegebene Funktion f : Ω → R wird eine Funktion u : Ω → R gesucht, so dass −∆u = f ∂n u + κu = 0
in Ω, auf Γ,
(78.1)
wobei κ ≥ 0 eine gegebene Konstante ist. Ein entsprechendes inverses“ ” Problem w¨ are, die Kenntnis von u(x) anzunehmen und die zugeh¨orige Funktion f (x) zu suchen, so dass (78.1) erf¨ ullt ist! Wenn wir u(x) auf dem Gesamtgebiet Ω kennen, stellt sich die Frage nach der Ableitung: Wir berechnen einfach ∆u(x) aus u(x). Damit erhalten wir −∆u = f ! Wir haben diese Fragestellung bereits im Kapitel Die Ableitung“ untersucht und wir ” erinnern daran, dass dieses Problem etwas knifflig werden kann, wenn wir
1130
78. Inverse Probleme
die Schrittl¨ ange h bei einer N¨ aherung von ∆ durch Differenzenquotienten auf die Genauigkeit der vorgegebenen Daten u(x) anpassen m¨ ussen. Nun wollen wir annehmen, dass wir u(x) nur auf der Begrenzung Γ kennen. K¨ onnen wir dann noch f (x) auf Ω bestimmen? Diese Art von Fragestellung tritt bei einer F¨ ulle wichtiger Anwendungen der folgenden Form auf: Angenommen, wir k¨ onnen etwas auf der Begrenzung eines K¨orpers messen. K¨ onnen wir dann eine Aussage dazu machen, welche Verh¨altnisse innerhalb des K¨ orpers herrschen? Betrachten wir beispielsweise den menschlichen K¨ orper und die Messung einer Eigenschaft auf der Haut (oder außerhalb). K¨ onnen wir dann Informationen dazu bekommen, was im K¨orper vorgeht? Oder auch, wenn wir Daten f¨ ur die Erdoberfl¨ache ansammeln; k¨onnen wir dann etwas dar¨ uber sagen, wie es in der Erde aussieht, wie ¨ etwa wo ein Ollager zu finden ist? Dies sind Beispiele f¨ ur inverse Probleme. Es liegt in der Natur von inversen Problemen, dass sie schlecht gestellt“ ” sind, in dem Sinne, dass kleine Ver¨ anderungen der Daten bereits große Ver¨ anderungen in der L¨ osung bewirken. Ein wichtiges Beispiel f¨ ur ein gut gestelltes Problem ist die Integration im Zusammenhang mit der L¨osung einer Differentialgleichung. Das zugeh¨ orige inverse Problem ist die Ableitung, das schlecht gestellt ist, wie wir gerade bemerkt haben. Die L¨osung einer Differentialgleichung ist nicht immer mit einem gut gestellten Problem verbunden: Im Kapitel Lorenz und das Wesentliche am Chaos“ haben wir ” eine einfache Differentialgleichung getroffen, deren L¨osung hochgradig von anderungen in den Ausgangsdaten abh¨ angt. Ver¨ Beispiel 78.1. Ein Elektrokardiogramm EKG liefert eine Kurve, die die elektrische Aktivit¨ at des Herzens an Hand von Messungen des elektrischen Potentials auf der Brust widerspiegelt. Die Kurve gibt dem Spezialisten Informationen zu anormalen Herzaktivit¨ aten wie etwa Herzrhythmusst¨orun¨ gen (Arrhythmie) an die Hand. Ahnlich liefert ein Elektroenzephalogramm (EEG) Informationen u ¨ber die elektrische Aktivit¨at des Gehirns durch Messungen des elektrischen Potentials auf der Kopfhaut. Diese Techniken sind jedoch f¨ ur viele Diagnosen zu ungenau und erst k¨ urzlich wurden elektrokardiographische Bildtechniken entwickelt, die auf der L¨ osung von inversen Problemen, die der Poisson-Gleichung ¨ahnlich sind, beruhen. Die geometrischen Daten eines jeden Patienten werden dabei aus der Computertomographie erhalten und ein Bild der elektrischen Aktivit¨at im Innern des K¨ orpers wird aus Messungen des elektrischen Potentials an der Grenzfl¨ ache (d.h. der Brust oder der Kopfhaut) durch L¨osung von inversen Problemen, die der Poisson-Gleichung ¨ ahnlich sind, errechnet (mit Hilfe der finiten Elemente Methode). Elektrokardiographische Bildtechniken k¨onnen beispielsweise genauere Informationen zu einer anormalen Herzt¨atigkeit oder Gehirnaktivit¨ at liefern als das EKG oder das EEG und die Methode wird allm¨ ahlich zum Bestandteil in fortgeschrittenen neurologischen und radiologischen Instituten. Weitere Entwicklungen, insbesondere auf der al-
78.2 Ein inverses Problem f¨ ur die ein-dimensionale Konvektion
1131
gorithmischen Seite (Adaptivit¨ at, geometrische Modellierung) sind n¨otig, um die Genauigkeit weiter zu erh¨ ohen. Beispiel 78.2. Ein weiteres f¨ ur die Menschheit wichtiges inverses Problem tritt in der inversen seismischen Sch¨ urftechnik auf: Auf der Oberfl¨ache der Erde werden Explosionen ausgel¨ ost und die Reflektionen der ausgel¨osten Wellen im Erdmantel werden auf der Erdoberfl¨ache gemessen. Aus dieser Information versucht man R¨ uckschl¨ usse auf unterirdische Strukturen zu ziehen wie beispielsweise auf o lhaltiges Gestein. Um diese Rekonstruktion ¨ aufzustellen, werden Berechnungsmethoden verwendet, die auf der L¨osung der Wellengleichung beruhen, wobei charakteristische Wellenausbreitungskoeffizienten f¨ ur verschiedene Materialien benutzt werden. Durch Optimierung versucht man, den lokalen Wellenausbreitungskoeffizienten an die gemessenen Daten, die an der Erdoberfl¨ ache gemessen werden, mit kleinsten quadratischen Abweichungen anzupassen, woraus dann Informationen u ¨ ber unbekannte unterirdische Schichten gewonnen werden.
78.2 Ein inverses Problem fu ¨ r die ein-dimensionale Konvektion Wir beginnen mit dem einfachsten Randwertproblem: u (x) = f (x), f¨ ur x ∈ (0, 1], u(0) = 0
(78.2)
modelliert die Konvektion, wobei u : [0, 1] → R f¨ ur eine Konzentration steht und f : [0, 1] → R ist ein Quellterm. Wir versuchen die Funktion f : [0, 1] → R durch Beobachtung eines Randwertes u(1) der zugeh¨origen L¨ osung u(x) von (78.2) zu bestimmen oder zu rekonstruieren. Nat¨ urlich k¨ onnen wir nicht davon ausgehen, dass wir f (x) f¨ ur alle x ∈ (0, 1) aus dieser Beobachtung allein bestimmen k¨ onnen. Das liegt daran, dass es viele Funktionen f (x) gibt, so dass die zugeh¨ orige Funktion u(x) die Gleichung (78.2) mit u(1) = 0 erf¨ ullt. Wir erkennen dies daran, dass wir eine von Null ur die u(0) = u(1) = 0 gilt, verschiedene Funktion u(x) auf [0, 1] w¨ahlen, f¨ und f (x) = u (x) definieren. Offensichtlich bleibt die Rekonstruktion bis auf derartige Funktionen unbestimmt. Die Unbestimmtheit der Rekonstruktion f (x) spiegelt wider, dass das inverse Problem schlecht gestellt ist; selbst wenn die Messung des Randwertes u(1) sehr genau ist, ist der zugeh¨ orige Quellterm f (x) nicht gut definiert. Daher ben¨ otigen wir einige zus¨atzliche Bedingungen, um einen (hoffentlich) eindeutigen Quellterm f (x) zu bestimmen. Es gibt daf¨ ur viele M¨oglichkeiten und wir erhalten abh¨ angig von den zus¨ atzlichen Bedingungen unterschiedliche Rekonstruktionen f (x). Wir wollen nun auf eine M¨oglichkeit hinweisen, bei der wir u unter der zus¨ atzlichen Bedingung w¨ahlen, dass
1132
78. Inverse Probleme
f (x) bez¨ uglich der kleinsten quadratischen Abweichung so klein wie m¨oglich ist, was einer u ¨ blichen Regularisierungstechnik entspricht. Wir formulieren dann das inverse Problem in das folgende Optimierungsproblem mit kleinster quadratischer Abweichung: Gesucht ist die Funktion f : [0, 1] → R, die die Gesamtkosten“ ” 1 f (x)2 dx J(f ) = (u(1) − u ¯(1))2 + µ 0
minimiert, wobei u(x) das Problem (78.2) l¨ ost, u ¯(1) ist der beobachtete Randwert in x = 1 und µ > 0 ist eine Konstante. Wir k¨onnen dies als ein Kontrollproblem betrachten, wobei das Ziel ist, die Kontrollfunktion f : [0, 1] → R zu finden, mit der die Gesamtkosten J(f ) minimiert werden, wobei der µ-Ausdruck ein Maß f¨ ur die Kosten der Kontrollfunktion f ist, und der erste Ausdruck beziffert die Kosten f¨ ur eine Abweichung in den Randwerten u(1) − u ¯(1). Wir k¨ onnen dieses Problem so formulieren, dass wir eine Funktion u(x) suchen, f¨ ur die u(0) = 0 gilt und die (u(1) − u¯(1))2 + µ
1
(u )2 dx
0
minimiert. Wenn wir uns an das Kapitel FEM f¨ ur Zwei-Punkte Randwert” probleme“ erinnern, erkennen wir, dass die L¨osung u(x) die Gleichungen u (x) = 0 in (0, 1), u(0) = 0 und u(1) − u¯(1) + µu (1) = 0 erf¨ ullt. Wir 1 u ¯(1)x, und dass daher der rekonstruierte folgern daraus, dass u(x) = 1+µ Quellterm f (x) = u (x) einen konstanten Wert annimmt, der lautet: f (x) =
1 u ¯(1) f¨ ur x ∈ [0, 1]. 1+µ
Offensichtlich sollten wir den Regularisierungsparameter µ klein w¨ahlen; je kleiner µ ist, desto genauer werden wir den beobachteten Randwert u ¯(1) anpassen. Da die rekonstruierte Funktion f (x) konstant ist, m¨ ussen wir praktisch nur eine Konstante bestimmen und wir k¨onnen davon ausgehen, diesen einzigen Wert aus der einzigen Beobachtung u ¯(1) zu erhalten. Wir k¨ onnen das Optimierungsproblem auch folgendermaßen umformulieren, indem wir den Integraloperator B einf¨ uhren, der f¨ ur Funktionen auf x [0, 1] durch Bf (x) = 0 f (y) dy f¨ ur x ∈ [0, 1] definiert ist: Gesucht ist die Funktion f : [0, 1] → R, die J(f ) = (Bf (1) − u¯(1))2 + µ
1
f (x)2 dx 0
d minimiert. Die Optimalit¨ atseigenschaft, die wir durch d J(f + g) = 0 f¨ ur = 0 erhalten, wobei g : [0, 1] → R eine beliebige Funktion ist, nimmt die
78.2 Ein inverses Problem f¨ ur die ein-dimensionale Konvektion
1133
folgende Form an:
1
(Bf (1) − u ¯(1))Bg(1) + µ
f (x)g(x) dx = 0
(78.3)
0
f¨ ur alle Funktionen g : [0, 1] → R. Nun wollen wir diese Bedingung umschreiben, indem wir den adjungierten Operator B einf¨ uhren, der folgendermaßen f¨ ur Funktionen w(x) definiert ist: F¨ ur ein vorgegebenes w = w(x) ist B w die Funktion auf [0, 1], f¨ ur die (B w) (x) = 0 f¨ ur x ∈ (0, 1) und ur B w(1) = w(1) gilt, d.h. B w ist die konstante Funktion auf [0, 1], die f¨ alle x den Wert w(1) annimmt. Wir k¨ onnen dann (78.3) wie folgt schreiben:
1
B (Bf − u ¯(1))(x)g(x) dx + µ
0
1
f (x)g(x) dx = 0
(78.4)
0
f¨ ur alle Funktionen g : [0, 1] → R, da nach partieller Integration gilt: 0
1
B (Bf − u ¯(1))(x) (Bg(x)) dx = (Bf (1) − u ¯(1))Bg(1), 0 12 3 =g(x)
wobei wie angedeutet gilt: (Bg(x)) = g(x) und B w(1) = w(1). Wir folgern, dass
1
(B Bf + µf )g dx =
0
1
Bu ¯(1)g dx
0
f¨ ur alle Funktionen g : [0, 1] → R. Daher gilt: B Bf + µf = B u¯(1) auf (0, 1)
(78.5)
oder mit dem Identit¨ atsoperator I: (B B + µI)f = B u ¯(1).
(78.6)
Wir folgern, dass f (x) auf [0, 1] konstant ist und den Wert f (x) =
1 u ¯(1) f¨ ur x ∈ [0, 1] 1+µ
annimmt, womit wir dasselbe Ergebnis erhalten wie oben. Bitte beachten Sie die Formulierung (78.6) f¨ ur die Optimalit¨atseigenschaft (78.3) mit dem Operator B B + µI. Wir werden unten auf dieselbe Gleichung mit ver¨ anderten L¨ osungsoperatoren B und Adjungierten B treffen.
1134
78. Inverse Probleme
78.3 Ein inverses Problem fu ¨ r die ein-dimensionale Diffusion Wir fahren mit dem Randwertproblem −u = f
in (0, 1),
u (0) = 0,
u (1) + u(1) = 0
(78.7)
fort, wobei wir den Quellterm f (x) in (0, 1) bestimmen wollen, indem wir die Randwerte u(0) und u(1) der zugeh¨ origen L¨osung u(x) von (78.7) beobachten. Wiederum ist es selbstverst¨ andlich, dass wir nicht hoffen k¨onnen, f (x) f¨ ur alle x ∈ (0, 1) aus diesen beiden Beobachtungen alleine zu bestimmen, da es viele Funktionen f (x) gibt, so dass die zugeh¨orige Funktion u(x) das System (78.7) l¨ ost und u(0) = u(1) = 0 gilt. Dazu m¨ ussen wir n¨ amlich nur eine von Null verschiedene Funktion u(x) auf [0, 1] w¨ahlen, f¨ ur die u(0) = u (0) = u(1) = u (1) = 0 gilt, und dann f (x) = −u (x) setzen. Wir versuchen wie oben, f (x) unter der zus¨atzlichen Bedingung, dass f (x) so klein wie m¨ oglich ist, zu rekonstruieren und wir formulieren das inverse Problem dazu neu als das folgende Optimierungsprobleme mit der kleinsten quadratischen Abweichung: Gesucht ist f (x) in (0, 1), so dass ¯(1)) + µ J(f ) = (u(0) − u ¯(0)) + (u(1) − u 2
2
1
f 2 (x) dx 0
so klein wie m¨ oglich ist, wobei µ > 0 eine positive Konstante ist, die als Regularisierung wirkt und u ¯(0) und u ¯(1) sind die Beobachtungswerte am Rand; nat¨ urlich l¨ ost u(x) das System (78.1). Wir suchen daher ein f (x), so dass im Sinne der kleinsten quadratischen Abweichung die Beobachtungswerte am Rand zusammen mit der Minimaleigenschaft von f (x) gleichzeitig so gut wie m¨ oglich erf¨ ullt sind. Um die Optimalit¨ atsgleichungen aufstellen zu k¨onnen, f¨ uhren wir den zu (78.7) zugeh¨ origen L¨ osungsoperator B ein, d.h. zu einer gegebenen Funktion f : [0, 1] → R definieren wir Bf (x) als die Funktion auf [0, 1], f¨ ur die gilt: 1
0
1
(Bf ) g dx + Bf (1)g(1) =
f g dx,
(78.8)
0
f¨ ur alle Funktionen g(x) auf [0, 1]. Dies folgt aus dem Kapitel FEM f¨ ur ” d Zwei-Punkte Randwertprobleme“. Wenn wir d J(f + g) = 0 f¨ ur = 0 setzen, erhalten wir die Optimalit¨ atseigenschaft in der Form: 1 (Bf (0) − u ¯(0), Bg(0)) + (Bf (1) − u¯(1), Bg(1)) + µ f (x)g(x) dx = 0, 0
(78.9) f¨ ur alle Funktionen g(x) auf [0, 1]. Als N¨ achstes definieren wir den adjungierten Operator B , wie folgt: Sind die Werte w(0) und w(1) gegeben, so
78.3 Ein inverses Problem f¨ ur die ein-dimensionale Diffusion
ist B w die Funktion auf [0, 1], f¨ ur die f¨ ur alle v(x) gilt: 1 (B w) v dx + B w(1)v(1) = w(0)v(0) + w(1)v(1).
1135
(78.10)
0
Wir erkennen, dass −(B w) (0) = w(0), B w(1) + (B w) (1) = w(1) und (B w) = 0. Anders formuliert, so ist B w eine lineare Funktion, die durch zwei Randbedingungen bestimmt wird. Insbesondere ist B w = w(1) eine Konstante, wenn w(0) = 0. Wenn wir nun in (78.10) v = Bg setzen, erhalten wir: 1 (B w) (Bg) dx + B w(1)Bg(1) w(0)Bg(0) + w(1)Bg(1) = 0
=
1
B wg dx,
0
wobei wir (78.8) benutzt haben und dabei f durch g und v durch B w ersetzt haben. Daher k¨ onnen wir die Optimalit¨atsbedingung (78.9) auf dieselbe Weise schreiben wie oben: (B B + µI)f = B u ¯.
(78.11)
Diese Gleichung k¨ onnen wir eindeutig nach der Funktion f (x) aufl¨osen, wodurch wir eine lineare Funktion erhalten, die durch zwei Konstanten definiert wird, da n¨ amlich f = µ1 B (Bf − u ¯). Ist beispielsweise u ¯(0) = 0 und u ¯(1) = 1, dann erhalten wir f¨ ur ein kleines µ: f (x) ≈ 10¯ u(1)x − 8¯ u(1) mit zugeh¨ origer L¨ osung u(x) ≈ −3x3 + 4x2 . Wir wollen nun noch einige Bemerkungen zur Optimalit¨ atsgleichung (78.11) machen. Der Operator B bildet eine Menge von Quellfunktionen, etwa F , in einen Raum der Beobachtungen ab, etwa O, und der adjungierte Operator B bildet O auf F ab. Wir k¨ onnen uns die Dimension von F als groß vorstellen und die von O im Vergleich dazu kleiner. Zur Diskussion k¨onnen wir annehmen, dass die Dimension von F genau n sei, und die Dimension von O sei m. Daher entspricht B einer m × n-Matrix und B einer n × m-Matrix, wobei m << n. Dies ist unsere Ausgangslage f¨ ur die Berechnung der N¨aherungen ussen die Spalten von f¨ ur die L¨ osungsoperatoren B und B . Insbesondere m¨ B streng voneinander linear unabh¨ angig sein, da es viel mehr Spalten als Zeilen gibt, und daher muss die n × n-Matrix B B singul¨ar sein, so dass ullen. viele von Null verschiedene n-Vektoren f die Gleichung B Bf = 0 erf¨ Auf der anderen Seite darf die Matrix B B + µI f¨ ur µ > 0 nicht singul¨ar sein. Ansonsten w¨ urde aus (B B + µI)f = 0 nach skalarer Multiplikation mit dem n-Vektor f folgen, dass Bf 2 + µf 2 = 0 und somit f = 0. Die von Null verschiedenen L¨ osungen f von B Bf = 0 sind Eigenvektoren zum Eigenwert Null. Wenn wir zum regularisierten Operator B B + µI wechseln, verschieben wir das Spektrum auf das Intervall [µ, ∞) auf der positiven reellen Achse.
1136
78. Inverse Probleme
78.4 Ein inverses Problem fu ¨r die Poisson-Gleichung Wir wollen nun ein inverses Problem f¨ ur die Poisson-Gleichung (78.1) betrachten und dabei annehmen, dass Ω, Γ und κ bekannt sind: Zu gegeˆ benem u(x) = U(x) f¨ ur x ∈ Γ wird f (x) f¨ ur x ∈ Ω gesucht. Wir wollen dieses Problem direkt in diskretisierter Form als das folgende Problem mit der kleinsten quadratischen Abweichung angehen: Gesucht ist ein F ∈ Vh , wodurch ˆ 2Γ + µF 2Ω J(F ) = U − U (78.12) u ur U ∈ Vh gilt: ¨ ber Vh minimiert wird, wobei f¨ (∇U, ∇v)Ω + (κU, v)Γ = (F, v)Ω
f¨ ur alle v ∈ Vh .
(78.13)
uckweise linearen Funktionen auf Dabei ist Vh der Raum der stetigen st¨ einer vorgegebenen Triangulierung von Ω mit Gitterweite h(x). Wie oben wirkt µ ≥ 0 als Regularisierungsparameter, der uns dabei behilflich ist, dieses schlecht gestellte Problem in den Griff zu bekommen. Ferner bezeichnen · Ω und (·, ·)Ω die L2 (Ω)-Norm und das zugeh¨orige Skalarprodukt und ganz ¨ ahnlich · Γ und (·, ·)Γ die L2 (Γ)-Norm mit zugeh¨origem Skalarprodukt. Wir f¨ uhren in (78.12) den L¨ osungsoperator Bh : Vh → Wh ein, den wir durch Bh F = UF auf Γ definieren, wobei UF ∈ Vh die Gleichung (78.13) l¨ost und Wh ist die Einschr¨ ankung des Raumes Vh auf die Begrenzung Γ, d.h. eine Menge von st¨ uckweise linearen Funktionen auf Γ. Nach der Definition erf¨ ullt Uf ∈ Vh die Gleichung (∇UF , ∇v)Ω + (κUF , v)Γ = (F, v)Ω
f¨ ur alle v ∈ Vh .
(78.14)
Nun k¨ onnen wir das Minimierungsproblem (78.12) wie folgt formulieren: Gesucht ist das F ∈ Vh , durch das ˆ 2Γ + µF 2Ω J(F ) = Bh F − U
(78.15)
u ¨ ber Vh minimiert wird. Dies ist ein quadratisches Minimierungsproblem mit der eindeutigen L¨ osung F ∈ Vh , die durch die folgende Gleichung mit kleinster quadratischen Abweichung charakterisiert wird: ˆ , Bh G)Γ (Bh F, Bh G)Γ + (µF, G)Ω = (U Diese Gleichung bringt zum Ausdruck, dass alle G ∈ Vh . Wir k¨ onnen (78.16) in der Form
f¨ ur alle G ∈ Vh . d d J(F
ˆ , G)Ω (Bh Bh F, G)Ω + (µF, G)Ω = (Bh U
(78.16)
+ G) = 0 f¨ ur = 0 f¨ ur
f¨ ur alle G ∈ Vh
78.4 Ein inverses Problem f¨ ur die Poisson-Gleichung
schreiben, d.h.
ˆ, (Bh Bh + µI)F = Bh U
1137
(78.17)
Bh
wobei : Wh → Vh die folgendermaßen definierte Transponierte von Bh ist: F¨ ur w ∈ Wh gelte f¨ ur Bh w ∈ Vh : (∇v, ∇Bh w)Ω + (κv, Bh w)Γ = (v, w)Γ
f¨ ur alle v ∈ Vh .
(78.18)
Anders formuliert, so ist Bh w eine N¨ aherung der L¨osung z f¨ ur das PoissonProblem −∆z = 0 in Ω, (78.19) ∂n z + κz = w auf Γ. ahlen, erhalten wir mit (78.13) und Wenn wir in (78.18) v = Bh G w¨ v = Bh w: (Bh G, w)Γ = (∇Bh G, ∇Bh w)Ω + (κBh G, Bh w)Γ = (G, Bh w)Ω und somit, wie erwartet von einer Transponierten, dass (Bh G, w)Γ = (G, Bh w)Ω , d.h., die Transponierte Bh kommt ins Spiel, wenn wir Bh von G auf w bewegen. Die L¨ osung von (78.17) liefert eine N¨ aherung F (x) f¨ ur die gesuchte Funktion f (x). Wir k¨ onnen (78.17) durch direkte Inversion der Matrix l¨osen, wenn die Zahl der Knoten gering ist, und durch eine iterative Methode wie ein Gradientenverfahren oder die Methode der konjugierten Gradienten f¨ ur gr¨ oßere Probleme. Das Gradientenverfahren nimmt dabei die folgende Form an: ˆ) F n+1 = F n − α((Bh Bh + µI)F n − Bh U ˆ ) + µF n ). = F n − α(B (Bh F n − U h
ˆ ) beIn jedem Schritt m¨ ussen wir zun¨ achst Bh F und dann Bh (Bh F − U rechnen, was der L¨ osung von zwei Poisson-Problemen entspricht. Beispiel 78.3. Bei unserer ersten Anwendung, die wir mit MATLAB umgesetzt haben, interpretieren wir (78.17) als eine Matrixgleichung, die explizit gebildet wird, indem wir die Inversen der Steifigkeitsmatrizen f¨ ur das Problem (78.14) und der Adjungierten (78.18) berechnen. Diese Matrixgleichung wird f¨ ur die Knotenwerte von F (x) gel¨ost. Auf diese Weise lassen sich einige hundert Knoten behandeln. Der Einfachheit halber haben wir den Fall Ω = {(x1 , x2 ) : 0 < x1 , x2 < 1} mit κ = 1 und f = 0, 5 + (x − y) (x + y − 1) betrachtet, die Randwerte des Ergebnisses aufgegriffen und dann eine Rekonstruktion f¨ ur µ = 0, 0001 f¨ ur das vorgegebene f gel¨ ost. Das Ergebnis ist in Abb. 78.1 f¨ ur einen Rekonstruktionsfehler ∼ 0, 032 in f und ∼ 0, 000176 f¨ ur den zugeh¨origen Zustand (Randwerte) dargestellt.
1138
78. Inverse Probleme Ausgangsdaten 1
Rekonstruktion
Beobachtung 1
0, 25 0, 2
0, 5
0, 5 0, 15 0 1
0, 5 x2 0 0
0, 1 1 0, 5 0, 5 1 x 0 0 2 x1
0 1
0, 5 1 x1
0, 5 x2 0 0
0, 5 1 x1
Abb. 78.1. Ausgangsdaten f (links), sich ergebender Zustand u (Mitte) und die Rekonstruktion von f (rechts) mit µ = 0, 0001 und Rekonstruktionsfehler ∼ 0, 032 Ausgangsdaten
Beobachtung
Rekonstruktion
1
0, 04
1
0, 5
0, 02
0, 5
0 1
0 1
0 1
0, 5 x2 0
0
0, 5 x1
1
0, 5 x2 0
0
0, 5 x1
1
0, 5 x2 0
0
0, 5 x1
1
Abb. 78.2. Ausgangsdaten f (links), sich ergebender Zustand u (Mitte) und die Rekonstruktion von f (rechts) mit µ = 0, 0001 und Rekonstruktionsfehler ∼ 0, 43
Beispiel 78.4. Als N¨ achstes setzen wir κ = 50 und zeigen den resultierenden Zustand in Abb. 78.2. Die Rekonstruktion mit µ = 0, 0001 ist nun sehr schlecht, zumindest wenn wir f betrachten, das einen Rekonstruktionsfehler in der Gr¨ oßenordnung von ∼ 0, 4 aufweist. Dagegen bewegt sich der zugeh¨ orige Zustandsfehler in der Gr¨ oßenordnung von ∼ 0, 02. Die Wahl von µ = 0, 00001 verringert den Zustandsfehler auf ∼ 0, 003, wohingegen eine Rekonstruktion von f mit dem Fehler ∼ 0, 04 eine Wahl von µ = 0, 0000005 verlangt.
78.5 Ein inverses Problem fu ¨r die Laplace-Gleichung Sei Ω ein Gebiet in R2 mit der Begrenzung Γ, die aus drei Teilen Γ0 , Γ1 und Γ2 zusammengesetzt ist. F¨ ur eine gegebene Funktion f , die auf Γ2 definiert
78.5 Ein inverses Problem f¨ ur die Laplace-Gleichung Ausgangsdaten
Beobachtung
Rekonstruktion
1
0, 04
1
0, 5
0, 02
0, 5
0 1
0 1
0 1
0, 5 x2 0
0
0, 5 x1
1
0, 5 x2 0
0
0, 5 x1
1139
1
0, 5 x2 0
0
0, 5 x1
1
Abb. 78.3. Ausgangsdaten f (links), sich ergebender Zustand u (Mitte) und die Rekonstruktion von f (rechts) nach 10 Schritten der Methode der konjugierten Gradienten f¨ ur µ = 0, 000001 mit einem Zustandsfehler ∼ 0, 0003 in (den Randwerten von) u und einen Rekonstruktionsfehler ∼ 0, 07 in f
ist, sei uf die L¨ osung f¨ ur das Randwertproblem −∆uf = 0 in Ω, uf = 0 auf Γ0 ∪ Γ1 , uf = f auf Γ2 .
(78.20)
∂u
Wir definieren Bf = ∂nf auf Γ1 , wobei n die ausw¨arts gerichtete Einheitsnormale zu Γ1 ist. Wir k¨ onnen uns uf als eine station¨are Temperatur denken, die auf Ω definiert ist und vorgegebene Randbedingungen auf Γ ullt. Dabei steht Bf f¨ ur den W¨arme(= 0 auf Γ0 ∪ Γ1 und = f auf Γ2 ) erf¨ fluss auf Γ1 . Angenommen, wir k¨ onnen den W¨armefluss auf Γ1 messen und wir wollten die Temperatur f auf Γ2 bestimmen. Bei der vorliegenden Situation haben wir also Zugang zur Temperatur (= 0) auf Γ0 ∪ Γ1 und k¨ onnen auch den W¨ armefluss, etwa q¯, entlang Γ1 messen und wir wollen die Temperatur f auf dem unzug¨ anglichen Teil der Begrenzung Γ2 bestimmen. Dieses Problem stellt sich etwa beim EKG, wobei u ein Potential ist, Γ1 ist ache des Herzens. Das inverse Problem die Brustfl¨ ache und Γ2 die Oberfl¨ besteht darin, das Potential am Herzen aus Messungen an der Brust zu rekonstruieren. Wir formulieren das Rekonstruktionsproblem als eine Optimierung der kleinsten quadratischen Abweichung: Gesucht ist f auf Γ2 , das J(f ) = Bf − q¯2Γ1 + µf 2Γ2 minimiert, wobei wir die Schreibweise aus dem vorherigen Abschnitt benutzen und µ > 0 annehmen. Die Optimalit¨ atsgleichung nimmt wie u ¨ blich die folgende Form an: (B B + µI)f = B q¯,
1140
78. Inverse Probleme
mit B g =
∂ug ∂n
auf Γ2 und ug l¨ ost das Problem: −∆ug = 0 ug = g
in Ω, auf Γ1 ,
ug = 0
(78.21)
auf Γ0 ∪ Γ2 .
Durch partielle Integration ergibt sich n¨ amlich: (g, Bf )Γ1 = (∇ug , ∇uf )Ω = (B g, f )Γ2 .
Beispiel 78.5. Wir betrachten wieder das Gebiet Ω = {(x1 , x2 ) : 0 < x1 , x2 < 1} mit Γ1 = {(0, x2 ) : 0 < x2 < 1}, Γ2 = {(1, x2 ) : 0 < x2 < 1} und Γ0 = Γ\Γ1 mit einem beobachteten Fluss q¯ auf Γ1 , der der Funktion ungf = 6 x22 (1 − x2 ) auf Γ2 entspricht. Die Abbildung zeigt links die urspr¨ liche (Dirichlet-) Randbedingung, den sich ergebenden Zustand u und den zugeh¨ origen beobachteten Fluss q entlang Γ1 in der Mitte und die Kontrolle/Rekonstruktion f nach einigen Iterationen mit konjugierten Gradienten auf der rechten Seite; dabei ist µ = 0, 001. Der Fehler in der (st¨ uckweise konstanten) Rekonstruktion der Randwerte entlang Γ2 betr¨agt ∼ 0, 02 und der sich ergebende Fehler im Fluss durch Γ1 ergibt sich zu ∼ 0, 006. Ausgangsdaten
Beobachtung
Rekonstruktion
1
1
1
0, 5
0, 5
0, 5
0
0
0
−0, 5 1 0, 5 0, 5 1 x2 0 x1
−0, 5 1 0, 5 0, 5 1 x2 0 x1
−0, 5 1
0, 5 x2 0
0
0
0
0, 5 1 x1
Abb. 78.4. Urspr¨ ungliche Dirichlet-Randwerte (links), der sich ergebender Zustand u und der beobachtete Fluss q entlang Γ1 (Mitte) und die Rekonstruktion der Randwerte auf Γ2 (rechts) mit µ = 0, 001 nach einigen (5) Schritten mit der Methode der konjugierten Gradienten
78.6 Die ru ¨ckw¨artige W¨armegleichung Ein anderes wichtiges inverses Problem ist die r¨ uckw¨artige W¨armegleichung: Bei gegebener Temperatur zur Endzeit t = T wird die Temperatur zu Beginn t = 0 gesucht. Wir betrachten das Problem in der Formulierung:
78.6 Die r¨ uckw¨ artige W¨ armegleichung
1141
Sei f (x) eine Anfangstemperatur und u(x, t) die zugeh¨orige L¨osung der W¨ armegleichung: ⎧ ⎪ in Ω × (0, T ], ⎨u˙ − ∆u = 0 (78.22) ∂n u + κu = 0 auf Γ × (0, T ], ⎪ ⎩ u(x, 0) = f (x) f¨ ur x ∈ Ω. Dabei sind das Gebiet Ω ∈ Rd und der Koeffizient κ ≥ 0 gegeben. Wir betrachten das folgende inverse Problem: Bei gegebener Endtemperatur u(x, T ) wird die Anfangstemperatur u(x, 0) = f (x) gesucht. Das ist das Gleiche, wie die W¨ armegleichung r¨ uckw¨ arts“ zu l¨osen. ” Wir betrachten das folgende diskrete Analogon von (78.22) mit einer uckweise Diskretisierung im Raum: Sei Vh der u ¨ bliche Raum der stetigen st¨ linearen Funktionen auf einer Triangulierung von Ω mit Gitterweite h(x) osung der diskreten W¨armegleiund sei F ∈ Vh . Ferner sei U (t) ∈ Vh die L¨ chung: ur t ∈ (0, T ], v ∈ Vh , (U˙ , v)Ω + (∇U (t), ∇v)Ω = 0 f¨ (78.23) (U (0), v)Ω = (F, v)Ω f¨ ur v ∈ Vh . Das diskrete inverse Problem, das einer diskreten r¨ uckw¨artigen“ W¨arme” gleichung entspricht, lautet nun: Bei gegebener Endtemperatur U (T ) = ˆ ∈ Vh ist die Anfangstemperatur U (0) = F ∈ Vh gesucht. U Wir f¨ uhren den L¨ osungsoperator Bh : Vh → Vh ein, um dieses Problem als ein regularisiertes Problem mit kleinster quadratischer Abweichung zu formulieren und folgendermaßen zu definieren: Bh F = U (T ) ∈ Vh , wobei U das Problem l¨ ost mit U (0) = F ∈ Vh . Der Operator Bh erzeugt daher aus einer Anfangstemperatur F die zugeh¨ orige Endtemperatur Bh F . Das regularisierte Problem mit kleinster quadratischen Abweichung lautet daher wie oben, d.h., wir suchen das F ∈ Vh , das ˆ 2 + µF 2 J(F ) = Bh F − U Ω Ω
(78.24)
in Vh minimiert. Die eindeutige L¨ osung F ∈ Vh dieses quadratischen Minimierungsproblems wird durch eine Gleichung mit kleinster quadratischen Abweichung der Form ˆ , Bh G)Ω (Bh F, Bh G)Ω + (µF, G)Ω = (U
f¨ ur alle G ∈ Vh
(78.25)
charakterisiert, die auch wie folgt geschrieben werden kann: ˆ , G)Ω (Bh Bh F, G)Ω + (µF, G)Ω = (Bh U
f¨ ur alle G ∈ Vh ,
d.h. ˆ, (Bh Bh + µI)F = Bh U
(78.26)
1142
78. Inverse Probleme
wobei Bh : Vh → Vh wie folgt definiert ist: Bh G = Z(0) ∈ Vh , wobei Z(t) ∈ Vh die diskrete W¨ armegleichung ˙ Ω + (∇v, ∇Z)Ω = 0 f¨ −(v, Z) ur t ∈ (0, T ], v ∈ Vh , (78.27) (v, Z(T ))Ω = (G, v)Ω f¨ ur v ∈ Vh l¨ ost. Beachten Sie, dass die Berechnung von Bh der L¨osung der W¨armegleichung entspricht: Beachten Sie dabei das Minuszeichen im Ausdruck ˙ und dass wir bei der L¨ −(v, Z) osung mit t = T beginnen und bei t = 0 enden. Die Substitution zur neuen Variablen s = T − t u uhrt dieses ¨ berf¨ Problem in die u armegleichung. Beachten Sie, dass (78.27) ein ¨ bliche W¨ diskretes Analogon des Problems ⎧ ⎪ in Ω × (0, T ], ⎨−z˙ − ∆z = 0 ∂n z + κz = 0 auf Γ × [0, T ), ⎪ ⎩ z(x, T ) = g(x) f¨ ur x ∈ Ω aherung von g(x) ist und Z(t) ∈ Vh eine N¨aherung ist, wobei G ∈ Vh eine N¨ von z(·, t) f¨ ur t ∈ [0, T ]. Um die Gleichung mit kleinster quadratischen Abweichung durch ein Gradientenverfahren oder die Methode der konjugierten Gradienten zu ur vorgegebene Vektoren F n und G in l¨ osen, m¨ ussen wir Bh F n und Bh G f¨ Vh berechnen, wobei wir eine Art von Zeitschrittverfahren wie etwa dG(0) oder cG(1) ben¨ otigen. Beispiel 78.6. Wir betrachten ein vorgegebenes Problem auf dem Gebiet Ω aus den vorhergehenden Beispielen, mit einer Wahl von κ = 1000, was einer Randbedingung u ≈ 0 entspricht. Der Endzeitpunkt ist T = 0, 1 und der beobachtete Zustand zur Zeit T entspricht den Anfangswerten u0 = 16 x1 (1 − x1 ) x2 (1 − x2 ) und u0 = 2 min( x1 , 1 − x1 , x2 , 1 − x2 ). Wir wollen nun diese Anfangswerte aus den Beobachtungen der sich ergebenden L¨ osungen zur Zeit T = 0, 1 mit µ = 0, 001 rekonstruieren, wozu wir einige Iterationsschritte mit konjugierten Gradienten und die cG(1)-Methode verwenden (angef¨ uhrt von zwei dG(0) Schritten, um hochfrequentes Rauschen zu filtern) mit Zeitschritten k = 0, 0025. Die Ergebnisse sind in Abb. 78.5 und Abb. 78.6 wiedergegeben. Der Rekonstruktionsfehler betr¨agt im ersten Fall ∼ 0, 057 und im zweiten ∼ 0, 19. Man k¨ onnte auf den Gedanken kommen, dass mit einem kleineren µ eine bessere Rekonstruktion der Spitze in den Anfangsdaten u0 im zweiten Beispiel m¨oglich sei. Wir gehen aber davon aus, dass die Beobachtungen in den meisten F¨allen ungenau und nicht sehr detailliert sind, so dass in diesem Fall die Rekonstruktion nicht wesentlich besser wird, wenn wir µ verkleinern. Wenn wir jedoch T etwa auf 0, 02 verringern, k¨ onnen wir auch die detaillierten Strukturen von u0 im zweiten Beispiel mit µ = 0, 00001 und einem Rekonstruktionsfehler von ∼ 0, 068 rekonstruieren.
78.6 Die r¨ uckw¨ artige W¨ armegleichung Ausgangsdaten
Beobachtung
Rekonstruktion
1
1
1
0 1
0 1
0 1
x2 0 0
x1
1 x2 0 0
x1
1143
1 x2 0 0
x1
1
Abb. 78.5. Ausgangsdaten u0 = 16 x1 (1 − x1 ) x2 (1 − x2 ) (links), zugeh¨ orige Beobachtung/L¨ osung zur Zeit T = 0, 1 (Mitte) und Rekonstruktion von u0 (rechts) mit µ = 0, 001
Ausgangsdaten
Beobachtung
Rekonstruktion
1
1
1
0 1
0 1
0 1
x2 0 0
x1
1 x2 0 0
x1
1 x2 0 0
x1
1
Abb. 78.6. Ausgangsdaten u0 = 2 max( x1 , 1 − x1 , x2 , 1 − x2 ) (links), zugeh¨ orige Beobachtung/L¨ osung zur Zeit T = 0, 1 (Mitte) und Rekonstruktion von u0 (rechts) mit µ = 0, 001
Ausgangsdaten
Beobachtung
Rekonstruktion
1
1
1
0 1
0 1
0 1
x2 0 0
x1
1 x2 0 0
x1
1 x2 0 0
x1
1
Abb. 78.7. Ausgangsdaten u0 = 2 max( x1 , 1−x1 , x2 , 1−x2 ) (links), zugeh¨ orige Beobachtung/L¨ osung zur Zeit T = 0, 02 (Mitte) und Rekonstruktion von u0 (rechts) mit µ = 0, 00001
79 Optimale Kontrolle
Wir treffen die richtigen Entscheidungen, um die L¨ osung zu einem Ende zu bringen. (George W. Bush)
79.1 Einleitung In diesem Kapitel fahren wir mit Gesichtspunkten der Optimierung fort, die in folgendem Zusammenhang mit einer optimalen Kontrolle stehen: Wir betrachten das AWP in der Form: Gesucht ist der Zustand v : [0, T ] → Rn , der die Zustandsgleichung v(t) ˙ + f (v(t), q(t)) = 0,
0 < t ≤ T,
v(0) = u0
(79.1)
l¨ ost, wobei f : Rn × Rm → Rn eine vorgegebene Funktion ist, u0 ist ein gegebener Anfangswert und q : [0, T ] → Rm eine Kontrollfunktion. Wir versuchen, eine optimale Kontrollfunktion p : [0, T ] → Rm zu bestimmen, so dass J(p) ≤ J(q) f¨ ur alle q : [0, T ] → Rm mit J(q) =
α 1 v − u ˆ2 + q2 . 2 2
(79.2)
Dabei ist α eine positive Konstante, v l¨ ost die Gleichung (79.1) und u ˆ : [0, T ] → Rn ist eine vorgegebene Funktion. Die Norm · wird durch T |w(t)|2 dt w2 = 0
1146
79. Optimale Kontrolle
definiert, wobei |·| f¨ ur die euklidische Norm steht. Wir versuchen daher, die Kontrollfunktion q so zu w¨ ahlen, dass der zugeh¨orige Zustand v in der · Norm so nahe wie m¨ oglich an einen vorgegebenen Zustand u ˆ herankommt. Ferner addieren wir einen Kostenausdruck f¨ ur die Kontrollfunktion, der mit dem Faktor α > 0 eingeht. Wir formulieren dieses Problem zu einem Sattelpunktproblem um: min max L(v, q, µ) v,q
(79.3)
µ
mit dem Lagrange-Operator L, der durch L(v, q, µ) =
1 α v − uˆ2 + q2 + (v˙ + f (v, q), µ) 2 2
(79.4)
definiert wird, wobei (·, ·) das zur Norm · zugeh¨orige Skalarprodukt ist und (v, q, µ) sich frei (mit v(0) = u0 und µ(T ) = 0) ver¨andern kann. L(v, q, µ) ist in (u, p, λ) station¨ ar, wenn L (u, p, λ) = 0, wobei L die n m Jacobi-Matrix von L : R × R × Rn → R ist, oder in Komponentenschreibweise: (u˙ + f (u, p), µ) = 0 f¨ ur alle µ, (79.5) (u − u ˆ, v) + (v˙ + fv (u, p)v, λ) = 0 (fq (u, p)q, λ) + α(p, q) = 0
f¨ ur alle v,
f¨ ur alle q,
(79.6) (79.7)
uglich v und wobei fv (u, p) und fq (u, p) die Jacobi-Matrizen von f (v, q) bez¨ q in (u, p) bezeichnen und wir annehmen, dass v(0) = 0 und µ(T ) = 0. Wir k¨ onnen diese Gleichungen in (u, p, λ) punktweise in der Zeit folgendermaßen neu formulieren: u˙ + f (u, p) = 0 auf [0, T ], −λ˙ + fv (u, p) λ = uˆ − u
u(0) = u0 ,
auf [0, T ],
fq (u, p) λ + αp = 0
λ(T ) = 0.
auf [0, T ],
(79.8) (79.9) (79.10)
wobei die Transponierte bezeichnet. Dabei ist (79.8) die Zustandsgleichung, (79.9) die Kozustandsgleichung und (79.10) die Feedback Kontrollfunktion, durch die die optimale Kontrollfunktion p mit dem Kozustand λ gekoppelt ist. Um die station¨ aren Gleichungen zu l¨ osen, k¨onnen wir das folgende Gradientenverfahren f¨ ur die Kontrollfunktion p benutzen: pn+1 = pn − κ(αpn + fq (un , pn ) λn ),
(79.11)
wobei un und λn die Zustandsgleichung u˙ n + f (un , pn ) = 0 und die Kozustandsgleichung −λ˙ n + fv (un , pn ) λn = u ˆ − un l¨osen. Dabei ist κ > 0 die Schrittl¨ange.
79.2 Die Verbindung zwischen
dJ dp
und
∂L ∂p
1147
Beispiel 79.1. Sei f (v, q) = Av − Bq mit einer n × n-Matrix A und einer n × m-Matrix B. Dann lauten die station¨ aren Gleichungen: u˙ + Au = Bp
auf [0, T ],
ˆ−u −λ˙ + A λ = u
αp = B λ
u(0) = u0 ,
auf [0, T ],
(79.12)
λ(T ) = 0,
auf [0, T ].
79.2 Die Verbindung zwischen
dJ dp
(79.13) (79.14)
und
∂L ∂p
Wir wollen nun beweisen, dass J (p) =
∂L dJ (p) = (u, p, λ), dp ∂p
(79.15)
wobei der Zustand u = u(p) die Zustandsgleichung (79.8) mit der Kontrollfunktion p l¨ ost, und der Kozustand λ l¨ ost die Kozustandsgleichung (79.9). Wir k¨ onnen daher den Gradienten J (p) = dJ dp (p) der Zielfunktion bzw. Kostenfunktion J(p) mit Hilfe des zugeh¨ origen Zustands u = u(p) und des Kozustands λ ausdr¨ ucken, w¨ ahrend eine direkte Berechnung von J (p) die Berechnung der Ableitung u (p) des Zustands u(p) nach der Kontrollfunktion p verlangt: Nach der Kettenregel erhalten wir J (p)q =
∂ ˆ, u (p)q) + α(p, q), J(p + q)| =0 = (u(p) − u ∂
worin wir also u (p) eliminieren wollen. Dazu leiten wir die Zustandsgleichung in der Form (unter der Annahme, dass u0 = 0) 0 = (u, −µ) ˙ + (f (u, p), µ) f¨ ur alle µ mit µ(T ) = 0 nach p ab, um f¨ ur alle µ mit µ(T ) = 0 zu erhalten: 0=
d (u(p + q), −µ) ˙ + (f (u(p + q), p + q, µ)) | =0 , d
d.h., ˙ + (fu (u(p), p)u (p)q + fp (u(p), p)q, µ) 0 = (u (p)q, −µ) oder ˙ + (u (p)q, fu (u(p), p) µ) = −(q, fp (u(p), p) µ). (u (p)q, −µ) Wenn wir nun µ = λ w¨ ahlen und ausnutzen, dass durch die Kozustandsgleichung ˙ + (u (p)q, f (u(p), p) λ) = −(u(p) − uˆ, u (p)q), (u (p)q, −λ) u
1148
79. Optimale Kontrolle
k¨ onnen wir nun J (p) in der Form J (p)q = (q, fp (u(p), p) λ) + α(p, q) oder J (p) = fp (u(p), p) λ + αp =
∂L (u, p, λ) ∂p
ausdr¨ ucken, wie wir ja zeigen wollten. Die Einf¨ uhrung des Kozustands λ versetzt uns somit in die Lage, den Gradienten der Kostenfunktion J(p) in Abh¨angigkeit von der Kontrollfunktion p auszudr¨ ucken und wir k¨ onnen dann ein Gradientenverfahren einsetzen, um das Minimum von J(p) zu suchen. Quelle und Kontrolle
Zustand
15
2
10
1.5
Kozustand 3
2 1
5
1
0.5 0 0
0
−5 −0.5 −10
−1 −1
−15 −1.5 −20
−2
−2 −3
−25
−30
−2.5
0
1 t
2
−3
0
1 t
2
−4
0
1 t
2
Abb. 79.1. Quelle, Kontrollfunktion, Zustand und Kozustand f¨ ur das Problem eines inversen Pendels
Beispiel 79.2. Wir betrachten das Problem, ein umgekehrtes Pendel auf einer Fingerspitze zu balancieren, wobei die Masse St¨orungen einer horizontalen Kraft ausgesetzt ist und eine Anfangsbedingung gilt. Wenn wir kleine Verschiebungen um die vertikale Position annehmen, nimmt die Zuur standsgleichung die Form u˙ 2 (t) − u1 (t) = f (t) und u˙ 1 (t) − u2 (t) = p(t) f¨ 0 < t ≤ T , u1 (0) = u01 , u2 (0) = u02 an, wobei f (t) die St¨orung ist und
79.2 Die Verbindung zwischen
dJ dp
und
∂L ∂p
1149
p(t) die Kontrollfunktion. Das Problem der optimalen Kontrolle, um das Pendel senkrecht zu halten, wobei u1 und u2 nahe bei Null sind, nimmt die folgende Form an: Gesucht ist p : [0, T ] → R, so dass die Kostenfunktion J(p) =
1 2
T
(a1 u21 (t) + a2 u22 (t)) dt + 0
α 2
T
p2 (t) dt 0
minimiert wird, wobei (u1 , u2 ) die Zustandsgleichung mit Kontrollfunktion p l¨ ost und a1 , a2 und α positive Konstanten sind. In Abb. 79.1 haben wir das Ergebnis nach Einsatz des Gradientenverfahrens (79.11) f¨ ur dieses Problem mit f (t) = sin(2t) + sin(10t), u01 = 0, 3, u02 = 0, T = 2, a1 = 100, a2 = 1, α = 0, 0001 und κ = 0, 005 dargestellt. Wir halten fest, dass eine Gewichtung mit a1 >> a2 die Kontrollfunktion so ausrichtet, dass es besser ist, die Position u1 (t) anstelle der Geschwindigkeit u2 (t) nahe bei Null zu halten.
80 Werkzeugkoffer: Differentialgleichungen
Ich glaube, dass es vern¨ unftigerweise mindestens vier verschiedene Meinungen – oder besser extreme Meinungen – gibt, die sich vertreten lassen: 1. Alles Denken ist ¨ ahnlich einem Computer; insbesondere werden Gef¨ uhle, derer man sich bewusst wird, ausschließlich durch das Ausf¨ uhren geeigneter Abl¨aufe im Computer hervorgerufen. 2. Bewusstsein ist eine Eigenschaft eines physiologischen Vorgangs eines Gehirns; und auch wenn jeder physikalische Vorgang mit dem Computer simuliert werden kann, so k¨ onnen Simulationen am Computer nicht selbst¨andig ein Bewusstsein erzeugen. 3. Geeignete physikalische Vorg¨ ange des Gehirns erzeugen Bewusstsein, aber dieser physikalische Vorgang l¨asst sich nicht einmal angemessen mit dem Computer simulieren. (Ansicht von Penrose) 4. Das Bewusstsein l¨ asst sich weder durch physikalische noch durch Abl¨ aufe im Computer oder irgendwelche anderen wissenschaftlichen Ausdr¨ ucke erkl¨aren. (R. Penrose in Shadows of the Mind)
1152
80. Werkzeugkoffer: Differentialgleichungen
80.1 Einleitung Hier stellen wir wichtige Fakten u ¨ber die analytische und numerische L¨osung von Differentialgleichungen zusammen.
80.2 Die Gleichung u (x) = λ(x)u(x) Die L¨ osung des skalaren Anfangswertproblems u (x) = λ(x)u(x),
f¨ ur x > a,
u(a) = ua ,
wobei λ(x) eine gegebene Funktion von x ist und ua ein gegebener Anfangswert, lautet: u(x) = exp(Λ(x))ua = eΛ(x) ua , wobei Λ(x) eine Stammfunktion von λ(x) ist, so dass Λ(a) = 0. Insbesondere gilt, wenn λ eine Konstante ist, dass u(x) = exp(λx)ua .
80.3 Die Gleichung u (x) = λ(x)u(x) + f (x) Die L¨ osung des skalaren Anfangswertproblems u (x) = λ(x)u(x) + f (x),
f¨ ur x > a,
u(a) = ua ,
wobei λ(x) und f (x) vorgegebene Funktionen von x sind und ua ein gegebener Anfangswert, l¨ asst sich mit Hilfe der Methode von Duhamel schreiben: x e−Λ(y) f (y) dy. u(x) = eΛ(x) ua + eΛ(x) a
wobei Λ(x) eine Stammfunktion von λ(x) ist, so dass Λ(a) = 0.
80.4 Die Differentialgleichung
n
k=0 ak D
k
u(x) = 0
Eine L¨ osung der Differentialgleichung mit konstanten Koeffizienten p(D)u(x) =
n
ak Dk u(x) = 0,
f¨ ur x ∈ I,
k=0
wobei I ein Intervall reeller Zahlen ist, lautet: u(x) = α1 exp(λ1 ) + . . . + αn exp(λn ),
80.5 Der ged¨ ampfte lineare Oszillator
1153
wobei die αi beliebige n Konstanten sind, und die λi sind die Nullstellen des Polynoms p(λ) = k=0 ak λk unter der Annahme, dass es n verschiedene Nullstellen gibt. Besitzt p(λ) eine r-fache Nullstelle λi , dann ergibt sich die L¨ osung als eine Summe von Ausdr¨ ucken der Form q(x) exp(λi x), wobei q(x) ein Polynom mit H¨ ochstgrad r − 1 ist. Ist beispielsweise p(D) = (D − 1)2 , dann besitzt eine L¨ osung von p(D)u = 0 die Form: u(x) = (a0 +a1 x) exp(x).
80.5 Der ged¨ampfte lineare Oszillator Eine L¨ osung u(t) von u¨ + µu˙ + ku = 0,
f¨ ur t > 0,
wobei µ und k Konstanten sind, lautet: √ 2 √ 2 1 1 u(t) = ae− 2 (µ+ µ −4k)t + be− 2 (µ− µ −4k)t , f¨ ur µ2 − 4k > 0, u(t) = ae
− 12 µt
t t − 12 µt 2 2 cos 4k − µ + be sin 4k − µ , 2 2
f¨ ur µ2 − 4k < 0 und u(t) = (a + bt)e− 2 µt , 1
f¨ ur µ2 − 4k = 0, wobei a und b beliebige Konstanten sind.
80.6 Die Exponentialfunktion einer Matrix Die L¨ osung f¨ ur das lineare Anfangswertproblem u (x) = Au(x),
f¨ ur 0 < x ≤ T, u(0) = u0 ,
wobei A eine konstante d × d-Matrix ist, u0 ∈ Rd und T > 0, lautet: u(x) = exp(xA)u0 = exA u0 . Ist A diagonalisierbar, so dass A = SDS −1 mit einer nicht singul¨aren Matrix S und Diagonalmatrix D mit den Diagonalelementen di (den Eigenwerten von A), dann gilt: exp(xA) = S exp(xD)S −1 , wobei exp(xD) die Diagonalmatrix mit den Elementen exp(xdi ) ist.
1154
80. Werkzeugkoffer: Differentialgleichungen
Die L¨ osung f¨ ur das Anfangswertproblem u (x) = Au(x) + f (x),
f¨ ur 0 < x ≤ 1, u(0) = u0 ,
wobei f (x) eine gegebene Funktion ist, ergibt sich nach der Methode von Duhamel: x u(x) = exp(xA)u0 + exp((x − y)A)f (y) dy. 0
80.7 Fundamentall¨osungen des Laplace-Operators 1 1 Die Funktion Φ(x) = 4π ur x ∈ R3 l¨ost die Differentialgleichung x f¨ −∆Φ = δ0 in R3 , wobei δ0 eine Punktmasse im Ursprung repr¨asentiert. 1 1 Die Funktion Φ(x) = 2π log( x ) f¨ ur x ∈ R2 l¨ost die Differentialgleichung 2 −∆Φ = δ0 in R , wobei δ0 eine Punktmasse im Ursprung repr¨asentiert.
80.8 Die ein-dimensionale Wellengleichung Die allgemeine L¨ osung f¨ ur die ein-dimensionale Wellengleichung u ¨ − u = 0,
f¨ ur x, t ∈ R,
lautet: u(x, t) = v(x−t)+w(x+t), wobei v, w : R → R beliebige Funktionen sind.
80.9 Numerische Methoden fu ¨r AWPe Die dG(0)-Methode, die diskontinuierliche Galerkin-Methode mit st¨ uckweise konstanten Funktionen, lautet f¨ ur das Anfangswertproblem u(t) ˙ = f (u(t), t) f¨ ur t > 0, u(0) = u0 und f : Rd+1 → Rd : n
U =U
n−1
tn
f (U n , t) dt,
+
n = 1, 2, . . . ,
tn−1
wobei U (t) auf einer Unterteilung 0 = t0 < t1 < · · · < tn < tn+1 < · · · ur t ∈ (tn−1 , tn ] und U (0) = u0 . st¨ uckweise konstant ist, mit U (t) = U n f¨ Durch punktweise Quadratur von rechts erhalten wir das implizite r¨ uckw¨artige Euler-Verfahren: U n = U n−1 + kn f (U n , tn ) dt,
n = 1, 2, . . . ,
80.10 cG(1) f¨ ur Konvektion, Diffusion und Reaktion
1155
mit kn = tn − tn−1 . Das implizite vorw¨ artige Euler-Verfahren lautet: U n = U n−1 + kn f (U n−1 , tn−1 ) dt,
n = 1, 2, . . . ,
Die cG(1)-Methode, die kontinuierliche Galerkin-Methode mit st¨ uckweise linearen stetigen Funktionen, lautet: tn f (U (t), t) dt, n = 1, 2, . . . , U (tn ) = U (tn−1 ) + tn−1
wobei U (t) stetig und st¨ uckweise linear ist mit U (0) = u0 und den Knod tenwerten U (tn ) ∈ R .
80.10 cG(1) fu ¨r Konvektion, Diffusion und Reaktion Die cG(1) finite Elemente Methode f¨ ur das skalare Problem der Konvektion, Diffusion und Reaktion −∇ · (a∇u) + ∇ · (ub) + cu = f ∂u + κu = g a ∂n
in Ω, auf Γ,
mit Robin-Randbedingungen, lautet: Gesucht ist U ∈ Vh , so dass a∇U · ∇v dx + ∇ · (ub)v dx + cuv dx Ω Ω Ω + κuv ds = f v dx + gv ds, Γ
Ω
Γ
uckweise linearen Funktionen auf einer wobei Vh ein Raum von stetigen st¨ Triangulierung von Ω ist, der keine Einschr¨ ankung f¨ ur die Knotenwerte an der Begrenzung besitzt. Dabei sind f und g vorgegebene Daten, a > 0, b, c und κ ≥ 0 sind gegebene Koeffizienten und Ω ist ein vorgegebenes Gebiet in R2 mit Begrenzung Γ.
80.11 Die Formel von Svensson fu ¨r die Laplace-Gleichung Ui,j =
1 (Ui−1,j + Ui+1,j + Ui,j−1 + Ui,j+1 ), 4
f¨ ur i, j ∈ Z,
wobei Ui,j eine N¨ aherung f¨ ur u(ih, jh) ist, mit h > 0 und u : R2 → R l¨ost die Gleichung ∆u = 0.
1156
80. Werkzeugkoffer: Differentialgleichungen
80.12 Optimale Kontrolle F¨ ur das Sattelpunktproblem minv,q maxµ L(v, q, µ) mit L(v, q, µ) =
1 α v − u ˆ2 + q2 + (v˙ + f (v, q), µ), 2 2
T wobei sich (v, w) = 0 v · w dt und (v, q, µ) frei ver¨andern (mit v(0) = u0 und µ(T ) = 0), lauten die station¨ aren Gleichungen: u˙ + f (u, p) = 0 auf [0, T ], −λ˙ + fv (u, p) λ = uˆ − u fq (u, p) λ
u(0) = u0 ,
auf [0, T ],
+ αp = 0
λ(T ) = 0,
auf [0, T ],
(80.1) (80.2) (80.3)
wobei die Transponierte bezeichnet. Hierbei ist (80.1) die Zustandsgleichung, (80.2) die Kozustandsgleichung und (80.3) die Feedback Kontrolle, die die optimale Kontrollfunktion p mit dem Kozustand λ koppelt.
81 Werkzeugkoffer: Anwendungen
81.1 Einleitung In diesem Kapitel stellen wir wichtige Modelle f¨ ur die Ingenieurwissenschaften und die Naturwissenschaften in Form von Differentialgleichungen zusammen. F¨ ur genaue Angaben zu Rand- und Anfangswerten verweisen wir auf den Text.
81.2 Malthus und Populationswachstum u˙ = λu − µu, wobei u(t) die Population zur Zeit t angibt, λ ≥ 0 ist die Geburtenrate und µ ≥ 0 die Sterberate.
81.3 Die logistische Gleichung u˙ = u(1 − u)
1158
81. Werkzeugkoffer: Anwendungen
81.4 Das Masse-Feder-Pralltopf System m¨ u + µu˙ + ku = f,
(Kr¨ aftebalance),
wobei u(t) die Auslenkung ist, m die Masse, µ die Viskosit¨at und k die Federkonstante.
81.5 Der LCR-Stromkreis u = f, (Balance von Potentialen), C wobei u(t) die Stammfunktion des Stroms ist, L ist die Induktivit¨at, R der Widerstand, C die Kapazit¨ at und f ein Potential. L¨ u + Ru˙ +
81.6 Die Laplace-Gleichung fu ¨ r die Gravitation −∆u = ρ, wobei u : R3 → R das Gravitationspotential ist und ρ(x) die Massendichte.
81.7 Die W¨armegleichung u˙ − ∇ · q = f,
q = k∇u,
(W¨ armebalance und Fouriersches Gesetz),
wobei u(x, t) eine Temperatur ist, q(x, t) ein W¨armefluss, k(x, t) > 0 ein Leitf¨ ahigkeitskoeffizient und f (x, t) eine W¨ armequelle. F¨ ur k = 1 erhalten wir die W¨ armegleichung: u˙ − ∆u = f .
81.8 Die Wellengleichung u¨ − ∆u = f.
81.9 Konvektion, Diffusion und Reaktion u˙ + ∇ · (βu) + αu − ∇ · (∇u) = f, wobei u(x, t) eine Konzentration ist, β(x, t) eine Konvektionsgeschwindigkeit, α(x, t) eine Reaktionskoeffizient, (x, t) ein Diffusionskoeffizient und f (x, t) eine Produktionsgeschwindigkeit.
81.10 Die Maxwellschen Gleichungen
1159
81.10 Die Maxwellschen Gleichungen ⎧ ∂B ⎪ + ∇ × E = 0, ⎪ ⎪ ⎪ ∂t ⎪ ⎪ ⎪ ∂D ⎪ ⎨− + ∇ × H = J, ∂t ⎪ ∇ · B = 0, ∇ · D = ρ, ⎪ ⎪ ⎪ ⎪ ⎪ B = µH, D = E, J = σE. ⎪ ⎪ ⎩
(Faradaysches Gesetz) (Amp`eresches Gesetz) (Gauss und Coulomb Gesetze) (Bestimmungsgesetze und das Ohmsche Gesetz)
Dabei ist E das elektrische Feld, H das magnetische Feld, D die elektrische Verschiebung, B die magnetische Flussdichte, J der elektrische Strom, ρ die Ladung, µ die magnetische Permeabilit¨ at, die Dielektrizit¨atskonstante und σ die elektrische Leitf¨ ahigkeit.
81.11 Die inkompressiblen Navier-Stokes-Gleichungen ∂u + (u · ∇)u + ∇p − ν∆u = f, ∂t
∇ · u = 0,
wobei u(x, t) die Geschwindigkeit der Fl¨ ussigkeit ist, p(x, t) der Druck, f (x, t) eine vorgegebene Kraft und ν > 0 eine konstante Viskosit¨at.
81.12 Die Schr¨odingergleichung ⎛ i
1
∂ϕ ⎝ = − ∂t 2
∂ϕ i = ∂t
⎞ ∆j + V (r1 , . . . , rN )⎠ ϕ(r1 , . . . , rN ),
rj ∈ R3 .
j
1 1 − ∆+ ϕ(x), 2 |x|
x ∈ R3
(Wasserstoffatom).
82 Analytische Funktionen
Ein Mathematiker der ersten Klasse, Laplace, offenbarte sich schnell als mittelm¨ aßiger Verwalter. Wir waren von seiner ersten Arbeit get¨ auscht worden. Laplace erkannte nie die Wurzel eines Problems, sondern suchte u ¨ berall nach Spitzfindigkeiten, hatte nur zweifelhafte Ideen und brachte zu guter Letzt den Geist des infinitesimal Kleinen in die Verwaltung. (Napoleon) Wir gelangen nicht nur mit dem Verstand zur Wahrheit, sondern auch mit dem Herzen. (Pascal)
82.1 Einleitung In diesem Kapitel werden wir in Kurzform u ¨ ber analytische Funktionen berichten. Dies sind differenzierbare Funktionen f : C → C, die komplexe Argumente besitzen und komplexe Werte annehmen. Wir benutzen dabei intensiv den Stoff zur Infinitesimalrechnung in Rd , d = 1, 2, insbesondere die Definition einer Ableitung einer Funktion f : Rd → Rd und die Greenschen Formeln in R2 .
82.2 Die Definition einer analytischen Funktion Wir wiederholen, dass wir jede komplexe Zahl y ∈ C in der Form z = x+ iy schreiben k¨ onnen, mit x, y ∈ R und der imagin¨aren Einheit i und dass wir
1162
82. Analytische Funktionen
C mit R2 identifizieren k¨ onnen, indem wir x + iy ∈ C mit (x, y) ∈ R2 identifizieren. Insbesondere gilt i = (0, 1) und |z| = (x2 + y 2 )1/2 . Sei f : Ω → C eine komplexwertige Funktion einer komplexen Variablen z = x+iy ∈ Ω mit x, y ∈ R. Dabei ist Ω ein offenes Gebiet in der komplexen Ebene. Wir k¨ onnen die Funktion in reelle und imagin¨are Teile zerlegen und erhalten: f (z) = f (x + iy) = u(x, y) + iv(x, y), wobei u : R2 → R und v : R2 → R die reellen und imagin¨aren Teile von f (z) sind, d.h. u(x, y) = Re f (z) und v(x, y) = Im f (z). Wir betrachten also u(x, y) und v(x, y) als Funktionen von (x, y) ∈ R2 mit Werten in R. Wir sagen, dass f : Ω → C in z0 ∈ Ω mit der Ableitung f (z0 ) ∈ C differenzierbar ist, wenn f¨ ur z nahe bei z0 gilt: |f (z) − f (z0 ) − f (z0 )(z − z0 )| ≤ Kf (z0 )|z − z0 |2 ,
(82.1)
wobei Kf (z0 ) eine von Null verschiedene reelle Konstante ist, die von f und z0 abh¨ angt. Dies ist eine direkte Erweiterung der entsprechenden Definition der Ableitung einer Funktion f : R → R auf eine Funktion f : C → C, und die u ur die Ableitung von Summen, Produkten und ¨ blichen Regeln f¨ Quotienten lassen sich direkt u ¨bertragen. Wir erinnern daran, dass Differenzierbarkeit einer Funktion f : R → R im Punkte x0 bedeutet, dass f (x) durch eine lineare Funktion c0 +c1 (x−x0 ) = ur x nahe bei x0 gut angen¨ahert wird (bis auf einen f (x0 ) + f (x0 )(x − x0 ) f¨ quadratischen Ausdruck), wobei c0 = f (x0 ) und c1 = f (x0 ) reelle Konstan¨ ten sind. Ahnlich bedeutet Differenzierbarkeit einer Funktion f : C → C in ur ein z nahe bei z0 durch die lineare Funktion einem Punkt z0 , dass f (z) f¨ c0 + c1 (z − z0 ) = f (z0 )+ f (z0 )(z − z0 ) gut angen¨ahert wird. Diese Funktion enth¨ alt eine Translation (Verschiebung) und eine Multiplikation mit einer komplexen Konstanten. Wir folgern daraus, dass Differenzierbarkeit einer Funktion f : C → C in einem Punkte z0 bedeutet, dass sich f (z) in der N¨ ahe von z0 wie eine Kombination aus einer Translation, einer Rotation und einer Betrags¨ anderung auswirkt, vgl. Abb. 82.1. Im z
i
1 0 0 1
Im w
z w = z2
i2 + 2i(z − i) 2i(z − i)
0000 1111 0000 1111
−1
0000 1111 0 0 1 00001 1111
z−i Re z
0000 1111 0000 1111
Re w
Abb. 82.1. Lineare N¨ aherung einer Funktion w = f (z) = z 2 in der N¨ ahe von z = z0 = i durch f (z0 ) + f (z0 )(z − z0 ) = i2 + 2i(z − i)
82.3 Die Ableitung als Grenzwert von Differenzenquotienten
1163
Wir sagen, dass f : Ω → C im offenen Gebiet Ω der komplexen Ebene analytisch ist, wenn f (z) in allen z0 ∈ Ω mit der Ableitung f (z0 ) differenzierbar ist. Die Ableitung f einer analytischen Funktion f : Ω → C ist wiederum eine Funktion f : Ω → C. Wir werden in K¨ urze die erstaunliche Tatsache beweisen, dass f¨ ur eine analytische Funktion f : Ω → C auch f : Ω → C eine analytische Funktion ist, mit der Ableitung f : Ω → C, die ebenfalls analytisch ist, usw. Eine analytische Funktion f : Ω → C besitzt daher Ableitungen beliebiger Ordnung f (n) : Ω → C, n = 1, 2, . . ., die ebenfalls alle analytisch sind. Wir erinnern daran, dass eine differenzierbare Funktion f : R → R keine differenzierbare Ableitung haben muss und daher im Allgemeinen diese besondere Eigenschaft nicht besitzt. Wie oben angef¨ uhrt, k¨ onnen wir eine Funktion f : C → C alternativ auch als Funktion f : R2 → R2 betrachten, indem wir C und R2 miteinander identifizieren. Die Jacobi-Matrix f (x, y) einer Funktion f : R2 → R2 entspricht einer 2 × 2-Matrix, die aus 4 reellen Zahlen besteht, wohingegen die Ableitung f (z) ∈ C einer Funktion f : C → C eigentlich eine komplexe Zahl sein soll, die durch 2 reelle Zahlen ausgedr¨ uckt wird. Wir folgern daraus, dass die Differenzierbarkeit einer komplexwertigen Funktion f : C → C eine strengere Anforderung bedeutet als die Differenzierbarkeit ur nur die partiellen Ableider zugeh¨ origen Funktion f : R2 → R2 , wof¨ tungen der reellen und der imagin¨ aren Teile u(x, y) und v(x, y) von f (x) notwendig sind. Tats¨ achlich werden wir sehen, dass die partiellen Ableitungen der reellen und der imagin¨ aren Teile einer analytischen Funktion auf besondere Weise gekoppelt sein m¨ ussen, was durch die Cauchy-Riemann Gleichungen, die wir unten anf¨ uhren, zum Ausdruck gebracht wird.
82.3 Die Ableitung als Grenzwert von Differenzenquotienten Beachten Sie, dass aus (82.1) folgt, dass f¨ ur z = z0 gilt: |
f (z) − f (z0 ) − f (z0 )| ≤ Kf (z0 )|z − z0 |, z − z0
was wir auch in der Form lim
z→z0
f (z) − f (z0 ) = f (z0 ) z − z0
(82.2)
schreiben k¨ onnen, wodurch wir nat¨ urlich zum Ausdruck bringen, dass |
f (z) − f (z0 ) − f (z0 )| z − z0
so klein wird, wie wir wollen, wenn wir nur |z − z0 | klein genug w¨ahlen (unter Ber¨ ucksichtigung von z = z0 ). Im Hinblick auf (82.2) schreiben wir df wie u = f . ¨blich dz
1164
82. Analytische Funktionen
82.4 Lineare Funktionen sind analytisch Wir betrachten die Funktion f : C → C, die durch f (z) = az + b gegeben ist, wobei a und b vorgegebene komplexe Zahlen sind. F¨ ur alle z und z0 ∈ C gilt: f (z) − f (z0 ) − a(z − z0 ) = 0 und somit ist f (z) analytisch in C, mit der Ableitung f (z) = a.
82.5 Die Funktion f (z) = z 2 ist analytisch F¨ ur f (z) = z 2 erhalten wir f (z) − f (z0 ) − 2z0 (z − z0 ) = z 2 − z02 − 2z0 z + 2z02 = (z − z0 )2 und somit ist f (z0 ) = 2z0 f¨ ur z0 ∈ C.
82.6 Die Funktion f (z) = z n ist analytisch fu ¨r n = 1, 2, . . . Die Funktion f : C → C mit f (z) = z n f¨ ur eine nat¨ urliche Zahl n = 1, 2, . . . kann als eine Erweiterung der Funktion f : R → R mit f (x) = xn ¨ betrachtet werden. Durch Ubertragung des Beweises f¨ ur f (x) = xn erhalten wir (82.3) f (z) = nz n−1 . Wir folgern daraus, dass z n auf ganz C differenzierbar ist, mit der Ableitung nz n−1 . Wir haben eben den Beweis f¨ ur n = 1, 2 geliefert.
82.7 Ableitungsregeln Wie schon angedeutet, lassen sich die u ur Sum¨ blichen Ableitungsregeln f¨ men, Produkte und Quotienten, die f¨ ur Funktionen f : R → R gelten, auf Funktionen f : C → C u ur f (z0 ) = 0 ¨ bertragen. Insbesondere erhalten wir f¨ 1 , dass und g(z) = f (z) f (z0 ) g (z0 ) = − 2 . (82.4) f (z0 ) Ferner ist auch eine aus analytischen Funktionen zusammengesetzte Funktion wieder analytisch und die Kettenregel beh¨alt ihre G¨ ultigkeit: Ist g(z) in z0 ableitbar und f (z) in g(z0 ) ableitbar, dann ist die zusammengesetzte Funktion h(z) = f (g(z)) in z0 differenzierbar, mit der Ableitung
82.8 Die Funktion f (z) = z −n
1165
h (z0 ) = f (g(z0 ))g (z0 ). Der Beweis ist eine direkte Erweiterung des entsprechenden Beweises f¨ ur reellwertige Funktionen mit reellwertigen Variablen.
82.8 Die Funktion f (z) = z −n Mit Hilfe der Formel (82.4) erkennen wir, dass f (z) = z −n f¨ ur n = 1, 2, . . . f¨ ur z = 0 differenzierbar ist, mit: f (z) = −nz −n−1 ,
f¨ ur z = 0.
(82.5)
ur n = Zusammenfassend kommen wir zu dem Ergebnis, dass f (z) = z n f¨ ±1, ±2, . . . differenzierbar ist, mit f (z) = nz n−1 , wobei wir annehmen, dass z = 0 f¨ ur n < 0.
82.9 Die Cauchy-Riemann Gleichungen Wir wollen nun die sogenannten Cauchy-Riemann Gleichungen herleiten, die eine Verbindung herstellen zwischen der Bedingung (82.1) und der partiellen Ableitung des Realteils u(x, y) und des Imagin¨arteils v(x, y) einer komplexwertigen Funktion f (z) = u(x, y) + iv(x, y) einer komplexen Variablen z = x + iy im Punkte z0 = x0 + iy0 . Wenn wir f (z0 ) = a + ib mit a, b ∈ R schreiben, k¨ onnen wir (82.1) in der Form |u(x, y) + iv(x, y) − u(x0 , y0 ) − iv(x0 , y0 ) − (a + ib)(x − x0 + i(y − y0 ))| ≤ Kf (z0 )|z − z0 |2 schreiben. Wenn wir diese Ungleichung in Real- und Imagin¨arteil auftrennen, erhalten wir (unter Beachtung von (22.7)): |u(x, y) − u(x0 , y0 ) − a(x − x0 ) + b(y − y0 )| ≤ Kf (z0 )|z − z0 |2 , |v(x, y) − v(x0 , y0 ) − a(y − y0 ) − b(x − x0 )| ≤ Kf (z0 )|z − z0 |2 .
(82.6)
Wenn wir uns an die Definition f¨ ur die partielle Ableitung von u(x, y) und v(x, y) in (x0 , y0 ) aus dem Kapitel Vektorwertige Funktionen mehrerer ” Variablen“ erinnern, k¨ onnen wir folgern, dass ∂u (x0 , y0 ), ∂x ∂v (x0 , y0 ), a= ∂y a=
∂u (x0 , y0 ), ∂y ∂v (x0 , y0 ) b= ∂x b=−
und somit erhalten wir: ∂v ∂u (x0 , y0 ) = (x0 , y0 ), ∂x ∂y
∂u ∂v (x0 , y0 ) = − (x0 , y0 ). ∂y ∂x
(82.7)
1166
82. Analytische Funktionen
Dies sind die Cauchy-Riemann Gleichungen f¨ ur u(x, y) und v(x, y) im Punkte (x0 , y0 ). Wir folgern daraus, dass f¨ ur eine in einem offenen Gebiet Ω der komplexen Ebene analytische Funktion f (z) = u(x, y) + iv(x, y), die Real- und Imagin¨ arteile u(x, y) und v(x, y) die Cauchy-Riemann Gleichungen in Ω erf¨ ullen, d.h.: ∂v ∂u = ∂x ∂y
und
∂u ∂v =− ∂y ∂x
in Ω.
(82.8)
Beachten Sie, dass wir die Cauchy-Riemann Gleichungen auch in der Form ∂u ∇v = −∇ × u schreiben k¨ onnen, wobei ∇ × u = ( ∂u ∂y , − ∂x ). Beispiel 82.1. Die analytische Funktion f (z) = z 2 = (x + iy)2 = x2 − y 2 + ∂v 2ixy mit u(x, y) = x2 − y 2 und v(x, y) = 2xy erf¨ ullt ∂u ∂x = 2x = ∂y und ∂u ∂v ∂y = −2y = − ∂x . Wir wissen nun, dass die Cauchy-Riemann Gleichungen (82.8) sich aus der analytischen Eigenschaft einer komplexwertigen Funktion f = u + iv ergeben. Anders formuliert, so sind die Cauchy-Riemann Gleichungen eine notwendige Bedingung daf¨ ur, dass f = u + iv analytisch ist. Die CauchyRiemann Gleichungen sind dar¨ uber hinaus eine hinreichende Bedingung: Erf¨ ullt das Paar reeller Funktionen u(x, y) und v(x, y) die Cauchy-Riemann Gleichungen, dann ist die Funktion f = u + iv analytisch. Wir erkennen dies daran, dass f¨ ur differenzierbares u(x, y) und v(x, y), f¨ ur die (82.8) gilt, auch die Gleichungen (82.6) und somit (82.1) erf¨ ullt sind. D.h. aber, dass f = u + iv analytisch ist. Beispiel 82.2. Wir betrachten die Funktionen u(x, y) = x+2xy und v(x, y) = ∂v ∂u ∂v y − x2 + y 2 und erhalten ∂u ∂x = 1 + 2y = ∂y und ∂y = 2x = − ∂x , d.h., u und v erf¨ ullen die Cauchy-Riemann Gleichungen. Wir folgern daraus, dass die Funktion f (z) = u(x, y) + iv(x, y) analytisch sein muss. Tats¨achlich gilt f (z) = u + iv = x + 2xy + i(y − x2 + y 2 ) = x + iy − i(x + iy)2 = z − iz 2 , woraus offensichtlich folgt, dass f (z) analytisch ist. Wir k¨ onnen dies folgendermaßen zusammenfassen: Satz 82.1 Die Funktion f (z) = u(x, y) + iv(x, y) ist dann und nur dann analytisch, wenn die Cauchy-Riemann Gleichungen (82.8) erf¨ ullt sind.
82.10 Die Cauchy-Riemann Gleichungen und die Ableitung Wenn wir zun¨ achst nur Ver¨ anderungen in x zulassen, k¨onnen wir mit Hilfe der Grenzwertdefinition (82.2) f¨ ur die Ableitung f (z0 ) schreiben: f (z0 ) = lim
x→x0
f (z) − f (z0 ) ∂u ∂v (x0 , y0 ) + i (x0 , y0 ), = x − x0 ∂x ∂x
(82.9)
82.11 Die Cauchy-Riemann Gleichungen in Polarkoordinaten
1167
f¨ ur z = x + iy0 . Nun lassen wir nur Ver¨ anderungen in y zu: f (z0 ) = lim
y→y0
1 ∂u f (z) − f (z0 ) ∂v = (x0 , y0 ) + (x0 , y0 ), i(y − y0 ) i ∂y ∂y
mit z = x0 + iy0 . Daraus ergeben sich die Cauchy-Riemann Gleichungen direkt nach Gleichsetzen der Real- und Imagin¨arteile von f (z0 ) mit Hilfe von 1i = −i. Beispiel 82.3. Im letzten Beispiel haben wir gesehen, dass u(x, y) = x+ 2xy ullen. Nach und v(x, y) = y − x2 + y 2 die Cauchy-Riemann Gleichungen erf¨ (82.9) erhalten wir als Ableitung der zugeh¨origen analytischen Funktion ∂v f = u + iv: f = ∂u ∂x + i ∂x = 1 + 2y + i(−2x). Dies stimmt mit unserer Beobachtung u ¨ berein, dass f (z) = z − iz 2 die Ableitung f (z) = 1 − 2iz = 1 − 2i(x + iy) = 1 + 2y − 2ix besitzt. Beispiel 82.4. Durch direktes Einsetzen mit Hilfe der Cauchy-Riemann Gleichungen erh¨ alt man, dass f (z) = ez = ex (cos(y) + i sin(y)) in C anad z 1 lytisch ist, mit dz e = ez . Daraus folgt, dass auch sin(z) = 2i (eiz − e−iz ) d und cos(z) = 12 (eiz + e−iz ) in C analytisch sind, mit dz sin(z) = cos(z) und d cos(z) = − sin(z). Vergleichen Sie auch Aufgabe 82.1. dz
82.11 Die Cauchy-Riemann Gleichungen in Polarkoordinaten Die Cauchy-Riemann Gleichungen nehmen in Polarkoordinaten z = reiθ die folgende Form an: 1 ∂v ∂u = , ∂r r ∂θ
∂v 1 ∂u =− . ∂r r ∂θ
(82.10)
Beispiel 82.5. Die Funktion Log(z) = log(|z|)+i Arg z ist in {z ∈ C : z = 0, 0 ≤ arg z < 2π} analytisch, wie sich aus den Cauchy-Riemann Gleichungen in Polarkoordinaten ergibt. Wir erinnern daran, dass log(z) = log(|z|) + i arg z mehrdeutig ist, da arg z mehrdeutig ist. Die Funktion log(z), bei der arg z auf 0 ≤ arg z < 2π beschr¨ ankt ist, ist jedoch eindeutig und analytisch.
82.12 Der Real- und der Imagin¨arteil einer analytischen Funktion Wir wollen nun beweisen, dass aus den Cauchy-Riemann Gleichungen (82.8) folgt, dass sowohl u(x, y) als auch v(x, y) in Ω harmonisch sind, d.h., dass ∆u = 0 und
∆v = 0 in Ω.
1168
82. Analytische Funktionen
Tats¨ achlich ergibt sich dies direkt durch Ableitung von (82.8) nach x und y, wenn wir davon ausgehen, dass u(x, y) und v(x, y) zweimal differenzierbar sind, da ∂2v ∂ 2u ∂2v ∂2u = = − 2 in Ω = (82.11) 2 ∂x ∂x∂y ∂y∂x ∂y und somit ∆u = 0 in Ω. Ganz ¨ ahnlich erh¨ alt man ∆v = 0 in Ω. Nun k¨ onnen wir zeigen, dass L¨ osungen der Cauchy-Riemann Gleichungen tats¨ achlich zweimal differenzierbar sein m¨ ussen, und dass folglich Real- und Imagin¨ arteile einer analytischen Funktion harmonisch sind. Wir fassen dies in folgendem Satz zusammen: Satz 82.2 Ist f : Ω → C auf einem offenen Gebiet Ω in der komplexen Ebene C analytisch, dann sind der Realteil u(x, y) = Re f (z) und der Imagin¨arteil v(x, y) = Im f (z) in Ω harmonisch.
82.13 Konjugiert harmonische Funktionen Sei u(x, y) in einem einfach verkn¨ upften Gebiet Ω in R2 harmonisch. Wir wollen nun zeigen, dass es eine harmonische Funktion v(x, y) gibt, die bis auf eine Konstante eindeutig bestimmt ist, so dass f (z) = u(x, y) + iv(x, y) analytisch in Ω ist. Wir sagen, dass die Funktion v(x, y) zu u(x, y) konjugiert ist. Um dies zu beweisen, l¨ osen wir einfach die Cauchy-Riemann Gleichungen ∇v = −∇ × u, wobei wir u aus dem zentralen Ergebnis in Kapitel Potentialfelder“ erhalten, wenn wir beachten, dass ∇×(−∇×u) = ∆u = 0, ” d.h. −∇ × u ist rotationsfrei und folglich der Gradient einer Funktion v. Vergleichen Sie auch Aufgabe 82.10. ur die Beispiel 82.6. F¨ ur die harmonische Funktion u(x1 , x2 ) = x1 x2 gilt f¨ ∂v ∂u 1 2 = = x , d.h. v = x + C(x1 ) konjugierte Funktion v(x1 , x2 ), dass ∂x 2 2 ∂x1 2 2 ∂v ∂u = − = −x ergibt sich C (x ) = −x f¨ ur eine Funktion C. Aus ∂x 1 1 1 und ∂x2 1 1 2 wir folgern, dass C(x1 ) = − 2 x1 + D mit einer beliebigen Konstanten D. Wir erkennen, dass auch v harmonisch ist und folgern daraus, dass u und seine konjugierte Funktion v die Real- und Imagin¨arteile der analytischen Funktion f (z) = x1 x2 + i( 12 x21 − 12 x22 ) = − 12 z 2 sind.
82.14 Die Ableitung einer analytischen Funktion ist analytisch Angenommen, f (z) ist analytisch in dem offenen Gebiet Ω in der komplexen ur z ∈ Ω Ebene. Dies bedeutet, dass die Ableitung f (z) existiert und f¨ eine komplexwertige Funktion ist. Nun k¨ onnen wir fragen, ob f (z) selbst wieder eine Ableitung in Ω besitzt, d.h. ob f (z) in Ω analytisch ist. Die
82.15 Kurven in der komplexen Ebene
1169
einfache Antwort lautet JA, wie wir unten beweisen werden. Ist daher f (z) in Ω analytisch, dann ist auch f (z) in Ω analytisch und somit ist auch die Ableitung von f (z), dies entspricht der zweiten Ableitung f (z), analytisch usw. Wir folgern, dass eine analytische Funktion beliebig oft differenzierbar ist. Dies ist eine bemerkenswerte Eigenschaft einer analytischen Funktion. Um die gestellte Frage zu beantworten, gen¨ ugt es zu beachten, dass f¨ ur Funktionen u(x, y) und v(x, y), die die Cauchy-Riemann Gleichungen erf¨ ullen, dies auch f¨ ur alle Ableitungen von u(x, y) und v(x, y) gilt. Insbesondere ∂v ∂u ∂v gilt dies f¨ ur ∂u ∂x und ∂x und daher ist f = ∂x + i ∂x in Ω analytisch. Wir formulieren dieses wichtige Ergebnis als Satz: Satz 82.3 Sei f : Ω → C auf einem offenen Gebiet Ω in der komplexen Ebene C analytisch. Dann sind alle Ableitungen f (n) (z), n = 1, 2, . . . von f (z) in Ω analytisch. Wir halten fest, dass f¨ ur eine reellwertige Funktion f : R → R einer reellen Variablen die analoge Aussage falsch sein kann: Selbst wenn f (x) existiert, folgt daraus nicht, dass auch f (x) existiert.
82.15 Kurven in der komplexen Ebene Sei Ω ein offenes Gebiet in der komplexen Ebene C und sei γ : I → Ω eine Lipschitz-stetige Funktion auf einem Intervall I = [a, b] in R. Wir sagen, dass Γ = Wertebereich von γ = {γ(t) : t ∈ I} eine durch γ(t) parametrisierte Kurve in C ist. Beispielsweise ist γ(t) = exp(it), wobei 0 ≤ t < 2π eine Parametrisierung des Einheitskreises ist. Im z
z = γ(t) a
t
b
t
Re z
Abb. 82.2. Eine Kurve z = γ(t)
Wir bezeichnen Γ als differenzierbare Kurve, wenn die zugeh¨orige Parametrisierung γ : I → C auf I differenzierbar ist, in dem Sinne, dass die entsprechende Funktion γ : I → R2 differenzierbar ist. Anders formuliert, so ist γ(t) auf I differenzierbar, wenn die Real- und Imagin¨arteile x : I → R
1170
82. Analytische Funktionen
und y : I → R von γ(t) = x(t) + iy(t) auf I differenzierbar sind. Wir sagen auch, dass γ : I → C auf I Lipschitz-stetig ist, wenn die zugeh¨orige Funktion γ : I → R2 Lipschitz-stetig ist. Es gibt folglich in diesem Zusammenhang ¨ keine Uberraschungen. Eine Kurve Γ mit Parametrisierung γ : [a, b] → C wird einfach geschlossen genannt, wenn γ(s) = γ(t) f¨ ur s < t, außer f¨ ur s = a und t = b. Wir nennen ein Gebiet Ω in C, das durch eine einfach geschlossene Kurve begrenzt ist, einfach zusammenh¨angend. Ein einfach zusammenh¨angendes Gebiet besitzt keine L¨ ocher“. ” Im z z = γ(t)
Re z
Abb. 82.3. Links, ein einfach zusammenh¨ angendes Gebiet mit Begrenzung z = γ(t) und rechts ein mehrfach zusammenh¨ angendes Gebiet mit einem Loch, dessen Begrenzung aus zwei einfach geschlossenen Kurven besteht
82.16 Konforme Abbildungen Sei f : Ω → C auf einem offenen Gebiet Ω in C analytisch. Wir wollen nun beweisen, dass die Abbildung z → w = f (z) in Ω konform ist, in dem Sinne, dass Winkel unter der Abbildung w = f (z) erhalten bleiben. Wir werden zeigen, dass dies eine direkte Folge der Kettenregel ist und der Tatsache, dass f (z) analytisch ist. Sei nun γ : I → C eine Kurve durch z0 ∈ Ω mit I = [−δ, δ] f¨ ur δ > 0 und γ(0) = z0 . Nun betrachten wir die Kurve κ(t) = f (γ(t)), die sich als Bild von γ(t) unter der Abbildung w = f (z) ergibt. Nach der Kettenregel gilt: dκ df dγ = . dt dz dt Wenn wir uns daran erinnern, dass das Argument des Produkts zweier komplexer Zahlen der Summe der Argumente der Zahlen entspricht, erhalten wir arg
dγ dκ (0) = Arg f (z0 ) + Arg (0), dt dt
82.16 Konforme Abbildungen
1171
wobei wir annehmen, dass f (z0 ) = 0. Da f (z) in z0 analytisch ist, ist f (z0 ) von der Kurve γ unabh¨ angig und daher unterscheidet sich die Tan(0) von der Richtung von dγ gentenrichtung dκ dt dt (0) durch den konstanten Wert Arg f (z0 ) und das unabh¨ angig von γ. Wir folgern, dass der Winkel zwischen zwei Kurven durch z0 identisch ist mit dem Winkel zwischen den zugeh¨ origen transformierten Kurven durch f (z0 ). Das bedeutet aber, dass die Abbildung w = f (z) in z0 konform ist: Winkel bleiben lokal erhalten. Im z
Im w
κ1 (t)
γ1 (t) κ2 (t) Re z
Re w
γ2 (t)
Abb. 82.4. Eine analytische Abbildung ist Winkel erhaltend
Beachten Sie, dass die Abbildung w = f (z) lokal die L¨angenverh¨altnisse
0 ver¨ andert, da um den Faktor |f (z0 )| = f (z) − f (z0 ) = |f (z0 )|. lim z→z0 z − z0 Ein Bild einer großen Figur kann aufgrund der Ver¨anderung der L¨angenverh¨ altnisse betr¨ achtlich verzerrt werden, obwohl die Abbildung w = f (z) lokal konform ist, vgl. Abb. 82.5. Wir wollen nun einige wichtige analytische Funktionen w = f (z) und die zugeh¨ origen konformen Abbildungen f : C → C vorstellen. Im z
Im w
Re z
Abb. 82.5. Eine konforme Abbildung mit großen Verformungen
Re w
1172
82. Analytische Funktionen
82.17 Verschiebung, Rotation, Ausdehnung bzw. Kontraktion Die lineare Abbildung w = f (z) = az + b, mit a, b ∈ C, entspricht einer Drehung um Arg a, einer Ausdehnung bzw. Kontraktion um |a| und einer Verschiebung um b, vgl. Abb. 82.6. Im z
Im w i
Re z
Re w 1
Abb. 82.6. Die Abbildung w = az + b mit a = 12 i und b = 1 + i
82.18 Inversion Die Abbildung w = f (z) =
1 z
wird auch als Inversion bezeichnet. Wir wollen nun zeigen, dass eine Inversion jede Gerade und jeden Kreis in der komplexen Ebene wieder in eine Im z
Im w
Re z
Abb. 82.7. Die Abbildung w = 1/z
Re w
82.19 M¨ obius-Abbildungen
1173
Gerade oder einen Kreis abbildet. Tats¨ achlich kann ein Kreis oder eine Gerade in R2 in der Form A(x2 + y 2 ) + Bx + Cy + D = 0 geschrieben werden, wobei A, B, C und D reell sind, mit A = 0 im Falle der Geraden. Ausgedr¨ uckt in z = x + iy und z¯ = x − iy, nimmt die Gleichung folgende Gestalt an: Az z¯ + B Die Substitution von z = A+B
1 w
z − z¯ z + z¯ +C + D = 0. 2 2i
liefert (nach Multiplikation mit ww): ¯
w ¯−w ¯ w ¯+w +C + Dww¯ = 0, 2 2i
wodurch wiederum ein Kreis oder eine Gerade dargestellt wird. w = 1/z 3
2
2
1
1
Im w
Im z
z 3
0
0
−1
−1
−2
−2
−3
−3 −2
0
2
−2
Re z
0
2
Re w
Abb. 82.8. Weitere Skizze zur Abbildung f (z) = 1/z. Beachten Sie, dass der Einheitskreis auf sich selbst abgebildet wird, wohingegen ein Kreis durch den Ursprung auf eine Gerade abgebildet wird. Beachten Sie auch, dass die Gerade y = ax mit a = 0, die durch den Ursprung verl¨ auft, in die konjugierte Gerade y = −ax abgebildet wird, wohingegen andere Geraden in Kreise abgebildet werden
82.19 Mo¨bius-Abbildungen Eine Abbildung der Form w = f (z) =
az + b , cz + d
mit a, b, c, d ∈ C, wird als M¨obius-Abbildung bezeichnet. Es gilt: f (z) =
ad − bc , (cz + d)2
1174
82. Analytische Funktionen
was uns zur Annahme von ad − bc = 0 f¨ uhrt, um Konformit¨at zu erhalten. Offensichtlich ist die Inversion w = 1z ein Spezialfall einer M¨obiusAbbildung. Es l¨ asst sich zeigen, dass durch eine M¨obius-Abbildung jede Gerade oder Kreis in der komplexen Ebene in einen Kreis oder eine Gerade abgebildet wird, vgl. Aufgabe 82.6. Beispiel 82.7. (Scheibe auf Scheibe) Die Funktion w = f (z) = eiα
z − z0 , 1 − z¯0 z
mit α ∈ R und z0 ∈ C mit |z0 | < 1, bildet die geschlossene Einheitsscheibe {|z| ≤ 1} auf die geschlossenen Einheitsscheibe {|w| ≤ 1} in einer eins-zuugt es zu eins Abbildung ab, mit f (z0 ) = 0. Um dies zu verifizieren, gen¨ zeigen, dass der Kreis {|z| = 1} auf den Kreis {|w| = 1} abgebildet wird. Beispiel 82.8. (Halbebene auf Einheitsscheibe) Die Funktion w = f (z) = eiα
z − z0 , z − z¯0
mit α ∈ R und Im z0 > 0, bildet die obere Halbebene {Im z > 0} auf die offene Einheitsscheibe {|w| < 1} mit f (z0 ) = 0 ab.
82.20 w = z 1/2, w = ez , w = log(z) und w = sin(z) Wir wollen einige Beispiele f¨ ur die Abbildungseigenschaften von Elementarfunktionen geben. Beispiel 82.9. Die Funktion w = f (z) = z 1/2 =
i |z|e 2 Arg z ,
bildet den Keil {0 ≤ arg z < θ} f¨ ur 0 ≤ θ < 2π auf den Keil {0 ≤ arg w < θ2 } ab, vgl. Abb. 82.9. w = z 1/2 4
2
2
Im w
Im z
z 4
0
−2
−4 −4
0
−2
−2
0
Re z
2
4
−4 −4
−2
0
2
Re w
Abb. 82.9. Darstellung der Abbildung f (z) = z 1/2
4
82.21 Komplexe Integrale: Ein erster Versuch
1175
Beispiel 82.10. Die Funktion w = ez bildet das Band {z = x + iy : x ∈ R, 0 ≤ y < 2π} auf die komplexe Ebene C ohne den Ursprung ab. Die Gerade {x + iy : x ∈ R} wird f¨ ur festes y auf die Halbgerade {(r, θ) : r > 0} mit θ = y abgebildet, wobei wir Polarkoordinaten benutzen. Beispiel 82.11. Die Funktion w = Log(z) bildet C ohne den Ursprung auf das Band {w ∈ C : 0 ≤ Im(w) < 2π} ab. Beispiel 82.12. Die Funktion 1 i(x+iy) (e − e−i(x+iy) ) 2i = sin(x) cosh(y) + i cos(x) sinh(y) = u(x, y) + iv(x, y)
w = f (z) = sin(z) =
π bildet das Band {z = x + iy : −π 2 < x < 2 , y ∈ R} auf {w = u + iv : v = 0 f¨ ur |u| > 1} ab, was der gesamten Ebene ohne die beiden Halbgeraden {u + iv : |u| > 1, v = 0} entspricht. Die Isolinien von u und v bilden Hyperbeln und Ellipsen, vgl. Abb. 82.10.
w = sin(z) 3
2
2
1
1
Im w
Im z
z 3
0
0
−1
−1
−2
−2
−3
−3 −2
0
Re z
2
−2
0
2
Re w
Abb. 82.10. Darstellung der Abbildung f (z) = sin(z)
82.21 Komplexe Integrale: Ein erster Versuch Wir beginnen mit einer direkten Erweiterung des Integrals einer differenzierbaren Funktion F : R → R auf das Integral einer analytischen Funktion F : C → C, wobei wir uns eng an die Vorlage im Kapitel Das Integral“ ” halten. Sei F (z) auf dem Gebiet Ω in der komplexen Ebene analytisch mit Lipschitz-stetiger Ableitung f (z) = F (z). Sei Γ eine differenzierbare Kurve in Ω, die durch γ : [a, b] → C parametrisiert wird und die Punkte za = γ(a) und zb = γ(b) miteinander verbindet. Sei ferner za = z0 , z1 , . . . , zn = zb eine Folge von Punkten auf Γ, die von za zu zb verlaufen, vgl. Abb. 82.11, wobei wir annehmen, dass zk = zk−1 f¨ ur k = 1, . . . , n.
1176
82. Analytische Funktionen Im z
Im w
Γ
F (zk ) F (zk−1 )
zk zk−1 Re z
Re w
origen Funktionswerten Abb. 82.11. Eine Kurve Γ mit Punkten zk und zugeh¨ F (zk )
Wir k¨ onnen F (zb ) − F (za ) =
n
(F (zk ) − F (zk−1 )) =
k=1
n F (zk ) − F (zk−1 ) k=1
zk − zk−1
(zk − zk−1 )
schreiben. Wenn wir maxk=1,...,n |zk − zk−1 | gegen Null gehen lassen, sind wir versucht, F (zb ) − F (za ) =
f (z) dz
(82.12)
Γ F (z )−F (z
)
k k−1 durch die zu schreiben, wobei wir zk − zk−1 durch dz und zk −zk−1 Ableitung F (zk−1 ) = f (zk−1 ) ersetzen. Wir erkennen, dass das Integral Γ f (z) dz, das gleich F (zb ) − F (za ) ist, daher unabh¨ angig von der Wahl der Kurve Γ ist, die za und zb verbindet. Als Spezialfall sehen wir, dass f¨ ur eine geschlossene Kurve Γ, das entspricht einer Wahl von za = zb , gilt: f (z) dz = 0. (82.13)
Γ
Wir erinnern uns daran, dass f (z) analytisch ist, wenn F (z) analytisch ist. Somit haben wir einen Grund gefunden, an den Satz von Cauchy zu glauben, nach dem das Integral einer analytischen Funktion f : Ω → C entlang einer einfach geschlossenen Kurve in Ω, die einen in Ω enthaltenen Bereich uml¨ auft, Null ist. Dies ist ein Eckstein in der Theorie u ¨ ber analytische Funktionen. Unten werden wir mit Hilfe der Greenschen Formel einen Beweis f¨ ur den Satz von Cauchy geben.
82.22 Komplexe Integrale: Der Allgemeinfall Sei Ω ein offenes Gebiet in der komplexen Ebene und sei Γ eine differenzierbare Kurve in C, die durch γ : [a, b] → C parametrisiert ist. Sei
82.22 Komplexe Integrale: Der Allgemeinfall
f = u + iv : Γ → C Lipschitz-stetig. Wir definieren b u(x(t), y(t)) + iv(x(t), y(t)) (x(t) ˙ + iy(t)) ˙ dt, f (z) dz = Γ
1177
(82.14)
a
wobei folglich rein formell dz = dx + idy = xdt ˙ + iydt ˙ = (x˙ + iy) ˙ dt gilt. Das Integral ist definiert, wenn u(x, y) und v(x, y) Lipschitz-stetig in (x, y) sind und x(t) ˙ und y(t) ˙ in t Lipschitz-stetig sind. Wie uns schon aus dem Kapitel Kurvenintegrale“ bekannt ist, ist das Integral von der Parametrisierung ” unabh¨ angig. Wir k¨ onnen das Integral wie u ¨blich als einen Grenzwert von Riemannschen Summen ausdr¨ ucken: n f (z) dz = lim f (zk−1 )(zk − zk−1 ), (82.15) n→∞
Γ
k=1
wobei za = z0 , z1 , . . . , zn = zb eine Folge von Punkten entlang Γ ist und maxk=1,...,n |zk − zk−1 | gegen Null geht, wenn n gegen Unendlich strebt. Unten benutzen wir auch ζ als komplexe Variable und schreiben dabei insbesondere: f (z) dz = f (ζ) dζ. Γ
Γ
Beispiel 82.13. Sei Γ ein Kreis um den Ursprung mit Radius Eins, der gegen den Uhrzeigersinn orientiert ist und durch γ(t) = eit = cos(t) + i sin(t) = (cos(t), sin(t)) mit 0 ≤ t < 2π parametrisiert ist. Sei f (z) = z n f¨ ur eine ganze Zahl n. F¨ ur n = 1 erhalten wir, da dz = (− sin(t) + i cos(t))dt = ieit dt:
2π
z n dz =
f (z) dz = Γ
eint (− sin(t) + i cos(t)) dt 0
Γ
2π
0
=
2π
eint eit dt = i
=i
ei(n+1)t dt 0
i [sin((n + 1)t) − i cos((n + 1)t)]2π 0 = 0. n+1
Dies entspricht dem Satz von Cauchy f¨ ur n = 0, 1, 2, . . ., da dann f (z) in C analytisch ist. F¨ ur n = −1 mit f (z) = 1z erhalten wir: Γ
1 dz = z
Γ
dz = z
0
2π
ieit dt = 2πi. eit
(82.16)
Beachten Sie die Orientierung von Γ gegen den Uhrzeigersinn. Die Funktion f (z) = 1z ist in dem von Γ umschriebenen Gebiet nicht analytisch, da 1z f¨ ur z = 0 nicht differenzierbar ist und daher kann das Integral Γ dz ungleich z Null sein. Wir werden unten sehen, dass die Ableitung von log(z) gleich 1z
1178
82. Analytische Funktionen
ist. Aber log(z) ist f¨ ur z = 0 nicht eindeutig definiert und daher kann Γ dz z ungleich Null sein. Die Funktionen f (z) = z n mit n = −2, −3, . . . sind alle Ableitungen von analytischen Funktionen und daher gilt Γ f (z) dz = 0, falls Γ eine geschlossene Kurve ist, die nicht durch 0 verl¨auft.
82.23 Wichtige Eigenschaften des komplexen Integrals Das komplexe Integral besitzt analoge Eigenschaften wie das u ¨bliche reelle Integral wie die Linearit¨ at, die Additivit¨ at u ¨ ber Teilintervalle und die partielle Integration. So gilt beispielsweise, wenn |f (z)| ≤ M f¨ ur z ∈ Γ: f (z) dz ≤ M ds = M L(Γ), (82.17) Γ
Γ
wobei L(Γ) der L¨ ange von Γ entspricht:
b
(x˙ 2 (t) + y˙ 2 (t))1/2 dt.
L(Γ) = a
Wenn wir die Absolutwerte in (82.15) nehmen und zum Grenzwert u ¨ bergehen, dann folgt daraus: f (z) dz ≤ |f (z)| |dz| = |f (z)| ds ≤ M L(Γ), Γ
Γ
Γ
wobei formal |dz| = ds gilt. Daher kann diese Absch¨atzung als verallgemeinerte Dreiecksungleichung betrachtet werden.
82.24 Die Taylor-Formel: Ein erster Versuch Sei f : Ω → C analytisch und Γ eine Gerade in Ω, die z0 mit z verbindet. Dann k¨ onnen wir schreiben: d f (z) = f (z0 ) + f (ζ) dζ = f (z0 ) + f (ζ) (ζ − z0 ) dζ. dζ Γ Γ So erhalten wir durch partielle Integration (mit den u ¨ blichen Regeln): f (z) = f (z0 ) + f (z0 )(z − z0 ) − f (ζ)(ζ − z0 ) dζ. Γ
82.25 Der Satz von Cauchy
Wenn wir fortsetzen und (ζ − z0 ) = f (z) = f (z0 ) + f (z0 )(z − z0 ) +
1 d 2 dζ (ζ
1179
− z0 )2 schreiben, erhalten wir:
f (z0 ) (z − z0 )2 + 2
f (3) (ζ) Γ
(ζ − z0 )2 dζ. 2
Wir folgern daraus, dass f¨ ur z nahe bei z0 gilt: f (z) = f (z0 ) + f (z0 )(z − z0 ) + mit
|Ef (z, z0 )| ≤ K Γ
f (z0 ) (z − z0 )2 + Ef (z, z0 ), 2
(82.18)
K |ζ − z0 |2 |dζ| = |z − z0 |3 , 2 6
ur ζ ∈ Γ. Ganz allgemein gelangen wobei wir annehmen, dass |f (3) (ζ)| ≤ K f¨ wir zur Taylor-Formel: Satz 82.4 Sei f : Ω → C in Ω analytisch mit |f (n+1) (z)| ≤ K f¨ ur z ∈ Ω. Dann gilt f¨ ur z, z0 ∈ Ω (wobei die Gerade, die z und z0 miteinander verbindet, in Ω ist): f (z) = f (z0 ) + f (z0 )(z − z0 ) + . . . + mit |Rn (z, z0 )| ≤
K (n+1)! |z
f (n) (z0 ) (z − z0 )n + Rn (z, z0 ), (82.19) n!
− z0 |n+1 .
82.25 Der Satz von Cauchy Wir werden nun beweisen, dass f¨ ur ein analytisches f (z) in Ω und einer einfach geschlossenen Kurve Γ in Ω, die einen Bereich ΩΓ umschreibt, der in Ω enthalten ist, gilt: f (z) dz = 0. Γ
Dazu schreiben wir f (z) dz = Γ
b
(u (x(t), v(t)) + iv (x(t), y(t))) (x(t) ˙ + iy(t)) ˙ dt,
a
wobei γ(t) = (x(t), y(t)) mit a ≤ t ≤ b eine Parametrisierung von Γ ist. Wenn wir den Realteil betrachten, erhalten wir: b f (z) dz = u(x(t), y(t))x(t) ˙ − v(x(t), y(t))y(t) ˙ dt Re Γ
a
b
(u(x, y), −v(x, y)) · (x, ˙ y)) ˙ dt.
= a
1180
82. Analytische Funktionen
Aus den Cauchy-Riemann Gleichungen ergibt sich ∇ × (u, −v) =
∂u ∂v + =0 ∂y ∂x
in ΩΓ ,
wodurch mit Hilfe des Satzes von Stokes (69.1) bewiesen ist, dass b (u(x, y), −v(x, y)) · (x, ˙ y) ˙ dt = (u(x, y), −v(x, y)) · ds a Γ ∇ × (u, −v)dxdy = 0. = ΩΓ
Wir folgern, dass Re( Γ f (z) dz) = 0 und ganz a¨hnlich erhalten wir, dass Im( Γ f (z) dz) = 0 und wir haben somit den folgenden Satz von Cauchy bewiesen: Satz 82.5 (Satz von Cauchy): Sei f (z) analytisch in Ω und Γ eine einfach geschlossene Kurve in Ω, die ein Gebiet in Ω umschreibt. Dann gilt f (z) dz = 0. Γ
Beachten Sie, dass Γ keine L¨ ocher“ in Ω umschreiben darf, auf denen ” f (z) nicht analytisch ist. So haben wir etwa gesehen, dass Γ z1 dz = 2πi = 0, falls Γ einen Kreis um den Ursprung beschreibt. Dies liegt daran, dass Γ den Punkt z = 0 umschreibt, in dem z1 nicht analytisch ist.
82.26 Die Cauchysche Integralformel Wir beweisen, dass f¨ ur eine analytische Funktion f (z) in einem offenen Gebiet Ω und einer einfach geschlossenen Kurve in Ω, die gegen den Uhrur zeigersinn orientiert ist und die das offenen Gebiet ΩΓ ⊂ Ω umschreibt, f¨ z0 ∈ ΩΓ gilt: 1 f (z) f (z0 ) = dz. (82.20) 2πi Γ z − z0 Dies ist die Cauchysche Integralformel. Beachten Sie die Orientierung gegen den Uhrzeigersinn. Beachten Sie ferner, dass z0 nicht auf der Kurve Γ liegen darf; wir gehen davon aus, dass z0 innerhalb von Γ liegt. Die Cauchysche Integralformel (82.20) zeigt uns, dass alle Werte von f (z) im Gebiet ΩΓ , das durch Γ begrenzt ist, nur von den Werten von f (z) auf Γ bestimmt ¨ werden. Das bedeutet, dass eine analytische Funktion keine Uberraschungen bergen kann: Wenn wir f (z) auf Γ kennen, dann kennen wir f (z) auf dem ganzen Gebiet ΩΓ , das von Γ begrenzt wird. Der Beweis ergibt sich aus der Beobachtung, dass die Funktion g(z) =
f (z) − f (z0 ) z − z0
f¨ ur z = z0 ,
g(z0 ) = f (z0 )
82.26 Die Cauchysche Integralformel
1181
in Ω analytisch ist, da g(z) offensichtlich f¨ ur z = z0 differenzierbar ist. Mit Hilfe einer Taylor-Entwicklung von f (z) folgt außerdem, dass g(z) auch in 0) . Tats¨achlich z = z0 differenzierbar ist, mit der Ableitung g (z0 ) = f (z 2 erhalten wir unter Ber¨ ucksichtigung von (82.18): g(z) − g(z0 ) =
f (z) − f (z0 ) − f (z0 )(z − z0 ) f (z0 ) = (z − z0 ) + Ef (z, z0 ) (z − z0 ) 2
2 mit |Ef (z, z0 )| ≤ K ur |f (3) (z)|, womit wir 6 |z − z0 | und K als Schranke f¨ das Gew¨ unschte bewiesen haben. Wir folgern, dass f (z) − f (z0 ) dz = 0 z − z0 Γ
und erhalten mit Hilfe von f (z0 ) 1 dz = f (z0 ) dz = 2πi f (z0 ) Γ z − z0 Γ z − z0 das gew¨ unschte Ergebnis (82.20). Wir fassen zusammen: Satz 82.6 (Cauchysche Integralformel): Sei f (z) auf einem offenen Gebiet Ω analytisch und Γ eine einfach geschlossene Kurve in Ω, die gegen den Uhrzeigersinn orientiert ist und ein offenes Gebiet ΩΓ in Ω umschreibt. Dann gilt f¨ u r z 0 ∈ ΩΓ : f (z) 1 dz. (82.21) f (z0 ) = 2πi Γ z − z0 Durch Ableitung nach z0 erhalten wir die folgende allgemeinere Integralformel: Satz 82.7 (Verallgemeinerte Cauchysche Integralformel): Sei f (z) auf einem offenen Gebiet Ω analytisch und Γ eine einfach geschlossene Kurve in Ω, die gegen den Uhrzeigersinn orientiert ist und ein offenes ur z0 ∈ ΩΓ und n = 0, 1, 2, . . .: Gebiet ΩΓ in Ω umschreibt. Dann gilt f¨ f (z) n! dz. (82.22) f (n) (z0 ) = 2πi Γ (z − z0 )n+1 Wir halten fest, dass f¨ ur ein z0 , das außerhalb des von Γ umschriebenen Bereichs liegt, f (z) 1 dz = 0, 2πi Γ z − z0 1 dz = 0 . Dies ergibt sich als einfache Konsequenz gilt, da in dem Fall Γ z−z 0 1 daraus, dass z−z0 im Gebiet, das Γ umschreibt, analytisch ist. Die Wahl uhrt zu einem divergenten Integral, aufgrund der Singularit¨at von z0 ∈ Γ f¨ 1 des Faktors z−z . Unten werden wir f¨ ur diesen Fall einen sinnvollen Wert 0 f¨ ur das Integral definieren.
1182
82. Analytische Funktionen
82.27 Die Taylor-Formel: Ein zweiter Versuch Mit Hilfe der Cauchyschen Integralformel erhalten wir nun eine andere Version der Taylor-Formel f¨ ur eine Funktion f (z), die in der Umgebung Ω eines Punktes z0 ∈ C analytisch ist. Wir beginnen damit, die Cauchysche Integralformel in der Form 1 f (ζ) dζ (82.23) f (z) = 2πi Γ ζ − z zu schreiben. Um Definitheit zu gew¨ ahrleisten, w¨ahlen wir Γ als gegen den Uhrzeigersinn orientierten Kreis um z0 mit Radius r, der in Ω enthalten ist. Mit Hilfe der Gleichung q n+1 1 = 1 + q + q2 + . . . + qn + , 1−q 1−q 0 f¨ ur q ∈ C mit |q| < 1, erhalten wir, wenn wir q = z−z ζ−z0 mit z ∈ Ω und ζ ∈ Γ setzen: $ n % n+1 z − z0 1 z − z0 1 z − z0 1 = + ... + , 1+ + ζ −z ζ − z0 ζ − z0 ζ − z0 ζ − z ζ − z0
wobei wir ausgenutzt haben, dass 1 1 1 1 = = . ζ−z ζ − z0 − (z − z0 ) ζ − z0 1 − q Das Einsetzen in (82.23) liefert uns 1 z − z0 f (ζ) f (ζ) f (z) = dζ + dζ + . . . 2πi Γ ζ − z0 2πi Γ (ζ − z0 )2 f (ζ) (z − z0 )n dζ + Rn (z), + 2πi (ζ − z0 )n+1 Γ mit Rn (z) =
(z − z0 )n+1 2πi
Γ
f (ζ) dζ. (ζ − z0 )n+1 (ζ − z)
(82.24)
Mit Hilfe der Cauchyschen Integralformel erhalten wir somit die folgende Taylor-Formel: Satz 82.8 Sei f (z) in der Umgebung Ω von z0 ∈ C analytisch. Dann gilt f (z) = f (z0 ) + f (z0 )(z − z0 ) + . . . +
f (n) (z0 ) (z − z0 )n + Rn (z), (82.25) n!
wobei der Restausdruck Rn (z) durch (82.24) gegeben ist, und Γ einen Kreis gegen den Uhrzeigersinn um z0 beschreibt.
82.28 Potenzreihenentwicklungen von analytischen Funktionen
1183
Gilt limn→∞ Rn (z) = 0 f¨ ur z in einer Umgebung Ω von z0 , so erhalten wir die folgende Potenzreihenentwicklung von f (z) f¨ ur z ∈ Ω: f (z) =
∞ f (n) (z0 ) (z − z0 )n . n! n=0
(82.26)
Wir beenden diese Diskussion mit dem Beweis, dass tats¨achlich f¨ ur z in einer Umgebung von z0 gilt: limn→∞ Rn (z) = 0 . Dazu nehmen wir an, dass die Kreisscheibe Dr (z0 ) = {z ∈ C : |z − z0 | ≤ r} im Gebiet Ω, in dem f (z) analytisch ist, enthalten ist und dass |f (z)| ≤ M f¨ ur z ∈ Dr (z0 ). Unter der Annahme, dass |z − z0 | < 2r , erhalten wir durch Einsetzen der Absolutbetr¨ age in (82.24) und der Tatsachen, dass |ζ − z| ≥ 2r und L(Γ) = 2πr: n+1 |z − z0 | |Rn (z)| ≤ 2M, r womit bewiesen ist, dass limn→∞ Rn (z) = 0 f¨ ur |z−z0 | ≤ 2r . Wir k¨onnen die Argumentation auf z mit |z − z0 | < r erweitern. Wir fassen dies zusammen: Satz 82.9 (Die Taylor-Formel) Sei f : Ω → C analytisch, Dr (z0 ) = {z ∈ C : |z − z0 | ≤ r} in Ω enthalten und f auf Dr (z0 ) beschr¨ankt. Dann kann f (z) f¨ ur |z − z0 | < r als konvergente Potenzreihe (82.26) formuliert werden. Potenzreihenentwicklungen von analytischen Funktionen wie in (82.26) spielen eine wichtige Rolle und wir widmen diesem Gebiet den n¨achsten Abschnitt, wobei wir mit dem Fall z0 = 0 beginnen wollen.
82.28 Potenzreihenentwicklungen von analytischen Funktionen Wir betrachten eine Reihe der Form ∞
am z m
(82.27)
m=0
mit Koeffizienten am ∈ C und wir gehen von z ∈ C aus. Die Vorstellungen u ur (82.27) sind analog zu ¨ ber Konvergenz und absolute Konvergenz f¨ z, vgl. das den entsprechenden Konzepten f¨ ur Reihen mit reellen ∞ am und am z m als absolut Kapitel Reihen“. Insbesondere bezeichnen wir m=0 ” ∞ konvergent, wenn m=0 |am z m | konvergent ist und halten fest, dass eine absolut konvergente Reihe konvergiert.
1184
82. Analytische Funktionen
Jeder Ausdruck in der Reihe (82.27) ist in C analytisch und somit ist auch jede der Teilsummen n
am z m
m=0
in C analytisch. Angenommen, die Reihe (82.27) konvergiere f¨ ur ein beeiner konvergenten Reihe stimmtes z = z ˆ mit |ˆ z | = r. Da die Ausdr¨ u cke b m ∞ ussen, gibt es folglich eine Konstante C, so m=0 bm gegen Null gehen m¨ dass |an zˆn | = |an |rn ≤ C
n = 0, 1, 2, . . .
Angenommen, es gelte |z| < r. Wir erhalten dann ∞
|an z n | =
n
n=0
∞ n z n z |an rn | ≤ C < ∞, r r n=0
∞ da < 1. Damit ist bewiesen, dass n=0 an z n absolut konvergent ist f¨ ur |z| < r und somit f¨ ur |z| < r konvergiert. ∞ sagen, dass der Konvergenzradius von n=0 an z n gleich r ist, wenn Wir ∞ n ur |z| < r konvergiert, aber divergiert ur ein z mit |z| ≥ r. n=0 an z f¨ ∞f¨ n Es l¨ asst sich (einfach) zeigen, dass eine Reihe n=0 an z innerhalb des Konvergenzradiuses r differenzierbar ist, mit ∞ ∞ n an z = nan z n−1 , | zr |
n=0
n=1
wobei diese Reihe, die Ausdruck f¨ ur Ausdruck abgeleitet wird, auch f¨ ur |z| < r konvergent ist. Ganz allgemein betrachten wir eine Potenzreihe der Form ∞
am (z − z0 )m ,
(82.28)
m=0
wobei wir eine Variablenverschiebung von z zu z−z0 vornehmen und z0 ∈ C gegeben ist. Die Formulierungen f¨ ur die Konvergenz und den Konvergenzradius lassen sich entsprechend einfach erweitern. Nat¨ urlich wird u ¨ ber (82.28) die Br¨ ucke zur Taylor-Entwicklung von f (z) in z0 mit am = schlagen. Beispiel 82.14. Die Reihe ∞ zn n! n=0
f (m) (z0 ) m!
ge-
82.29 Laurentreihen
1185
ist f¨ ur jedes feste z ∈ C konvergent, da n! = 1 · 2 · 3 · · · n viel schneller anw¨ achst als rn f¨ ur jedes r > 0. Wir k¨ onnen daher Ausdruck f¨ ur Ausdruck ableiten und erhalten: ∞ ∞ ∞ zn z n−1 zn = = . n! (n − 1)! n=0 n! n=0 n=1 ∞ n Wir erkennen daran, dass n=0 zn! die Differentialgleichung u (z) = u(z) f¨ ur die Anfangsbedingung“ u(0) = 1 l¨ ost. Daraus folgt, dass ” ∞ zn . (82.29) exp(z) = n! n=0 Dies ergibt sich alternativ auch aus der Beobachtung, dass diese Reihe der Taylor-Reihenentwicklung von f (z) = exp(z) um z0 = 0 entspricht, wenn wir beachten, dass f (n) (z) = exp(z) f¨ ur n = 1, 2, . . .. 1 Wenn wir cos(z) = 12 (exp(iz) + exp(−iz)) und sin(z) = 2i (exp(iz) − exp(−iz)) betrachten, erhalten wir die folgenden Taylor-Entwicklungen, die f¨ ur z ∈ C g¨ ultig sind: ∞
∞ z 2n z 2n+1 und sin(z) = . (−1) (−1)n cos(z) = (2n)! (2n + 1)! n=0 n=0 n
Beispiel 82.15. Ein anderes wichtiges Beispiel lautet: log(1 + z) =
(−1)n−1 zn, n n=1
f¨ ur |z| < 1.
Dies l¨ asst sich einfach durch Ableiten von log(1 + z) nachpr¨ ufen.
82.29 Laurentreihen Wir betrachten eine Reihe der Form ∞
bm z −m ,
(82.30)
m=1
∞ m die wir durch Ersetzen von z mit 1z in einer Potenzreihe m=1 bm z mit Konvergenzradius r erhalten. Die Reihe (82.30) konvergiert daher f¨ ur |z| > r. Ganz allgemein k¨ onnen wir eine Laurentreihe der Form f (z) =
∞ m=0
am z
m
+
∞ m=1
bm z −m
(82.31)
1186
82. Analytische Funktionen
betrachten, f¨ ur die wir Konvergenz in einem Segment {r1 < |z| < r2 } annehmen. Die durch (82.31) definierte Funktion f (z) ist in {r1 < |z| < r2 } analytisch. Ist andererseits f (z) in {r1 < |z| < r2 } analytisch, dann besitzt f (z) eine Laurentreihenentwicklung (82.31) mit den Koeffizienten am und bm , die durch f (ζ) 1 1 am = dζ und bm = f (ζ)ζ m−1 dζ (82.32) 2πi Γ ζ m+1 2πi Γ gegeben sind. Dabei ist Γ eine einfach geschlossene gegen den Uhrzeigersinn orientierte Kurve in {r1 < |z| < r2 }, die den Ursprung umschreibt. Die Formel f¨ ur die Koeffizienten erh¨ alt man durch Multiplikation mit einer geeigneter Potenz von z und Integration auf Γ. Wir k¨ onnen auf Verschiebungen des Ursprungs auf einen Punkt z0 verallgemeinern, wenn wir z durch z − z0 ersetzen. Beispiel 82.16. Es gilt: ∞ 1 zm = 1 − z m=0
f¨ ur |z| < 1,
∞ −1 1 = = z −m 1−z z(1 − z −1 ) m=1
f¨ ur |z| > 1.
82.30 Das Residuum: Einfache Pole Sei f (z) auf einem einfach zusammenh¨ angenden offenen Gebiet Ω analytisch, außer in einem isolierten Punkt z0 ∈ Ω. Sei Γ eine einfach geschlossene gegen den Uhrzeigersinn orientierte Kurve in Ω, so dass z0 im offenen Gebiet ΩΓ , das durch Γ begrenzt wird, enthalten ist. Wir sagen, dass die einfach geschlossene Kurve Γ den Punkt z0 gegen den Uhrzeigersinn uml¨auft. Im Allgemeinen wird das Integral f (z) dz Γ
dann nicht Null sein, aber das Integral wird f¨ ur jede derartige einfach geschlossene Kurve Γ, die z0 gegen den Uhrzeigersinn uml¨auft, denselben Wert annehmen. Wir erkennen dies, wenn wir zwei derartige Kurven Γ1 und Γ2 betrachten und zus¨ atzlich die beiden zusammenfallenden Kurven Γ± 3 mit entgegengesetzter Richtung, die wie in Abb. 82.12 die Kurven Γ1 und Γ2 verbinden. Wenn wir die Kurven Γ1 , Γ+ uckw¨arts) und 3 , −Γ2 (Γ2 r¨ Γ− 3 miteinander verbinden, erhalten wir eine einfach geschlossene Kurve, die ein Gebiet einschließt, auf dem f (z) analytisch ist, (d.h. das den Punkt z0 nicht enth¨ alt,) weswegen das Integral von f (z) mit dem Satz von Cauchy
82.30 Das Residuum: Einfache Pole
1187
verschwindet. Wenn wir jetzt bedenken, dass sich die Integrale u ¨ ber Γ+ 3 und − Γ3 aufheben, erhalten wir: 0= f (z) dz + f (z) dz = f (z) dz − f (z) dz, Γ1
−Γ2
Γ1
Γ2
ucksichtigt wobei wir die unterschiedliche Richtung von −Γ2 und Γ2 ber¨ haben. Daraus folgt, dass die Integrale u ber Γ und Γ gleich sind. ¨ 1 2 Γ1 −Γ3 z0
Γ3
−Γ2
Abb. 82.12. Zwei einfache Kurven Γ1 und −Γ2 (Γ2 r¨ uckw¨ arts), die z0 umlaufen. auft Zusammen mit den Kurven Γ± 3 bilden sie eine Kurve, die z0 nicht uml¨
Angenommen, f (z) habe die Form f (z) =
g(z) , z − z0
wobei g(z) in Ω und z0 ∈ Ω analytisch ist. Wir sagen dann, dass f (z) einen einfachen Pol in z = z0 besitzt. Aus der Cauchyschen Integralformel ergibt sich f¨ ur eine einfach geschlossene Kurve Γ, die z0 gegen den Uhrzeigersinn uml¨ auft, dass g(z) f (z) dz = dz = 2πig(z0 ). Γ Γ z − z0 Der Wert g(z0 ) wird Residuum von f (z) in z0 genannt und wir bezeichnen es mit Res f (z0 ). Daher gilt: Res f (z0 ) = g(z0 ) = lim (z − z0 )f (z). z→z0
z Beispiel 82.17. Sei f (z) = z−1 und sei Γ der Kreis γ(t) = (cos(t)− 1, sin(t)) mit 0 ≤ t ≤ 2π, der (1, 0) gegen den Uhrzeigersinn uml¨auft. Da offensichtlich Res f (1) = 1, gilt nach dem Residuensatz: z dz = 2πi. z − 1 Γ
1188
82. Analytische Funktionen
Beispiel 82.18. Wir berechnen Γ f (z) dz f¨ ur f (z) = ez1−1 und einen Kreis Γ, der gegen den Uhrzeigersinn orientiert und im Ursprung zentriert ist. Dazu beachten wir, dass f (z) =
ez
g(z) z 1 = −1z z
mit ez − 1 1 = = h(z). g(z) z Da limz→0 h(z) = 1 ist, erhalten wir Res f (0) = g(0) = 1 und somit ist f (z) dz = 2πi. Γ
82.31 Das Residuum: Pole beliebiger Ordnung Angenommen, f (z) habe einen (mehrfachen) Pol der Ordnung n = 2, 3, . . . in z0 , d.h. f (z) besitzt die Form f (z) =
g(z) , (z − z0 )n
wobei g(z) in einer Umgebung von z0 analytisch ist. Nach der verallgemeinerten Cauchyschen Integralformel erhalten wir f¨ ur eine einfach geschlossene Kurve Γ, die z0 gegen den Uhrzeigersinn uml¨auft: g(z) 2πi g (n−1) (z0 ). f (z) dz = dz = n (n − 1)! Γ Γ (z − z0 ) Nun k¨ onnen wir die Definition des Residuums Res f (z0 ) auf Pole der Ordnung n = 1, 2, . . . erweitern: Res f (z0 ) =
g (n−1) (z0 ) , (n − 1)!
wodurch wir wiederum erhalten: f (z) dz = 2πi Res f (z0 ). Γ
Beispiel 82.19. Die Funktion f (z) =
1 (z − 1)2 (z − 3)
hat einen Pol der Ordnung 2 in z = 1 und der Ordnung 1 in z = 3. Wir d 1 1 1 berechnen Res f (3) = 14 und Res f (1) = − 41 , da dz z−3 = − (z−3)2 = − 4 f¨ ur z = 1.
82.32 Der Residuensatz
1189
82.32 Der Residuensatz Wir wollen nun das folgende wichtige Ergebnis im Umgang mit Residuen beweisen: Satz 82.10 (Residuensatz) Sei f (z) in einem einfach zusammenh¨angenden offenen Gebiet Ω analytisch, außer in endlich vielen isolierten Punkten z1 , z2 , . . . , zn in Ω, in denen f (z) einfache oder mehrfache Pole besitzt. Sei Γ eine einfach geschlossene Kurve in Ω, die alle zm gegen den Uhrzeigersinn uml¨auft. Dann gilt: n f (z) dz = 2πiRes f (zm ). Γ
m=1
Wenn wir jedes der zm mit einem kleinen, gegen den Uhrzeigersinn orientierten Kreis Γm innerhalb von Γ umgeben, ergibt sich das Resultat mit Hilfe des Satzes von Cauchy: n f (z) dz + f (z) dz = 0, Γ
m=1
−Γm
wobei wir wie im Abschnitt 82.30 argumentieren. Dies f¨ uhrt uns zu n n f (z) dz = f (z) dz = 2πi Res f (zm ), Γ
Γm
m=1
m=1
womit wir das gew¨ unschte Ergebnis bewiesen h¨atten. Beispiel 82.20. Wir berechnen 4 − 3z 4 − 3z dz = dz I= 2 Γ z −z Γ z(z − 1) f¨ ur eine einfach geschlossene Kurve Γ, die die zwei einfachen Pole der Funkauft und erhalten I = 2πi(−4+1) = −6πi. tion 4−3z z 2 −z in z = 1 und z = 0 uml¨ Im z
Γ Γi zi Re z
Abb. 82.13. Eine Kurve Γ und Kurven Γi , die die Pole von f (z) umlaufen
1190
82. Analytische Funktionen
2π
82.33 Berechnung von
0
R(sin(t), cos(t)) dt
Wir betrachten ein Integral der Form
2π
R(sin(t), cos(t)) dt, 0
wobei R(x, y) eine rationale Funktion von x, y ∈ R ist. Durch folgende Substitution z = eit ,
dz = ieit dt = iz dt, 1 eit + e−it 1 = cos(t) = z+ , 2 2 z 1 1 eit − e−it = z− , i sin(t) = 2 2 z k¨onnen wir das Integral in
z2 − 1 z2 + 1 , 2iz 2z
R |z|=1
dz iz
umformen. Dieses Integral k¨ onnen wir mit Hilfe des Residuensatzes berechnen, falls der Integrand in |z| = 1 keine Pole hat. Beispiel 82.21. Wir berechnen
2π
I= 0
dt , a + cos(t)
mit Konstanter a > 1. Die eben formulierte Umformung f¨ uhrt uns zu dz dz = −2i , I = −2i 2 |z|=1 z + 2az + 1 |z|=1 (z − α)(z − β) √ √ mit α = −a + a2 − 1 und β = −a − a2 − 1. Da |α| < 1 und |β| > 1, 1 und somit ergibt sich f¨ ur das Integral: betr¨ agt das Residuum in α gleich α−β 2π I = √a2 −1 .
82.34 Berechnung von Integrale der Form
∞
p(x) −∞ q(x)
dx
∞
f (x) dx −∞
(82.33)
82.35 Anwendungen f¨ ur die Potentialtheorie in R2
1191
k¨ onnen mit Hilfe des Residuensatzes berechnet werden, wenn wir annehmen, dass die erweiterte Funktion f (z) mit z ∈ C keine Pole auf der reellen ur große |z|. Wir beginnen mit Achse besitzt und dass |f (z)| ≤ M |z|−2 f¨ der Berechnung des Integrals ∞ 1 I= dx, 1 + x2 −∞ 1 (ohne zu wissen, dass arctan(x) eine Stammfunktion von 1+x 2 ist). Wir schreiben R 1 dx = lim f (z) dz, I = lim R→∞ −R 1 + x2 R→∞ Γ R 1 mit f (z) = 1+z 2 . ΓR ist die Begrenzung der Halbscheibe |z| ≤ R mit Re z = x ≥ 0. Dies ergibt sich daraus, dass lim f (z) dz = 0, R→∞
Γ+ R
wobei Γ+ R den oberen Teil des Halbkreises mit Re z = x > 0 bezeichnet. Nach dem Residuensatz folgt, dass 1 f (z) dz = 2πi = π, 2i ΓR 1 innerhalb von ΓR gleich ist mit da das Residuum von f (z) = (z−i)(z+i) f¨ ur z = i. Wir folgern, dass ∞ f (x) dx = π,
1 z+i
−∞
was nat¨ urlich mit dem Ergebnis u ¨bereinstimmt, wenn wir 1 benutzen. 1+x2
d dx
arctan(x) =
Dieselbe Technik k¨ onnen wir einsetzen, falls f (x) = p(x) q(x) eine rationale Funktion ist, falls der Grad von q(x) mindestens um zwei gr¨oßer ist als der des Z¨ ahlers p(x). Wir k¨ onnen dieselbe Technik auch benutzen, um die Fouriertransformierte (s.u.) von p(x) q(x) zu berechnen: 1 2π
∞
−∞
p(x)eiξx dx. q(x)
82.35 Anwendungen fu ¨ r die Potentialtheorie in R2 Zwischen analytischen Funktionen und der Potentialtheorie in R2 besteht ein enger Zusammenhang, da f¨ ur eine analytische Funktion f (z) = u(x, y)+
1192
82. Analytische Funktionen
iv(x, y) in Ω der Real- und der Imagin¨ arteil u(x, y) und v(x, y) harmonisch in Ω sind, d.h. ∆u = ∆v = 0 in Ω. Andererseits, wie wir oben gesehen haben, existiert f¨ ur eine harmonische Funktion u(x, y) auf einem einfach zusammenh¨ angenden Gebiet Ω in R2 eine bis auf eine Konstante eindeutig bestimmte konjugiert harmonische Funktion v(x, y), so dass f (z) = u(x, y) + iv(x, y) in Ω analytisch ist, vgl. Aufgabe 82.10. Nach den Cauchy-Riemann Gleichungen gilt ∇u = ∇ × v, d.h.: ∂v ∂u ∂u ∂v , ,− ∇u = = ∇×v = . ∂x ∂y ∂y ∂x Daraus folgt, dass ∇u und ∇v zueinander orthogonal sind: ∇u · ∇v =
∂u ∂v ∂v ∂v ∂v ∂v ∂u ∂v + = − = 0. ∂x ∂x ∂y ∂y ∂y ∂x ∂x ∂y
Wir folgern daraus, dass die Isolinien von u(x, y) und der Konjugierten v(x, y) zueinander orthogonal verlaufen m¨ ussen. Dabei entsprechen die Isolinien von u(x, y) und v(x, y) in der z = (x, y)-Ebene den Isolinien der analytischen Funktion w = u + iv in der w = (u, v)-Ebene, auf denen u und v konstant sind. Tats¨ achlich entstammt viel von dem Interesse an analytischen Funktionen aus dieser Verbindung zur Potentialtheorie in R2 . Heutzutage haben die verf¨ ugbaren Berechnungsmethoden, die auch in der Lage sind, Probleosen, dieses Bild ver¨ andert und analytische Funktionen spielen me in R3 zu l¨ nun eine weniger wichtige Rolle bei Anwendungen aus der Str¨omungs- und Festk¨ orpermechanik. Anwendungen in der Str¨ omungsmechanik behandeln typischerweise inkompressible rotationsfreie Str¨ omungen in 2D, wobei u(x, y) f¨ ur ein Geschwindigkeitsfeld steht und v(x, y) f¨ ur eine assoziierte Str¨omungsfunktion. Die Geschwindigkeit U der Str¨ omung wird durch U = ∇u = ∇×v gegeben: ∂v ∂u ∂u ∂v , ,− U = ∇u = =∇×v = . ∂x ∂y ∂y ∂x Es gilt ∇ · U = ∆u = 0 und ∇ × U = −∆v = 0 und somit ist U inkompressibel und rotationsfrei. Die Isolinien von u(x, y) mit Normaler ¨ ∇u entsprechen Aquipotentialkurven und die Isolinien von v mit Normaler ∇v = −∇ × u entsprechen Bahnlinien, denen ein Fl¨ ussigkeitsteilchen mit der Geschwindigkeit U folgt. Wir folgern, dass jede analytische Funktion f (z) = u(x, y) + iv(x, y) mit einer bestimmten station¨aren inkompressiblen rotationsfreien Str¨ omung assoziiert werden kann und dass die Isolinien von u und v zueinander orthogonale Kurven bilden, wobei die Isolinien von v die Bahnlinien des Flusses beschreiben. Bei Anwendungen in der Elektromagnetik repr¨asentiert u(x, y) ein elektrisches Potential und ∇u ein elektrisches Feld und die Isolinien von v(x, y)
82.35 Anwendungen f¨ ur die Potentialtheorie in R2
1193
repr¨ asentieren die Kurven, die von elektrischen Teilchen im elektrischen Feld gezogen werden. Bei Anwendungen zum W¨ armefluss kann u(x, y) f¨ ur die Temperatur stehen und die Isolinien von u entsprechen folglich Isolinien der Temperatur. ∇u ist dabei dem W¨ armefluss proportional. Beispiel 82.22. (Fluss in eine Ecke) Die Funktion w = u + iv = z 2 beschreibt einen bestimmten Fluss in der Viertelebene {z = x + iy : x, y ≥ 0} mit zugeh¨ origem Potential u(x, y) = x2 − y 2 und Str¨omung v(x, y) = 2xy, vgl. Abb. 82.14. Isolinien f¨ ur Im(w) und Re(w) 2
2
1.8
1.6
Im z
1.4
1.2
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
Re z
1.2
1.4
1.6
1.8
2
Abb. 82.14. Isolinien f¨ ur Im(w) = 2xy (durchgezogen) und Re(w) = x2 − y 2 (gepunktet) f¨ ur w = z 2
¨ Die Aquipotentiallinien u(x, y) = konstant und die Stromlinien v(x, y) = konstant in der (x, y)-Ebene sind die Bilder der Linien u = konstant und v = konstant unter der Abbildung z = w1/2 , die die Halbebene {w = u+iv : v ≥ 0} auf die Viertelebene {z = x + iy : x, y ≥ 0} abbildet. Beispiel 82.23. (Drehender Tennisball) Wir betrachten zwei Typen von rotationsfreien inkompressiblen Str¨ omungen in zwei Dimensionen um den Einheitskreis {(x1 , x2 ) : x21 + x22 < 1}. Der erste Typ ergibt sich aus der Funktion f (z) = z + 1z , die in Polarkoordinaten z = reiθ lautet: 1 1 f (z) = u(r, θ) + iv(r, θ) = r + cos(θ) + i r − sin(θ). (82.34) r r Sie repr¨ asentiert einen symmetrischen Fluss mit Geschwindigkeit ≈ (1, 0) (weit) von der Scheibe entfernt. Die Isolinien von v(r, θ) entsprechen den Bahnlinien um die Scheibe herum, vgl Abb. 82.15. Der zweite Typ entspricht der Str¨ omung um die Scheibe, die durch K K iK log(z) = θ+i − log(r) (82.35) g(r, θ) = − 2π 2π 2π
1194
82. Analytische Funktionen Isolinien von Im(w) f¨ ur w = z + 1/z 4
3
2
Im z
1
0
−1
−2
−3
−4 −6
−4
−2
0
2
4
6
Re z Abb. 82.15. Isolinien von Im(w) f¨ ur w = z + 1/z
gegeben wird. Wir betrachten nun den Fluss, der durch f (z) und g(z) mit K log(r) beschrieben wird. Wir der Str¨ omungsfunktion (r − 1r ) sin(θ) − 2π k¨onnen uns diesen als Fluss um einen sich drehenden Tennisball in einem waagerechten Luftstrom denken, vgl. Abb. 82.16. Isolinien von Im(w) f¨ ur w = z + 1/z − i log(z) 4
3
2
Im z
1
0
−1
−2
−3
−4 −6
−4
−2
0
2
4
6
Re z Abb. 82.16. Isolinien von Im(w) f¨ ur w = z + 1/z − i log(z)
Wir erinnern uns nun an das Gesetz von Bernoulli, nach dem bei station¨ arem nicht-viskosen rotationsfreien Fluss die Gr¨oße p+ 2
|U |2 2
konstant ist, da ∇(p + |U| 2 ) = 0, wie sich durch direkte Berechnung ergibt, vgl. Aufgabe 82.13. Wir folgern daraus, dass hohe Geschwindigkeit zu geringem Druck f¨ uhrt. Wenn wir nun Abb. 82.16 betrachten, erkennen wir, dass die Geschwindigkeit unterhalb des Balls hoch ist (eng zusammen-
82.35 Anwendungen f¨ ur die Potentialtheorie in R2
1195
gedr¨ uckte Isolinien der Str¨ omungsfunktion), weshalb der Druck unterhalb des Balls gering ist, was zu einer resultierenden, nach unten gerichteten Kraft f¨ uhrt, die als Auftrieb bezeichnet wird. Dies ist der Grund daf¨ ur, dass der Top-Spin im Tennis so effektiv ist, um den Ball innerhalb des Spielfelds zu halten. Je gr¨ oßer der Top-Spin ist, desto st¨arker ist die Fluglinie gekr¨ ummt! Bj¨ orn Borg war einer der ersten, der dieses mechanische Gesetz richtig ausgenutzt hat. Es l¨ asst sich zeigen, dass der Auftrieb zur Zirkulation proportional ist, die sich aus u · ds Γ
ergibt, wobei Γ dem gegen den Uhrzeigersinn orientierten Einheitskreis entspricht. Die Zirkulation des Flusses aus Gleichung (82.34) ist aus Symmetriegr¨ unden gleich Null, wohingegen die Zirkulation, die sich aus (82.35) ergibt, gleich K ist. Der Auftrieb eines sich drehenden Tennisballs gibt uns einen Hinweis auf den Mechanismus hinter dem Fliegen. Tats¨achlich f¨ uhrt der Entwurf eines Fl¨ ugels, mit nicht-symmetrischem Durchschnitt und einer scharfen abreißenden Kante, eine Zirkulation um den Fl¨ ugel, der zu einem Auftrieb f¨ uhrt, vgl. Abb. 82.17. Str¨ omung um eine Tragfl¨ ache 2
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
0
0.5
1
1.5
2
2.5
3
Abb. 82.17. Str¨ omung um eine Tragfl¨ ache
Die Zirkulation im Uhrzeigersinn um den Fl¨ ugel mit Auftriebswirkung wird gewissermaßen durch gegen den Uhrzeigersinnn orientierte Wirbel in der turbulenten Schicht hinter dem Fl¨ ugel kompensiert, so dass die Gesamtrotation der Str¨ omung gleich Null ist.
1196
82. Analytische Funktionen Isolinien von Im(w) und Re(w) f¨ ur w = sin−1 (z) 4
3
2
Im z
1
0
−1
−2
−3
−4 −6
−4
−2
0
2
4
6
Re z Abb. 82.18. Isolinien von Im(w) (durchgezogen) und Re(w) (gepunktet) f¨ ur w = arcsin(z)
Beispiel 82.24. (Fluss durch eine Blende) Die Funktion # 1 " i(u+iv) z = sin(w) = e − e−i(u+iv) 2i = sin(u) cosh(v) + i(cos(u) sinh(v)) π bildet den Streifen {w = u + iv : −π 2 < u < 2 , v ∈ R} auf {z = x + iy : y = 0 f¨ ur |x| > 1} ab, d.h. die gesamte Ebene ohne die beiden Halbgeraden {x + iy : |x| > 1, y = 0}. Die zugeh¨ orige inverse Funktion w = f (z) = ur den Fluss durch eine Blende arcsin(z) = sin−1 (z) kann als das Potential f¨ betrachtet werden, vgl. Abb. 82.18. ¨ Die Bahnlinien entsprechen Hyperbeln und die Aquipotentiallinien bilden Ellipsen.
Beispiel 82.25. (Diskontinuierliches elektrisches Potential) Wir betrachten die Funktion f (z) = u(x, y)+iv(x, y) = i log(z) = i log(|z|)−Arg z in der rechten Halbebene {z ∈ C : Re z ≥ 0}. Es gilt u(x, y) = arctan( xy ) ¨ und v(x, y) = log(r) mit r = (x2 + y 2 )1/2 . Wir haben die Aquipotentialund die Isolinien der Kurven in Abb. 82.19 dargestellt. Beachten Sie, dass, wenn x gegen Null strebt, das Potential u(x, y) f¨ ur y > 0 ahert und f¨ ur y < 0 den Wert − π2 , was diskontinuierlichen den Wert π2 ann¨ Randwerten in x = 0 entspricht.
Aufgaben zu Kapitel 82 82.1. (a) Beweisen Sie, dass f (z) = ez analytisch ist mit f (z) = ez . (b) Beweisen Sie, dass sin(z) und cos(z) analytisch sind und die Ableitungen cos(z) und − sin(z) besitzen.
Aufgaben zu Kapitel 82
1197
Isolinien von Im(w) und Re(w) f¨ ur w = i log(z) 4
3
2
Im z
1
0
−1
−2
−3
−4
0
1
2
3
4
5
6
Re z Abb. 82.19. Isolinien von Im(w) (durchgezogen) und Re(w) (gepunktet) f¨ ur w = i log(z) 82.2. Wir k¨ onnen eine analytische Funktion f : C → C als eine Funktion F : R2 → R2 betrachten, wenn wir f (z) = u(x, y) + iv(x, y), z = x + iy und F (x, y) = (u(x, y), v(x, y)) setzen. Erkl¨ aren Sie den Zusammenhang zwischen der unden Sie auf diese Jacobi-Matrix F von F (x, y) und der Ableitung f und begr¨ Weise die Cauchy-Riemann Gleichungen. ahlen 82.3. Was passiert, wenn wir in der Cauchyschen Integralformel z0 ∈ Γ w¨ wollen? 82.4. Beweisen Sie den Satz von Liouville, nach dem f (z) konstant ist, wenn f (z) auf der gesamten komplexen Ebene analytisch und beschr¨ ankt ist. Hinweis: ur einen Kreis Γ mit großem Radius. Nutzen Sie die Integralformel f¨ ur f (z) f¨ 82.5. Beweisen Sie den Satz von Morera, nach dem f (z) in Ω analytisch ist, wenn f¨ ur f : Ω → C f¨ ur alle einfach geschlossenen Kurven in Ω gilt: Γ f (z) dz = 0. Hinweis: Definieren Sie F (z) = Γz f (ζ) dζ, wobei Γz eine Kurve ist, die einen festen Punkt z0 mit einem beliebigen Punkt z ∈ Ω verbindet. Zeigen Sie die Unabh¨ angigkeit von der Wahl von Γz und dass F (z) = f (z). 82.6. Beweisen Sie, dass durch eine M¨ obius-Abbildung jede Gerade und jeder Kreis in der komplexen Ebene in einen Kreis oder Gerade abgebildet wird. Hin1 in der Form: w = − ad−bc + ac . weis: Schreiben Sie w = az+b cz+d c cz+d 82.7. Berechnen Sie (a) 82.8. Beweisen Sie, dass
2π 0
∞
dθ 5−3 sin(θ)
−∞
sin θ θ
und (b)
∞
x −∞ 1+x4
dx.
= 2π.
82.9. Beweisen Sie (82.10). 82.10. Beweisen Sie, dass f¨ ur harmonisches u(x, y) in einem einfach zusammenh¨ angenden Gebiet Ω eine Funktion v existiert, so dass u + iv die CauchyRiemann Gleichungen in Ω erf¨ ullt. Hinweis: Benutzen Sie das zentrale Ergebnis im Kapitel Potentialfelder“. ”
1198
82. Analytische Funktionen
82.11. Konstruieren Sie eigene Beispiele f¨ ur zwei-dimensionalen Potentialfluss, Elektrostatik und den W¨ armefluss, indem sie Elementarfunktionen wie z α , ez , log(z), sin(z), sinh(z) und M¨ obius-Abbildungen kombinieren. 82.12. Geben Sie einen anderen Beweis f¨ ur die Cauchysche Integralformel, wobei g(z) auf dem Gebiet Ω = {z ∈ Ω : |z − z0 | > } analytisch Sie benutzen, dass z−z 0 g(z) ist, so dass Γ z−z0 dz = 0, wobei Γ die Begrenzung von Ω ist. Nun lassen Sie gegen Null gehen. 2
ur die Fl¨ ussigkeitsgeschwindig82.13. Zeigen Sie, dass ∇(p+ |u|2 ) = 0 in Ω, falls f¨ keit u = (u1 , u2 ), die auf dem Gebiet Ω in R2 definiert ist, gilt: ∇ · u = ∇ × u = 0. Außerdem l¨ ose u die station¨ are Impulsgleichung (u · ∇)u + ∇p − ∆u = 0 in Ω. 2 Damit wird das Gesetz von Bernoulli bewiesen, nach dem p + |u|2 konstant ist, so dass also hohe Geschwindigkeiten kleinem Druck entsprechen. 82.14. Bestimmen Sie das Bild des Kreises |z| = 1 und der Einheitsscheibe . Benutzen Sie das Ergebnis, um das |z| < 1 unter der Abbildung w = i(1−z) 1+z elektrostatische Potential ϕ(x, y), (z = x + iy) in der Einheitsscheibe |z| < 1 mit den folgenden Randwerten zu bestimmen: P, f¨ ur |z| = 1, x > 0, y > 0, ϕ(x, y) = 0, f¨ ur |z| = 1, x < 0, oder y < 0. 82.15. Sei T ein Dreieck mit den Ecken 0, 1 und 1 + i. Bestimmen Sie die Bilder z . von T unter der Abbildung w = 1−z 82.16. Bestimmen Sie eine harmonische Funktion ϕ(x, y) im Gebiet zwischen den Hyperbeln x2 − y 2 = 1 und x2 − y 2 = 4 mit den Randwerten (i) ϕ(x, y) = 2xy auf x2 − y 2 = 1 und (ii) ϕ(x, y) = 4xy auf x2 − y 2 = 4.
83 Fourier-Reihen
Gestern hatte ich meinen 21. Geburtstag. In dem Alter hatten Newton und Pascal bereits mehrfach Anspruch auf Unsterblichkeit erhoben. (Fourier 1789)
83.1 Einleitung In den folgenden zwei Kapiteln geben wir einen kurzen Einblick in die Fourier-Analyse. Wir beginnen in diesem Kapitel mit Fourier-Reihen und fahren im n¨ achsten Kapitel mit Fourier-Transformationen fort. Die zentrale Idee dabei ist, vorgegebene Funktionen als Linearkombinationen trigonometrischer Funktionen darzustellen (oder anzun¨ahern). Wir haben dieselbe prinzipielle Idee im Kapitel St¨ uckweise lineare N¨aherung“ kennen gelernt, ” in dem wir die N¨ aherung gegebener Funktionen durch die Linearkombination von st¨ uckweise definierten Polynomen untersucht haben. FourierDarstellungen haben besondere Eigenschaften, die z.B. in der Signal- und Bildverarbeitung n¨ utzlich sind, woraus sich wichtige Anwendungen ergeben, wie etwa die Computer-Tomographie. In j¨ ungerer Zeit wurden Varianten der Fourier-Analyse, die als Wavelets bezeichnet werden, entwickelt, die beispielsweise bei der Kompression von Bildern Verwendung finden. Wir werden auf diesen Aspekt am Ende des Kapitels Fourier-Transformation“ ” kurz eingehen. Fourier (1768–1830), vgl. Abb. 83.1, benutzte trigonometrische Reihen in seinem ber¨ uhmten Werk Th´eorie analytique de la chaleur (1822), um Eigenschaften von L¨ osungen der W¨ armegleichung zu untersuchen. Die Idee, all-
1200
83. Fourier-Reihen
Abb. 83.1. Fourier, Erfinder der Fourier-Reihen: Mathematik ist mit den ver” ¨ schiedensten Ph¨ anomenen vergleichbar und bringt die geheimen Ahnlichkeiten zwischen ihnen zum Vorschein“
gemeine Funktionen als eine Fourier-Reihe darzustellen (oder eine Potenzreihe) beeinflusste die Entwicklung der mathematischen Analyse grundlegend, vorangetrieben durch den beeindruckenden Erfolg dieser Techniken f¨ ur gewisse Problemklassen, wie beispielsweise f¨ ur Differentialgleichungen mit linearen konstanten Koeffizienten. Wie jedes hochgradig spezialisierte Werkzeug oder Lebewesen, so konnten diese Techniken sich jedoch nicht an die Notwendigkeiten einer sich ver¨ andernden Welt anpassen, in der auf Computer basierende Methoden zum Arbeitspferd f¨ ur nicht lineare Differentialgleichungen in den Anwendungen wurden. Nichtsdestotrotz spielt die Fourier-Analyse eine fundamentale Rolle f¨ ur das Grundverst¨andnis vieler Ph¨ anomene. Wir beginnen mit Fourier-Reihen im Komplexen und pr¨asentieren dann reelle Reihen als Spezialfall. Fourier-Reihen betreffen Funktionen f : R → C, die mit einer bestimmten Periode a > 0 periodisch sind, d.h. f (x+a) = f (x) f¨ ur x ∈ R. Oft normieren wir zu a = 2π und betrachten folglich 2πperiodische Funktionen f : R → C, f¨ ur die f (x + 2π) = f (x) f¨ ur x ∈ R gilt. Normalerweise beschr¨ anken wir unsere Betrachtungen auf reellwertige Funktionen f : R → R . Die Fourier-Transformation besch¨aftigt sich mit nicht periodischen Funktionen f : R → C . Wir werden sehen, dass f¨ ur eine gegebene 2π-periodische Funktion f (x) die Darstellung als eine Fourier-Reihe der Darstellung von f (x) als Linearkombination einer bestimmten Menge von trigonometrischen Funktionen {em (x)} entspricht: cm em (x), (83.1) f (x) = m
83.1 Einleitung
1201
mit bestimmten Koeffizienten cm ∈ C. Wir betrachten die Funktionen em (x) daher als Basisfunktionen und stellen eine allgemeine Funktion f (x) als eine bestimmte Linearkombination von Basisfunktionen dar. So ist beispielsweise f (x) = 0, 5 sin(2x) − 0, 8 sin(7x) eine Linearkombination der beiden Basisfunktionen sin(2x) und sin(7x) mit den Koeffizienten 0, 5 und 0, 8, vgl. Abb. 83.2. y = sin(2x) (—) und y = sin(7x) (· · · )
y = 0, 5 sin(2x) − 0, 8 sin(7x)
1.5
1.5
1
1
0.5
0.5
y
2
y
2
0
0
−0.5
−0.5
−1
−1
−1.5
−1.5
−2 −4
−2
0
2
−2 −4
4
x
−2
0
2
4
x
Abb. 83.2. Die Funktionen sin(2x) und sin(7x) und deren Linearkombination 0, 5 sin(2x) − 0, 8 sin(7x)
Die trigonometrischen Basisfunktionen em (x), die in den Fourier-Reihen benutzt werden, sind sin(mx),
cos(mx), m = 0, 1, 2, . . . ,
(reelle Fourier-Reihen)
(83.2)
oder eimx = cos(mx) + i sin(mx), m = 0, ±1, . . . , (komplexe Fourier-Reihen). (83.3) Jede Basisfunktion sin(mx), cos(mx) oder eimx ist periodisch mit der Peri2π und besitzt die (Winkel-) Frequenz oder Wellenzahl |m|. Je gr¨oßer ode |m| |m| ist, desto h¨ oher ist die Frequenz und desto schneller oszillieren “ die ” Funktionen sin(mx), cos(mx) und eimx . In der Reihe (83.1) wird f (x) als Linearkombination von Basisfunktionen mit steigenden Frequenzen dargestellt. Da die Basisfunktionen alle mit der Periode 2π periodisch sind, gilt dies auch f¨ ur die Linearkombination f (x). Die Basisfunktionen (83.2) und (83.3) sind bez¨ uglich des L2 (−π, π)Skalarprodukts π
(v, w) =
v(x)w(x) dx −π
(83.4)
1202
83. Fourier-Reihen
orthogonal. Dabei bezeichnet w(x) die komplex Konjugierte von w(x). Die zugeh¨ orige Norm ist v = (v, v)1/2 . Wegen der Orthogonalit¨at der Basisfunktionen k¨ onnen die Koeffizienten cm direkt aus dem L2 (−π, π)-Skalarprodukt von (83.1) mit em berechnet werden. Wir erhalten so: cm =
(f, em ) . (em , em )
83.2 Anlauf I: Orthonormale Basis in C Zur Vorbereitung betrachten wir Bekanntes in Cn : Wir erinnern uns, dass Cn der Menge aller geordneten n-Tupel x = (x1 , . . . , xn ) entspricht, mit xk ∈ C f¨ ur k = 1, . . . , n. Das Skalarprodukt (x, y) zweier Vektoren x und y n in Cn wird durch x · y = (x, y) = j=1 xj yj definiert, mit der zugeh¨origen Norm x = (x, x)1/2 . Sei nun {g1 , . . . , gn } eine Menge von n Vektoren in Cn , d.h. jedes gk = (gk1 , . . . , gkn ) ist ein Vektor in Cn mit den Komponenten gkj ∈ C. Wir erinnern daran, dass die Menge {g1 , . . . , gn } eine orthonormale Basis in Cn bildet, wenn die gk zueinander orthogonal sind und alle Vektoren die Norm Eins besitzen, d.h. (gk , gm ) = 0,
falls k = m
und gm = 1,
f¨ ur m = 1, . . . , n.
Ist {g1 , . . . , gn } eine orthonormale Basis, dann k¨onnen wir einen gegebenen Vektor u ∈ Cn als Linearkombination der Basisvektoren folgendermaßen darstellen: u=
n
cm g m ,
mit cm = (u, gm ) f¨ ur m = 1, . . . , n,
m=1
wobei cm = (u, gm ) sich ergibt, wenn wir das Skalarprodukt bilden und dabei die Orthonormalit¨ at beachten.
83.3 Anlauf II: Reihen Wir wiederholen aus dem Kapitel Reihen“, dass eine Reihe ∞ m=1 αm mit ” ∞ den Koeffizienten α ∈ C konvergent ist, falls die Folge {s } der Teilm n n=1 n summen sn = m=1 αm konvergiert, wenn n gegen Unendlich strebt. Die ∞ idenReihe heißt absolut konvergent, wenn m=1 |αm | konvergent ist, was n tisch ist zur Forderung, dass die Folge der Teilsummen sˆn = m=1 |αm | ur n = 1, 2, . . . , f¨ ur eine positinach oben beschr¨ ankt ist, d.h., dass sˆn ≤ K f¨ ve Konstante K. F¨ ur eine Reihe mit nicht negativen Summanden stimmen die Begriffe Konvergenz und absolute Konvergenz u ¨berein. Ein typisches
83.4 Komplexe Fourier-Reihen
1203
∞ Beispiel f¨ ur eine positive konvergente Reihe ist m=1 m−2 . Wir n (absolut) erkennen, dass sn = m=1 m−2 nach oben beschr¨ankt ist, indem wir n n m x−2 dx ≤ 1 + x−2 dx ≤ 1 + [−x−1 ]n1 ≤ 2. sn ≤ 1 + m=2
1
m−1
−α betrachten. Mit demselben Argument k¨ onnen wir zeigen, dass ∞ m=1 m f¨ ur α > 1 konvergent ist. ∞ Wir erinnern auch daran, dass eine alternierende Reihe m=1 (−1)m am , wobei {am } eine positive abnehmende Folge ist, die gegen Null strebt, konvergent ist.
83.4 Komplexe Fourier-Reihen Eine Reihe der Form ∞
cm eimx =
m=−∞
∞
c−m e−imx + c0 +
m=1
∞
cm eimx ,
(83.5)
m=1
mit x ∈ R wird Fourier-Reihe mit den Fourier-Koeffizienten cm ∈ C mit m = 0, ±1, ±2, . . . genannt. Die zugeh¨ orige abgeschnittene Fourier-Reihe lautet: n n n cm eimx = c−m e−imx + c0 + cm eimx , (83.6) m=−n
m=1
m=1
mit n = 1, 2, . . ., die als eine endliche Linearkombination aus der Menge der Basisfunktionen {1, e±ix , e±i2x , . . . , e±inx } mit Koeffizienten cm betrachtet werden kann. Die Orthogonalit¨ at der Basisfunktionen {eimx } formulieren wir wie folgt: π 0 f¨ ur k = m, imx −ikx e e dx = (83.7) 2π f¨ ur k = m. −π Dies ergibt sich direkt durch die Integration. ¨ Ublicherweise betrachten wir F¨ alle, in denen f¨ ur die Fourier-Koeffizienten cm gilt: |cm | ≤ Km−2 , m = ±1, ±2, . . . , (83.8) mit positiver Konstanten K. In diesen F¨ allen konvergiert die Reihe (83.5) absolut f¨ ur alle x, da ∞ −∞
|cm eimx | =
∞ −∞
|cm | ≤ |c0 | + 2K
∞ m=1
m−2 < ∞.
1204
83. Fourier-Reihen
Folglich wird durch die Reihe eine Funktion f : R → C definiert, die durch die konvergente Fourier-Reihe dargestellt wird: f (x) =
∞
cm eimx .
(83.9)
m=−∞
Die Reihe (83.9) liefert eine Spektralzerlegung von f (x) in die Winkelfunktionen eimx mit unterschiedlichen Amplituden cm , und somit eine Beschreibung der Funktion f (x) als Summe von Amplituden der verschiedenen Winkelfunktionen, die in f (x) enthalten sind. In der Musik k¨onnen wir uns f (x) als den Akkord“ denken, der aus einer Anzahl von T¨onen“ cm eimx ” ” mit unterschiedlichen Frequenzen m und Amplituden cm zusammengesetzt ist. Eine Spektralzerlegung eines Akkords“ f (x) w¨ urde uns die T¨one“ ” ” liefern, aus denen der Akkord“ zusammengesetzt ist, vgl. The Sound of ” Functions in unserem Mathematischen Labor“. ” Die Basisfunktionen {eimx } besitzen einen globalen Tr¨ager, d.h., jede Basisfunktion eimx ist f¨ ur alle x ∈ R ungleich Null. Die Basisfunktionen {eimx } verbinden somit die folgenden Eigenschaften: Orthogonalit¨at und globaler Tr¨ ager. Wir stellen dies den H¨ utchen-Funktionen“ gegen¨ uber, die ” f¨ ur die stetige st¨ uckweise lineare N¨ aherung als Basisfunktionen eingesetzt werden: Die H¨ utchen-Funktionen besitzen einen lokalen Tr¨ager, aber sie sind alle nicht (ganz) orthogonal zueinander. Die f¨ ur Basisfunktionen beste Kombination w¨ are Orthogonalit¨ at mit einem lokalen Tr¨ager. Sogenannte Wavelets, die in j¨ ungerer Zeit eingef¨ uhrt wurden, verbinden diese beiden Eigenschaften. Angenommen, f (x) sei durch eine konvergente Fourier-Reihe (83.9) definiert. Die Multiplikation mit e−imx mit m = 0, ±1, ±2, . . . und anschließende Integration u ¨ber das Intervall [−π, π] liefert mit Hilfe der Orthogonalit¨ atseigenschaft (83.7): π 1 f (x)e−imx dx, (83.10) cm = cm (f ) = 2π −π wobei wir die Abh¨ angigkeit des Fourier-Koeffizienten cm = cm (f ) von der Funktion f (x) angedeutet haben. Somit lautet die Darstellung als FourierReihe: ∞ f (x) = cm (f )eimx , (83.11) m=−∞
wodurch f (x) als Linearkombination der verschiedenen Winkelfunktionen uckt wird, wobei die Fouriereimx mit unterschiedlichen Frequenzen ausgedr¨ Koeffizienten cm (f ) durch (83.10) erhalten werden. Ist andererseits f : R → C eine gegebene 2π-periodische (Lipschitzstetige) Funktion und definieren wir cm (f ) durch (83.10), dann stellt sich die Frage, ob f (x) f¨ ur alle x durch ihre Fourier-Reihe (83.11) dargestellt werden kann. Wir werden unten beweisen, dass dies tats¨achlich stimmt,
83.5 Fourier-Reihen als Entwicklung in einer orthonormalen Basis
1205
wenn f (x) differenzierbar ist und 2π-periodisch. Dies ist das zentrale Ergebnis der Fourier-Analyse, nach der eine beliebige 2π-periodische differenzierbare Funktion durch ihre Spektralzerlegung in Form einer FourierReihe dargestellt werden kann. Dieses Ergebnis beinhaltet den Aspekt der Vollst¨ andigkeit“ der Basisfunktionen {eimx }, d.h., die Tatsache, dass jede ” differenzierbare Funktion als eine Fourier-Reihe darstellbar ist.
83.5 Fourier-Reihen als Entwicklung in einer orthonormalen Basis Wenn wir die Basisfunktionen eimx normieren, erhalten wir orthonormale ur die gilt: Basisfunktionen em (x) = √12π eimx , f¨ (em , ek ) = 0 falls k = m
und (em , em ) = 1.
(83.12)
Somit nimmt eine Fourier-Reihe in der normierten Basis die folgende Form an: f (x) =
∞
1 c˜m (f ) √ eimx , 2π m=−∞
1 c˜m (f ) = √ 2π
π
f (x)e−imx dx.
−π
Nat¨ urlich w¨ are es m¨ oglich, mit den normierten Basisfunktionen { √12π eimx } und den zugeh¨ origen Fourier-Koeffizienten c˜m (f ) zu arbeiten, wodurch √ die 2π-Faktoren in zwei 2π Faktoren aufgeteilt w¨ urden. Wir halten uns aber an die u ¨ blichere Schreibweise mit dem Faktor 2π bei den FourierKoeffizienten cm (f ) und den nicht normierten Basisfunktionen {eimx }. Dadurch wird die Schreibweise etwas vereinfacht.
83.6 Abgeschnittene Fourier-Reihen und beste L2-N¨aherung Die abgeschnittene Fourier-Reihe Sn f (x) =
n
cm (f )eimx
m=−n
einer gegebenen Funktion f (x) ist eine beste N¨aherung f¨ ur f (x) in dem Sinne, dass f − Sn f ≤ f − gn
1206
83. Fourier-Reihen
n f¨ ur jedes gn (x) = m=−n dm eimx mit dm ∈ C, m = 0, ±1, . . . , ±n. Dies liegt daran, dass aufgrund der Definition der Fourier-Koeffizienten (f − Sn f, em ) = 0
f¨ ur m = 0, ±1, . . . , ±n
und daher ist Sn f (x) in dem linearen Raum, der durch die Funktionen {1, e±ix, e±i2x , . . . , e±inx } aufgespannt wird, die beste N¨aherung in der ur f (x), vgl. Kapitel St¨ uckweise lineare N¨aherung“. L2 (−π, π)-Norm f¨ ”
83.7 Reelle Fourier-Reihen Wenn wir eimx = cos(mx) + i sin(mx) ausnutzen und dass cos(−mx) = cos(mx) und sin(−mx) = − sin(mx), k¨ onnen wir (83.9) folgendermaßen schreiben: ∞
cm e
imx
= c0 +
m=−∞
∞
am cos(mx) +
m=1
∞
bm sin(mx),
m=1
mit am = cm + c−m ,
bm = i(cm − c−m ),
m = 1, 2, . . . .
Ist f (x) reell, d.h. f : R → R, dann gilt c¯m = c−m und somit am = cm + c¯m = 2Re(cm ) ∈ R und bm = i(cm − c¯m ) = −2Im(cm ) ∈ R und folglich: cm =
bm am −i , 2 2
c−m =
bm am +i , 2 2
m = 0, 1, 2, . . . .
(83.13)
Die Fourier-Reihen reellwertiger 2π-periodischer Funktionen f : R → R k¨onnen daher alternativ auch als Sinus- und Kosinus-Reihe geschrieben werden: f (x) =
∞ ∞ a0 + am cos(mx) + bm sin(mx), 2 m=1 m=1
wobei am , bm ∈ R sich wie folgt ergeben: 1 π am = am (f ) = f (x) cos(mx) dx , π −π 1 π f (x) sin(mx) dx , bm = bm (f ) = π −π
f¨ ur m = 0, 1, 2, . . . , f¨ ur m = 1, 2, . . . .
Wir beachten, dass f¨ ur gerades f (x), d.h. f (x) = f (−x), bm = 0 f¨ ur m = 1, 2, . . . gilt, weswegen f (x) eine Darstellung als Kosinus-Reihe besitzt: ∞ a0 (f ) + am (f ) cos(mx). f (x) = 2 m=1
(83.14)
83.7 Reelle Fourier-Reihen
1207
Ist andererseits f (x) ungerade, d.h. f (x) = −f (−x), dann ist am = 0 f¨ ur m = 0, 1, . . . und somit besitzt f (x) eine Darstellung als Sinus-Reihe: f (x) =
∞
bm (f ) sin(mx).
(83.15)
m=1
In den folgenden Anwendungen betrachten wir normalerweise Kosinusund Sinus-Reihen f¨ ur reellwertige Funktionen f : R → R. Die komplexe Fourier-Reihe ist f¨ ur die Konvergenzanalyse von Fourier-Reihen n¨ utzlich. Wir wollen nun einige Beispiele geben, in denen die Fourier-Koeffizienten unterschiedlich schnell gegen Null konvergieren (wie m−2 , m−3 oder m−1 ). Beispiel 83.1. Sei f : R → R die 2π-periodische Funktion f (x) = |x| f¨ ur −π ≤ x ≤ π. Die Funktion f (x) ist reellwertig und gerade und besitzt daher eine Kosinus-Reihe der Form (83.14). Wir berechnen durch partielle Integration f¨ ur m > 0: 1 π 2 π a0 (f ) = f (x) dx = x dx = π, π −π π 0 1 π 2 π am (f ) = f (x) cos(mx) dx = x cos(mx) dx π −π π 0 $ %π 2 x sin(mx) 2 (−1)m − 1 2 π sin(mx) = dx = − . π m π 0 m π m2 0 ur m ungerade und (−1)m − 1 = 0 f¨ ur m gerade, Da (−1)m − 1 = −2 f¨ lautet die Fourier-Reihe von f (x) = |x| wie folgt: |x| =
∞ 4 cos((2k − 1)x) π − . 2 π (2k − 1)2 k=1
Wir haben die zugeh¨ origen abgeschnittenen Reihen f¨ ur verschiedene Endwerte n in Abb. 83.3 dargestellt. Abbruch bei n = 2
Abbruch bei n = 6
3.5
3.5
3
3
2.5
2.5
y
2
y
2 1.5
1.5
1
1
0.5
0.5
0 −4
−2
0
x
2
4
0 −4
−2
0
x
2
4
Abb. 83.3. Die Summe der ersten beiden und der ersten sechs Ausdr¨ ucke der Fourier-Reihe von |x| (gepunktet)
1208
83. Fourier-Reihen
Beispiel 83.2. Sei f : R → R die ungerade 2π-periodische Funktion f (x) = x(π − x) f¨ ur 0 ≤ x ≤ π. Wir berechnen ihre Sinus-Reihe: 1 π 2 π f (x) sin(mx) dx = x(π − x) sin(mx) dx bm (f ) = π −π π 0 $ %π 2 π (π − 2x) cos(mx) 2 x(π − x) cos(mx) dx + =− π m π 0 m 0 $ %π π 2 (π − 2x) sin(mx) 2 = + 2 sin(mx) dx πm m πm2 0 0 =
4 (1 − (−1)m ). πm3
Beispiel 83.3. Wir definieren eine 2π-periodische Funktion f (x) durch 1 f¨ ur |x| < a, f (x) = 0 f¨ ur a < |x| ≤ π, mit 0 < a < π, vgl. Abb. 83.4. Abbruch bei n = 19 1.5
1
1
0.5
0.5
y
y
Abbruch bei n = 3 1.5
0
−0.5 −4
0
−2
0
2
4
−0.5 −4
−2
0
2
4
x x Abb. 83.4. Die Summe der ersten 3 und der ersten 19 Ausdr¨ ucke der Fourier-Reihe einer st¨ uckweise konstanten Funktion (gepunktet)
Dies entspricht einer st¨ uckweise Lipschitz-stetigen 2π-periodischen geraden Funktion, f¨ ur die wir die Fourier-Koeffizienten berechnen k¨onnen. Wir erhalten bm (f ) = 0 f¨ ur m > 0 und π 1 2 a 2 sin(ma) (83.16) am (f ) = f (x) cos(mx) dx = cos(mx) dx = π −π π 0 πm und a0 (f ) =
2a π .
Wir erwarten daher, dass ∞ a 2 sin(ma) f (x) = + cos(mx). π π m=1 m
83.8 Grundlegende Eigenschaften der Fourier-Koeffizienten
1209
Wir werden unten auf diese Gleichung zur¨ uckkommen, wobei wir besonders auf die Werte x = ±a schauen werden, in denen f (x) unstetig ist.
83.8 Grundlegende Eigenschaften der Fourier-Koeffizienten Wir stellen nun einige grundlegende Eigenschaften der Fourier-Koeffizienten π 1 f (x)e−imx dx, m = 0, ±1, ±2, . . . cm (f ) = 2π −π f¨ ur eine gegebene 2π-periodische Lipschitz-stetige Funktion f : R → C vor.
Linearit¨at Fourier-Koeffizienten erf¨ ullen die folgenden offensichtlichen Linearit¨atseigenschaften: cm (f + g) = cm (f ) + cm (g),
cm (αf ) = αcm (f ),
wobei f und g zwei Funktionen mit den Fourier-Koeffizienten cm (f ) und cm (g) sind und α ∈ C.
Fourier-Koeffizienten der Ableitung Df = f Wir schlagen nun eine Verbindung zwischen den Fourier-Koeffizienten der df Ableitung Df = dx einer 2π-periodischen Funktion f : R → C zu den Fourier-Koeffizienten von f . Der Trick dabei ist die partielle Integration: Mit Hilfe der Periodizit¨ at von f (x) erhalten wir: π π 1 1 −imx cm (Df ) = Df (x)e dx = im f (x)e−imx dx = im cm (f ), 2π −π 2π −π womit wir bewiesen haben: Satz 83.1 Sei f : R → C eine 2π-periodische und differenzierbare Funktion mit der Ableitung Df . Dann gilt f¨ ur m = 0, ±1, ±2, . . . cm (Df ) = im cm (f ).
(83.17)
Dies ist eines der grundlegenden Ergebnisse der Fourier-Analyse, wodurch d nach x in eine Multiplikation der Fourier-Koeffiziendie Ableitung D = dx ten mit im u berf¨ u hrt wird, wobei m die Frequenz ist. Damit erschließt sich ¨ ¨ der Weg f¨ ur die Uberf¨ uhrung von Differentialgleichungen der Variablen x zu algebraischen Gleichungen in der Frequenz m, was f¨ ur einige Anwendungen sehr n¨ utzlich und aufschlussreich sein kann.
1210
83. Fourier-Reihen
Wir k¨ onnen direkt verallgemeinern: Satz 83.2 Sei f : R → C eine 2π-periodische und k-fach differenzierbare Funktion mit den Ableitungen Dk f . Dann gilt f¨ ur m = 0, ±1, ±2, . . . cm (Dk f ) = (im)k cm (f ).
(83.18)
Beispiel 83.4. Wir betrachten die Differentialgleichung Du(x) + u(x) = f (x), wobei f (x) eine gegebene 2π-periodische Funktion ist. Wir suchen eine 2π-periodische L¨ osung u(x). Diese Gleichung modelliert beispielsweise eine Serienschaltung eines Widerstands mit einem Kondensator, wobei u(x) eine Stammfunktion des Stroms ist, f (x) die angelegte Spannung und x steht f¨ ur die Zeit, vgl. das Kapitel Elektrische Stromkreise“. Alternativ ” kann Du(x)+u(x) = f (x) eine Serienschaltung eines Widerstands mit einer Spule modellieren, wobei u(x) diesmal f¨ ur den Strom steht und f (x) wiederum f¨ ur die angelegte Spannung. F¨ ur die Fourier-Koeffizienten erhalten wir mit Hilfe von Satz 83.1: im cm (u) + cm (u) = cm (f ) und somit cm (u) =
(1 − im)cm (f ) cm (f ) = . 1 + im 1 + m2
Wir erkennen daran, dass die angedeuteten Stromkreise als sogenannte Tiefpassfilter wirken, die die Eigenschaft haben, hochfrequente Komponenten zu d¨ ampfen: Wir betrachten f (x) als Eingabe und u(x) als Ausgabe und halten fest, dass die hochfrequenten Fourier-Koeffizienten von u(x) schneller abnehmen als die von f (x). Beispiel 83.5. Wir betrachten die Differentialgleichung −D2 u(x) + u(x) = f (x), wobei f (x) eine gegebene 2π-periodische Funktion ist. Wir suchen eine 2π-periodische L¨ osung u(x). Da cm (D2 u) = (im)2 cm (u), erhalten wir die folgende algebraische Gleichung f¨ ur die Fourier-Koeffizienten: (m2 + 1)cm (u) = cm (f )
f¨ ur m = 0.
Wir k¨ onnen daher die L¨ osung u(x) von −D2 u(x)+ u(x) = f (x) als FourierReihe u(x) =
∞ cm (f ) imx e 2+1 m −∞
∞ darstellen, falls die Funktion f (x) als Fourier-Reihe f (x) = −∞ cm (f )eimx gegeben ist. Wiederum erkennen wir, dass die Differentialgleichung als Tiefpassfilter wirkt, der hochfrequente Komponenten der Eingabe f (x) d¨ampft.
83.8 Grundlegende Eigenschaften der Fourier-Koeffizienten
1211
Beispiel 83.6. Noch allgemeiner betrachtenwir die folgende Differentialgleiq chung p(D)u(x) = f (x), wobei p(D) = k=0 ak Dk eine Differentialgleichung mit konstanten Koeffizienten ak ∈ C ist, f (x) ist eine 2π-periodische Funktion und wir suchen eine 2π-periodische L¨osung u(x). Mit denselben Argumenten wie oben erhalten wir die folgende Gleichung f¨ ur die FourierKoeffizienten: q p(im)cm (u) = ak (im)k cm (u) = cm (f ), k=0
d.h. unter der Annahme, dass p(im) = 0 (oder cm (f ) = 0, falls p(im) = 0): cm (u) =
cm (f ) , p(im)
wodurch wir die Fourier-Reihe f¨ ur die L¨ osung erhalten, falls die FourierReihe f¨ ur die Eingabe f (x) bekannt ist.
Die Fourier-Koeffizienten cm (f ) streben f¨ur |m| → ∞ gegen Null Als direkte Folge der obigen Ergebnisse folgern wir, dass die Fourier-Koeffizienten cm (f ) einer 2π-periodischen differenzierbaren Funktion f (x) mit integrierbarer Ableitung Df gegen Null streben, wenn |m| gegen Unendlich geht: Da |im cm (f )| = |cm (Df )|, erhalten wir: π 1 1 |cm (f )| = |cm (Df )| ≤ |Df | dx → 0 , f¨ ur |m| → ∞. |m| 2π|m| −π Ist andererseits f (x) eine 2π-periodische Funktion mit integrierbarer Ableitung Dk f der Ordnung k > 1, dann gilt f¨ ur m = ±1, ±2, . . . , π 1 |Dk f | dx. |cm (f )| ≤ 2π|mk | −π Wir folgern, dass cm (f ) umso schneller gegen Null konvergiert, je gr¨oßer k ist. Wir k¨ onnen uns auch in die Richtung auf weniger Regularit¨at bewegen und fragen, ob wir zeigen k¨ onnen, dass die Fourier-Koeffizienten cm (f ) gegen Null streben, wenn |m| → ∞, falls wir nur von der schw¨acheren Annahme ausgehen, dass f nur Lipschitz-stetig ist. An dieser Stelle halten wir zun¨ achst fest, dass f¨ ur alle −π < a < b < π gilt: b 1 [e−imx ]ba → 0 f¨ e−imx dx = ur m → ∞. (83.19) −im a Dies kann als Folge der schnellen Oszillation von e−imx f¨ ur großes |m| betrachtet werden, wodurch viele Eintr¨ age zu jedem Integral der Form (83.19)
1212
83. Fourier-Reihen Die Aufhebung von “+“ und “-“ Teilen im Integral von y = cos(100x) 1 0.8 0.6 0.4
+ + + + + + + + +
y
0.2 0 −0.2
− − − − − − − − −
−0.4 −0.6 −0.8 −1 0
0.1
0.2
0.3
0.4
0.5
0.6
x Abb. 83.5. Eine Darstellung der Tatsache, dass f¨ ur großes m klein wird
0.7
b a
0.8
0.9
1
cos(mx)dx und
b a
sin(mx)dx
ausgel¨ oscht werden, was dazu f¨ uhrt, dass die Integrale gegen Null gehen, wenn m gegen Unendlich strebt, vgl. Abb. 83.5. Liegt eine st¨ uckweise konstante Funktion f (x) auf [−π, π] vor, die als Linearkombination von Funktionen dargestellt werden kann, die in einem Intervall [a, b] ⊂ [−π, π] konstant gleich Eins sind und sonst Null, so zeigt ur |m| → ∞. die Absch¨ atzung (83.19), dass dann cm (f ) → 0 f¨ Ferner wissen wir, dass eine Lipschitz-stetige Funktion f : [−π, π] → C durch eine st¨ uckweise konstante Funktion f˜(x) angen¨ahert werden kann, so dass π |f (x) − f˜(x)|dx −π
so klein wird, wie wir wollen. Dies f¨ uhrt uns zum ber¨ uhmten Satz 83.3 (Riemann-Lebesgue Lemma) Sei f : [−π, π] Lipschitz-stetig. Dann gilt cm (f ) → 0 f¨ ur |m| → ∞. Die Annahmen kann auf st¨ uckweise Lipschitz-stetige Funktionen erweitert werden.
Faltung F¨ ur zwei 2π-periodische Funktionen f (x) und g(x) definieren wir eine neue 2π-periodische Funktion f ∗ g durch: π (f ∗ g)(x) = f (x − y)g(y) dy, x ∈ R. −π
83.8 Grundlegende Eigenschaften der Fourier-Koeffizienten
1213
Wir sagen, dass f ∗ g die Faltung von f und g ist. Die Substitution von y = x − t liefert: π π (f ∗ g)(x) = f (t)g(x − t) dt = f (y)g(x − y) dy −π
−π
und folglich kann der Integrand die Form f (x − y)g(y) oder f (y)g(x − y) haben. Wir wollen nun beweisen, dass cm (f ∗ g) = 2π cm (f )cm (g).
(83.20)
¨ Durch direkte Berechnung mit Hilfe einer Anderung der Integrationsreihenfolge und der Substitution t = x − y erhalten wir: π 1 cm (f ∗ g) = (f ∗ g)(x)e−imx dx 2π −π π π 1 = f (x − y)g(y) dy e−imx dx 2π −π −π π π 1 −imy −im(x−y) = g(y)e f (x − y) e dx dy 2π −π −π π π 1 = g(y)e−imy f (t) e−imt dt dy 2π −π −π π g(y)e−imy dy = 2πcm (f )cm (g). = cm (f ) −π
Beispiel 83.7. Sei g : R → R die 2π-periodische Funktion 1 f¨ ur − a ≤ x ≤ a, g(x) = 2a g(x) = 0 sonst mit 0 < a < π. F¨ ur kleines a k¨ onnen wir g(x) als eine N¨aherung an die Delta-Funktion betrachten. Die Faltung a π 1 f (x − y)g(y) dy = f (x − y) dy (f ∗ g)(x) = 2a −a −π liefert einen Durchschnitt von f (x) u ¨ber dem Intervall [x − a, x + a]. Wenn wir uns an (83.16) erinnern und (83.20) benutzen, erhalten wir: cm (f ∗ g) = cm (f )
sin(ma) . ma
Wir folgern, dass cm (f ∗ g) nahe bei cm (f ) ist, wenn ma klein ist und dass cm (f ∗ g) viel kleiner ist als cm (f ), wenn ma groß ist. Die FourierKoeffizienten des Durchschnitts f ∗ g nehmen daher schneller ab als die von f und daher ist f ∗ g eine gegl¨ attete Version von f : Durchschnittsbildung erh¨ oht die Glattheit, wie sich an den schnell abnehmenden FourierKoeffizienten zeigt.
1214
83. Fourier-Reihen
83.9 Die Fourier-Inversion Wir wollen nun beweisen, dass f¨ ur eine 2π-periodische und differenzierbare Funktion f : R → C f¨ ur alle x ∈ R gilt: lim
n→∞
n
cm (f )eimx = f (x).
−n
Anders formuliert, so kann die Funktion f (x) als eine konvergente FourierReihe dargestellt werden: f (x) =
∞
cm (f )eimx ,
f¨ ur x ∈ R.
m=−∞
Wir erhalten: π n n 1 cm eimx = f (y)e−imy dy eimx 2π −π −n −n π π n 1 im(x−y) = f (y) e dy = f (y)Dn (x − y) dy, 2π −n −π −π (83.21) wobei, wenn wir θ = x − y setzen, Dn (θ) =
n 2n 1 imθ 1 −inθ imθ e e = e 2π −n 2π m=0
1 −inθ 1 − ei(2n+1)θ 1 e−i 2 e−inθ − ei(n+1)θ e = iθ 2π 1−e 2π e−i θ2 1 − eiθ 1 sin(nθ + θ2 ) = 2π sin( θ2 ) θ
=
der Dirichlet-Kern ist. Dabei haben wir ausgenutzt, dass 2n sogenannte imθ eine finite geometrische Reihe mit Faktor eiθ ist. Mit Hilfe der m=0 e Schreibweise f¨ ur die Faltung k¨ onnen wir (83.21) in Kompaktform schreiben: n
cm eimx = f ∗ Dn (x).
−n
ahert, erwarten wir von Dn , dass es Damit f ∗ Dn (x) die Funktion f (x) ann¨ sich etwa wie die Identit¨ at verh¨ alt. Wir haben in Abb. 83.6 eine Zeichnung von Dn (θ) dargestellt. Wir erkennen, dass D oszilliert und bei θ = 0 eine Spitze besitzt. nn(θ) imθ 1 Ausdruck f¨ ur Ausdruck u Wenn wir Dn (θ) = 2π ¨ ber [−π, π] in−n e tegrieren und dabei beachten, dass alle bis auf einen der integrierten Ausdr¨ ucke verschwinden, erkennen wir, dass die Gesamtfl¨ache (mit Vorzeichen)
83.9 Die Fourier-Inversion
1215
Dn (θ) f¨ ur n = 5 (· · · ) und n = 25 (—) 10
8
6
4
2
0
−2 −4
−3
−2
−1
0
1
2
3
4
θ Abb. 83.6. Eine Zeichnung von Dn (θ)
unter dem Graphen von Dn gleich Eins ist, d.h., π Dn (θ) dθ = 1,
(83.22)
−π
womit einer der Gesichtspunkte bei der Vorstellung, dass Dn sich wie die Identit¨ at verh¨ alt, zum Ausdruck kommt. Der andere Gesichtspunkt bei dieser Ann¨ aherung ist, dass die Spitze in 0 von Dn zunehmend fokussiert, wenn n anw¨ achst. Mit Hilfe von (83.22) k¨ onnen wir schreiben: π 1 (f (x) − f (y))Dn (x − y) dy f (x) − f ∗ Dn (x) = 2π −π π 1 1 g(x, y) sin n+ = (x − y) dy 2π −π 2 mit g(x, y) =
f (x) − f (y) . sin( x−y 2 )
Ist nun f (x) zweifach differenzierbar, dann ist g(x, y) f¨ ur alle y ∈ R nach y mit der Ableitung Dg(x, y) differenzierbar (vergleichen Sie dies mit dem entsprechenden Argument beim Beweis der Cauchyschen Integralformel). Die partielle Integration liefert uns daher π 1 1 1 Dg(x, y) cos n + f (x)−Dn ∗ f (x) = − (x − y) dy → 0 2π n + 12 −π 2 f¨ ur n → ∞. F¨ ur den Fall, dass f (x) mit st¨ uckweise Lipschitz-stetiger Ableitung differenzierbar ist, ist Dg(x, y) Lipschitz-stetig in y. Das RiemannLebesgue Lemma f¨ uhrt zu derselben Schlussfolgerung. Wir fassen dies im folgenden wichtigen Satz zusammen:
1216
83. Fourier-Reihen
Satz 83.4 Sei f : R → C 2π-periodisch mit st¨ uckweise Lipschitz-stetiger Ableitung. Dann kann f (x) durch eine konvergente Fourier-Reihe dargestellt werden: ∞ cm (f )eimx , f¨ ur x ∈ R, f (x) = m=−∞
wobei die Koeffizienten cm durch (83.10) gegeben werden. Die Annahmen f¨ ur f (x) k¨ onnen etwas abgeschw¨acht werden: Die Annahme, dass f (x) st¨ uckweise differenzierbar ist mit st¨ uckweise Lipschitzstetiger Ableitung, gen¨ ugt. An einer Unstetigkeitsstelle x konvergiert die Fourier-Reihe gegen den Mittelwert des Grenzwertes auf der linken Seite f − (x) = limy→x,y<x f (y) und des Grenzwertes auf der rechten Seite f + (x) = limy→x,y>x f (y): ∞
cm (f )eimx =
m=−∞
f − (x) + f + (x) . 2
(83.23)
Beispiel 83.8. Wir erhalten:
⎧ ⎪ ur |x| < a, ∞ ⎨1 f¨ sin(ma) 1 cos(mx) = 2 f¨ ur |x| = a, ⎪ πm ⎩ m=1 0 f¨ ur |x| > a.
83.10 Parseval- und Plancheral-Formeln Sei f : R → C eine 2π-periodische Funktion mit einer konvergenten FourierReihe: ∞ f (x) = cm (f )eimx , (83.24) m=−∞
mit cm (f ) =
1 2π
π
f (x)e−imx dx.
−π
Mit Hilfe der Orthogonalit¨ at (83.7) der Funktionen {eimx } erhalten wir: π π |f (x)|2 dx = f (x)f (x) dx −π −π ∞ π ∞ imx −ikx = cm (f )e ck (f )e dx −π
=
m=−∞
∞ m,k=−∞
cm (f )ck (f )
k=−∞ π
−π
eimx e−ikx dx = 2π
∞ m=−∞
|cm (f )|2 .
83.11 Orts- versus Frequenzanalyse
1217
Somit haben wir den viel ger¨ uhmten Satz bewiesen: Satz 83.5 (Parseval-Formel) Wenn f (x) eine Darstellung als konvergente Fourier-Reihe besitzt, dann gilt:
π
−π
|f (x)|2 dx = 2π
∞
|cm (f )|2 .
m=−∞
Wir k¨ onnen dies offensichtlich verallgemeinern: Satz 83.6 (Plancherel-Formel) Wenn f (x) und g(x) Darstellungen als konvergente Fourier-Reihen besitzen, dann gilt:
π
f (x)g(x) dx = 2π −π
∞
cm (f )cm (g).
m=−∞
83.11 Orts- versus Frequenzanalyse Nun wollen wir uns einen Augenblick zur¨ ucklehnen und u ¨ ber die Eigenschaften der Fourier-Reihen nachdenken. Sei f (x) eine gegebene 2π-periodische Funktion. Wenn wir das Verhalten der Funktion f (x) beschreiben wollen, d.h. die Ver¨ anderung von f (x) mit x, k¨onnen wir versuchen, eine Art von Liste von Werten von f (x) f¨ ur verschiedene x Werte aufzustellen. Wir k¨ onnen dies als eine Art physikalische Beschreibung bezeichnen, wobei wir uns x als eine Orts- oder Zeitvariable vorstellen. Mit der Hilfe von Fourier-Reihen k¨ onnen wir stattdessen die Funktion f (x) als eine FourierReihe, die durch ihre Fourier-Koeffizienten {cm (f )} bestimmt wird, darstellen. Die Beschreibung von f (x) durch ihre Fourier-Koeffizienten kann als eine Beschreibung durch die Frequenz betrachtet werden. Bei der physikalischen Beschreibung, beschreiben wir die Funktion f mit Hilfe von Funktionswerten f (x) f¨ ur verschiedene Werte von x. Bei der Frequenzbeschreibung beschreiben wir f mit Hilfe der Fourier-Koeffizienten cm (f ) als eine Summe f (x) = m cm (f )eimx . Um eine vorgegebene Funktion f (x) zu beschreiben, k¨onnen wir daher Ver¨ anderungen von f (x) mit x betrachten oder Ver¨anderungen von cm (f ) mit m. Wir bemerkten, dass die Abnahme von cm (f ) mit m mit der Regularit¨at (Glattheit) von f (x) zusammenh¨ angt: Ist f (x) hochgradig regul¨ar mit vielen Ableitungen, dann nehmen die Fourier-Koeffizienten cm (f ) schnell mit wachsendem m ab und umgekehrt. Wenn die Fourier-Koeffizienten schnell abnehmen, dann gen¨ ugen nur einige Ausdr¨ ucke der Fourier-Reihe, um die Funktion mit hoher Genauigkeit darzustellen.
1218
83. Fourier-Reihen
83.12 Verschiedene Perioden Sei f : R → C periodisch mit der Periode 2π ω mit ω > 0. Wir haben bisher den Fall ω = 1 betrachten und wollen nun auf ω > 0 verallgemeinern. Zum Beispiel sind die Funktionen sin(ωx), sin(2ωx), sin(3ωx),. . . periodisch mit der Periode 2π ω . Wenn wir g(x) = f ( ωx ) definieren, dann ist die Funktion g(x) 2π-periox 2π x disch, da g(x + 2π) = f ( x+2π ω ) = f ( ω + ω ) = f ( ω ) = g(x) und die Fourier-Reihe von g(x) lautet: π ∞ 1 g(x) = cm (g)eimx , cm (g) = g(y)e−imy dy. 2π −π m=−∞ Sie kann in die folgende Fourier-Reihe von f ( ωx ) u uhrt werden: ¨ berf¨ ∞ π "x# "y# 1 f = e−imy dy. cm (g)eimx , cm (g) = f ω 2π ω −π m=−∞ gegen x und ωy gegen y erhalten wir: ωπ ω cm (f ) = f (y)e−imωy dy. (83.25) 2π − ωπ
Nach Substitution der Variablen f (x) =
∞
cm (f )eimωx ,
m=−∞
x ω
83.13 Weierstrasssche Funktionen Wir betrachten eine Reihe der Form ∞ a−m sin(bm x),
(83.26)
m=1
mit a > 1 und b > a. Diese Art von Reihen wurde von Weierstrass als ein Beispiel f¨ ur eine Lipschitz-stetige Funktion vorgestellt, die in keinem Punkt differenzierbar ist,vgl. Abb. 83.7. Darin haben wir die zugeh¨orin ge abgeschnittene Reihe m=1 a−m sin(bm x) f¨ ur n = 10 dargestellt. Wir k¨onnen erkennen, dass die Reihen f¨ ur anwachsendes n zunehmend wilder oszillieren und einen irregul¨ aren chaotischen“ Eindruck vermitteln. ” Da a > 1, ist die Reihe (83.26) absolut konvergent und durch sie wird ∞ eine Funktion f (x) = m=1 a−m sin(bm x) definiert. Dagegen divergiert die Reihe ∞ a−m bm cos(bm x), m=1
die wir durch Ableitung jedes Summanden erhalten, da ab > 1 und somit ist f (x) nirgendwo differenzierbar. Die Weierstrasssche Funktion, oder die
83.14 L¨ osung der W¨ armegleichung mit Fourier-Reihen
1219
Abgeschnittene Weierstrasssche Funktion mit n = 10 f¨ ur a = 2 und b = 3 0.9
0.8
0.7
0.6
y
0.5
0.4
0.3
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
x
0.6
0.7
0.8
0.9
1
Abb. 83.7. Zeichnungen einer abgeschnittenen Weierstrassschen Funktion
zugeh¨ orige abgeschnittene Reihe, ist ein Beispiel einer Funktion mit einer Folge von Mikroskalen“ b2π origen m , m = 1, 2, . . . entsprechend der zugeh¨ ” verschiedenen Basisfunktionen sin(bm x). Die Funktion f (x) besitzt daher auf allen Skalen dieselbe oszillierende Eigenschaft und besitzt daher eine fraktale“ Eigenschaft, die n¨ utzlich sein kann, um Mikroskalen zu model” lieren, die auf andere Weise nicht numerisch modelliert werden k¨onnen. Die Wahl von b = 2 (oder jede nat¨ urliche Zahl > 1) ergibt eine Reihe der −m m a sin(2 x), die ein Beispiel f¨ ur eine l¨ uckenhafte FourierForm ∞ m=1 Reihe ist, bei der nur einige wenige Fourier-Koeffizienten ungleich Null sind. Eine Weierstrasssche Funktion f¨ ur eine nat¨ urliche Zahl b ist daher eine l¨ uckenhafte Fourier-Reihe.
83.14 Lo¨sung der Wa¨rmegleichung mit Fourier-Reihen Wir betrachten die ein-dimensionale homogene W¨armegleichung: u(x, ˙ t) − u (x, t) = 0 u(0, t) = u(π, t) = 0 u(x, 0) = u0 (x)
f¨ ur 0 < x < π, t > 0, f¨ ur t > 0,
(83.27)
f¨ ur 0 < x < π
mit einem gegebenen Anfangswert u0 . Wir beobachten, dass die Funktion 2 ur m = 1, 2, . . . die Gleichungen v(x, t) = vm (x, t) = e−m t sin(mx) f¨ v(x, ˙ t) − v (x, t) = 0
f¨ ur 0 < x < π,
v(0, t) = v(π, t) = 0
erf¨ ullt und daher l¨ ost jede Linearkombination u(x, t) =
J m=1
bm e−m t sin(mx) 2
f¨ ur t > 0
1220
83. Fourier-Reihen
mit Koeffizienten bm ∈ R die Gleichungen (83.27) mit zugeh¨origen AnfangsJ −m2 t sin(mx) entspricht daten u0 = m=1 bm sin(mx). Jeder Ausdruck e einem Produkt einer Funktion, n¨ amlich sin(mx) mit der Frequenz m, die 2 nur von x alleine abh¨ angt und einer Funktion von t, n¨amlich e−m t . Der 2 ur wachsendes t ab und die Abnahme nimmt schnell Faktor e−m t nimmt f¨ mit anwachsender Frequenz m zu. Wir haben dies in Abb. 83.8 dargestellt. v1 (x, t) zur Zeit t = 0, 1 (· · · ) und t = 0, 5 (—)
1
v3 (x, t) zur Zeit t = 0, 1(· · · ) und t = 0, 5 (—)
0.5
0.5
0
0
−0.5
−1 −4
−2
0
2
4
−0.5 −4
−2
0
2
4
x x Abb. 83.8. Die L¨ osung vj (x, t) der W¨ armegleichung mit den Frequenzen j = 1 und j = 3
Ganz allgemein l¨ ost die Funktion u(x, t) =
∞
bm (u0 )e−m t sin(mx) 2
(83.28)
m=1
das Anfangswertproblem (83.27), falls die Anfangsdaten u0 in einer konvergenten Sinus-Reihe (d.h. u0 (x) ist eine ungerade Funktion auf [−π, π]) u0 (x) =
∞
bm (u0 ) sin(mx)
(83.29)
m=1
darstellbar sind, mit den Fourier-Koeffizienten 2 π bm (u0 ) = u0 (x) sin(mx) dx. π 0
(83.30)
83.15 Berechnung von Fourier-Koeffizienten durch Quadratur Um die Fourier-Koeffizienten 2π 1 f (x)e−imx dx, cm (f ) = 2π 0
m = 0, ±1, ±2, . . .
83.16 Die diskrete Fourier-Transformation
1221
f¨ ur eine gegebene 2π-periodische Funktion f : R → C zu berechnen, werden wir im Allgemeinen zur Quadratur greifen m¨ ussen. Mit Hilfe der Quadra, n = 0, . . . , N − 1 mit den Gewichten ωn = 2π turpunkte xn = 2πn N N , was einer Quadraturformel mit linkem Endpunkt und N gleichf¨ormig verteilten Punkten entspricht, erhalten wir eine N¨ aherung von cm (f ) durch: cm (f ) =
1 2π
2π
f (x)e−imx dx ≈
0
N −1 1 f (xn )e−imxn ωn = f(m). 2π n=0
Wir k¨ onnen nicht erwarten, dass diese Quadraturformel f¨ ur m > N genau ist, da dann die Ver¨ anderungen in eimx nicht durch die Quadraturpunkte 2πn onnen. Wir erkennen, dass f(m) periodisch ist mit PeN erfasst werden k¨ riode N : Das heißt, f(m) = f(m + N ), weswegen es nat¨ urlich ist, f(m) f¨ ur m = 0, . . . , N − 1 zu betrachten oder, was ¨ aquivalent ist, |m| ≤ (N − 1)/2. Wir bezeichnen (N − 1)/2 als die Nyquistsche Abbruchfrequenz. So erhalten wir eine Formel mit mindestens 2 Quadraturpunkten in jeder Periode f¨ ur alle Frequenzen m mit |m| ≤ (N − 1)/2. Unter der Annahme, dass die Fourier-Koeffizienten cm (f ) klein genug sind, falls m gr¨oßer als die Abbruchfrequenz ist, k¨ onnen wir mit Hinblick auf die Fourier-Inversion hoffen, dass f (xn ) ≈
N −1
f(m)eimxn
f¨ ur n = 0, . . . , N − 1,
(83.31)
m=0
womit wir somit eine gen¨ aherte diskrete Fourier-Zerlegung f¨ ur die ausgew¨ ahlten Werte xn erhalten, die von der Berechnung der Fourier-Koeffizienten cm (f ) f¨ ur m = 0, . . . , N − 1 durch Quadratur ausgeht. Dies f¨ uhrt uns direkt zur diskreten Fourier-Transformation, die wir als N¨achstes untersuchen wollen.
83.16 Die diskrete Fourier-Transformation −1 Sei {fn }N n=0 eine Menge von N gegebenen komplexen Zahlen. Wir definie−1 ren eine zugeh¨ orige Folge {fm }N m=0 durch: N −1 1 fn e−2πimn/N , fm = N n=0
f¨ ur m = 0, . . . , N − 1.
−1 Wir sagen, dass die Folge {fm }N m=0 die diskrete Fourier-Transformierte der N −1 Folge {fn }n=0 ist. Im Zusammenhang mit dem obigen Abschnitt haben wir fn = f ( 2πn N ) und fm ≈ cm (f ).
1222
83. Fourier-Reihen
Aus diesen Definitionen erhalten wir N −1
f(m)e2πimn/N =
m=0
=
N −1
N −1 1 fk e−2πimk/N e2πimn/N N m=0 k=0
N −1
fk
k=0
1 N
N −1
e2πim(n−k)/N
m=0
und mit Hilfe von N −1 1 2πim(n−k)/N e = N m=0
1 falls k = n, 0 sonst,
kommen wir zu folgender Fourier-Inversion, vgl. (83.31) fn =
N −1
f(m)e2πimn/N ,
f¨ ur n = 0, . . . , N − 1.
(83.32)
m=0 −1 Zur Berechnung der diskreten Fourier-Transformation von {fn }N n=0 be2 n¨ otigen wir etwa N Operationen (Multiplikationen und Additionen). Ist N = 2k f¨ ur eine nat¨ urliche Zahl k, k¨ onnen wir die Berechnung der diskreten Fourier-Transformation so organisieren, dass die Zahl der daf¨ ur ben¨otigten Operationen bis auf einen Logarithmus in der Gr¨oßenordnung von N liegt. Die zugeh¨ orige Transformation wird Fast Fourier Transform FFT genannt und wurde von Cooley und Tukey in den 1960ern entwickelt. Sie ist eine der Glanzpunkte der angewandten Mathematik in der Moderne.
Aufgaben zu Kapitel 83 83.1. Vervollst¨ andigen Sie die Details im Beweis von (83.17) und (83.18). 83.2. Beweisen Sie (83.23). 83.3. Zeigen Sie, dass die Koeffizienten der Sinus-Reihe f¨ umr die ungerade Funktion ur −π ≤ x ≤ π lauten: bm (f ) = 12 (−1) . f (x) = x3 − π 2 x f¨ m3 83.4. Zeigen Sie, dass die Koeffizienten der Kosinus-Reihe f¨ ur die gerade Funktion m+1 4 2 2 14π 4 ur −π ≤ x ≤ π lauten: a0 = 15 , am (f ) = 48 (−1) , f (x) = x − 2π x f¨ m4 m = 1, 2, . . . . 83.5. Beweisen Sie, dass
∞
1 m=1 m4
=
π4 . 90
ur 83.6. Definieren Sie eine 2-periodische Funktion f (x) durch f (x) = (x + 1)2 f¨ −1 < x < 1. Stellen Sie f (x) als komplexe Fourier-Reihe dar. Finden Sie eine 2-periodische L¨ osung f¨ ur die Differentialgleichung 2y − y − y = f .
Aufgaben zu Kapitel 83
1223
83.7. Stellen Sie die Funktion cos x als eine π-periodische Sinus-Reihe auf dem n2 Intervall (0, π2 ) dar. Berechnen Sie mit Hilfe des Ergebnisses ∞ n=1 (4n2 −1)2 . ur 83.8. Bestimmen Sie die diskrete Fourier-Transformierte fm f¨ 1, f¨ ur 0 ≤ n ≤ k − 1, fn = 0, f¨ ur k ≤ n ≤ N − 1 und benutzen Sie eine Parseval-Formel f¨ ur die Berechnung von N−1 µ=1
2πµk N cos 2πµ N
1 − cos 1−
.
83.9. Berechnen Sie die diskrete Fourier-Transformierte von fn = sin 0, . . . , N − 1.
nπ , N
n =
84 Fourier-Transformation
Mit dem Fortschreiten der nat¨ urlichen Vorstellungen zur Freiheit wurde es m¨ oglich, die erhabene Hoffnung zu hegen, unter uns eine freie Regierung aufzubauen, die von K¨ onigen und Priestern befreit ist und Europas widerrechtlich angeeigneten Boden von diesem doppelten Joch zu befreien. Ich wurde leicht von dieser Sache entz¨ uckt, die meiner Meinung nach die gr¨ oßte und sch¨ onste Sache ist, die eine Nation jemals unternommen hat. (Fourier 1793, als er sich einem revolution¨ aren Komitee der Franz¨ osischen Revolution anschloss.)
84.1 Einleitung Fourier-Reihen besch¨ aftigen sich mit periodischen Funktionen f : R → C. Wir betrachten nun in diesem Kapitel f¨ ur nicht periodische Funktionen f : R → C die Fourier-Transformation, das nicht periodische Analogon, zu Fourier-Reihen. Zu einer gegebenen (st¨ uckweise Lipschitz-stetigen) Funktion f : R → C, die u ¨ ber R integrierbar ist, d.h. |f (x)| dx < ∞, (84.1) R
definieren wir f¨ ur ξ ∈ R: 1 f(ξ) = 2π
∞
f (x)e−iξx dx,
(84.2)
−∞
wobei wir festhalten, dass das Integral absolut konvergent und folglich durch die Bedingung (84.1) wohl-definiert ist. Wir sagen, dass die Funktion
1226
84. Fourier-Transformation
f : R → C, die durch (84.2) definiert wird, die Fourier-Transformierte von f (x) ist. Wir wollen nun Rechenvorschriften f¨ ur die Fourier-Transformierte entwickeln, die analog zu denen sind, die wir f¨ ur Fourier-Reihen im vorhergehenden Kapitel eingef¨ uhrt haben. Insbesondere werden wir die Formel f¨ ur die Inversion ∞ ur x ∈ R f(ξ)eiξx dξ f¨ f (x) = −∞
beweisen, die unter der Annahme gilt, dass f (x) auf R differenzierbar ist. Wir werden dabei die Analogien zwischen Fourier-Reihen und FourierTransformationen nach und nach aufdecken. Wir berechnen die Fourier-Transformierte f¨ ur einige wichtige Funktionen. ur x ∈ R. Dann ist: Beispiel 84.1. Sei f (x) = e−|x| f¨ ∞ 1 f(ξ) = e−|x|−iξx dx 2π −∞ 0 ∞ 1 1 ex−iξx dx + e−x−iξx dx = 2π −∞ 2π 0 1 1 1 1 1 1 . = + = 2π 1 − iξ 2π 1 + iξ π 1 + ξ2 Beispiel 84.2. Sei f (x) wie folgt definiert: f (x) = 1,
f¨ ur − a ≤ x ≤ a
mit a > 0. Wir erhalten, vgl. Abb. 84.1: a 1 sin(ξa) 1 . e−iξx dx = f(ξ) = 2π −a π ξ st¨ uckweise konstantes f (x)
Fourier-Transformierte von f (x)
1.2
1
1 0.8
0.5
0.6 0.4 0
0.2 0 −0.2 −10
−5
0
5
10
−0.5 −10
−5
0
5
10
ξ x Abb. 84.1. Die st¨ uckweise konstante Funktion und ihre Fourier-Transformierte 1 sin(ξa) π ξ
84.2 Wichtige Eigenschaften der Fourier-Transformierten
1227
ax2
Beispiel 84.3. Sei f (x) = e− 2 f¨ ur x ∈ R, mit Konstanter a > 0. Dann gilt: ∞ 1 − ξ2 ∞ − 12 (√ax+i √ξa )2 1 ax2 e 2a e− 2 e−iξx dx = e dx. f(ξ) = 2π −∞ 2π −∞ Wir benutzen den Satz von Cauchy f¨ ur analytische Funktionen, um das Integral zu berechnen: Zun¨ achst halten wir fest, dass die Funktion g(z) = √ − 1 ( az+i √ξ )2
a e 2 in z analytisch ist, weswegen wir die Integrationsgerade verschieben k¨ onnen. Wir erhalten: 1 − ξ2 ∞ − 1 (√ax)2 2a e e 2 dx. f (ξ) = 2π −∞
Nun erinnern wir an (64.25) und erhalten: ξ2 1 − ξ2 ∞ − ax2 1 2a e− 2a . f (ξ) = e 2 dx = √ e 2π 2πa −∞ Wir halten fest, dass die Funktion f (x) f¨ ur alle x gegen Eins strebt, wenn a gegen Null geht, w¨ ahrend f(ξ) gegen δ(0) strebt, der Delta-Funktion in Null, vgl. Abb. 84.2. exp−ax
2 /2
f¨ ur a = 0, 2 (· · · ) und a = 5 (—)
Zugeh¨ orige Fourier-Transformierte
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0 −10
−5
0
5
10
0 −10
x Abb. 84.2. Die Funktionen e− f¨ ur verschiedene a > 0
−5
0
5
10
ξ ax2 2
und ihre Fourier-Transformierte
ξ2
√ 1 e− 2a 2πa
84.2 Wichtige Eigenschaften der Fourier-Transformierten Wir wollen nun einige wichtige Eigenschaften der Fourier-Transformierten ∞ 1 f (x)e−iξx dx, ξ ∈ R f(ξ) = 2π −∞
1228
84. Fourier-Transformation
einer gegebenen Funktion f : R → R, die auf R integrierbar ist, vorstellen.
Linearit¨at Die Fourier-Transformierte erf¨ ullt offensichtlich die folgenden Linearit¨atseigenschaften: (f + g)(ξ) = f(ξ) + g(ξ) und
)(ξ) = αf(ξ) (αf
mit α ∈ C. Dabei sind f und g zwei Funktionen mit ihren Fourier-Transformierten f und g.
Skalierbarkeit Sei g : R → R integrierbar. Wir definieren f (x) = g(ax) f¨ ur konstantes a > 0. Dann gilt nach der Substitution y = ax: ∞ ∞ ξ ξ ξ 1 1 1 1 f(ξ) = g(ax)e−i a ax dx = g(y)e−i a y dy = gˆ . 2π −∞ 2π −∞ a a a Wir folgern, dass f¨ ur f (x) = g(ax) gilt: f(ξ) =
1 a
g( aξ ).
Die Fourier-Transformierte der Ableitung Df =
df dx
Wir stellen nun einen Zusammenhang zwischen der Fourier-Transformierdf ten der Ableitung Df = dx einer Funktion f mit der Fourier-Transformierten von f her. Der Trick ist die partielle Integration: ∞ ∞ 1 1 −iξx 4 Df (x)e dx = iξ f (x)e−iξx dx = iξ f(ξ). Df (ξ) = 2π −∞ 2π −∞ Wir fassen dies in folgendem Satz zusammen: Satz 84.1 Sei f : R → C integrierbar mit integrierbarer Ableitung Df . Dann gilt f¨ ur ξ ∈ R: 4 Df(ξ) = iξ f(ξ). (84.3) Dieses ist eines der zentralen Ergebnisse der Fourier-Analyse. Es erm¨oglicht d nach x in eine Multiplikation eine Umformung einer Differentiation D = dx der Fourier-Transformierten mit iξ mit Frequenz ξ. Ganz allgemein gilt: 4 k f ξ = (iξ)k f(ξ). D
(84.4)
Dies er¨ offnet die M¨ oglichkeit, Differentialgleichungen in x in algebraische Gleichungen der Frequenz ξ zu u uhren, was f¨ ur bestimmte Anwendun¨ berf¨ gen sehr n¨ utzlich und aufschlussreich sein kann.
84.3 Die Fourier-Transformierte f(ξ) strebt f¨ ur |ξ| → ∞ gegen 0
1229
Beispiel 84.4. Wir betrachten die Differentialgleichung −D2 u(x) + u(x) = f (x) auf R, wobei f (x) eine gegebene integrierbare Funktion ist und wir 4 2 u(ξ) = (iξ)2 u (ξ), erhalten suchen eine integrierbare L¨ osung u(x). Da D wir die algebraische Gleichung u(ξ) = f(ξ) f¨ ur ξ = 0 (ξ 2 + 1) und wir k¨ onnen folglich die L¨ osung u(x) als ein Fourier-Integral u(x) = R
f(ξ) iξx e dξ ξ2 + 1
formulieren, wobei die Fourier-Transformierte f(ξ) der Eingabefunktion f (x) integriert wird.
84.3 Die Fourier-Transformierte f(ξ) strebt fu ¨r |ξ| → ∞ gegen 0 Als direkte Folge aus dem obigen Ergebnis k¨onnen wir erkennen, dass die Fourier-Transformierte f(ξ) einer differenzierbaren Funktion f (x) mit integrierbarer Ableitung Df (x) gegen Null geht, wenn |ξ| gegen Unendlich strebt. Dies liegt einfach daran, dass ∞ 1 1 4 Df (ξ) ≤ |f(ξ)| = |Df | dx → 0 f¨ ur |ξ| → ∞. |ξ| 2π|ξ| −∞ Dieses Ergebnis l¨ asst sich wie bei der Fourier-Reihe f¨ ur den Fall, dass f (x) integrierbar ist, erweitern.
84.4 Faltung F¨ ur zwei gegebene Funktionen f : R → R und g : R → R definieren wir eine neue Funktion f ∗ g : R → R durch: ∞ f (x − y)g(y) dy. (f ∗ g)(x) = −∞
Wir bezeichnen f ∗ g als die Faltung von f und g. Wir werden beweisen, dass f ∗ g = 2π fg.
1230
84. Fourier-Transformation
Durch direkte Berechnung mit Ver¨ anderung der Integrationsfolge und mit Hilfe der Substitution t = x − y erhalten wir: ∞ ∞ ∞ 1 1 −iξx (f ∗ g)(x)e dx = f (x − y)g(y)dy e−iξx dx f ∗ g(ξ) = 2π −∞ 2π −∞ −∞ ∞ ∞ 1 −iξy −iξ(x−y) = g(y)e f (x − y) e dx dy 2π −∞ −∞ ∞ ∞ 1 = g(y)e−iξy f (t) e−iξt dt dy 2π −∞ −∞ ∞ = f (ξ) g(y)e−iξy dy = 2π f(ξ) g (ξ). −∞
Wir fassen zusammen: Satz 84.2 Es gilt f ∗ g(ξ) = 2π f(ξ) g (ξ) f¨ ur ξ ∈ R.
84.5 Die Formel fu ¨r die Inversion Wir wollen nun beweisen, dass f¨ ur differenzierbares f (x) f¨ ur alle x ∈ R lim fn (x) = f (x),
n→∞
mit
fn (x) =
n
f(ξ)eiξx dξ.
−n
Daher kann f¨ ur alle x ∈ R die Funktion f (x) als ein konvergentes FourierIntegral dargestellt werden: ∞ f(ξ)eiξx dξ. f (x) = −∞
Es gilt
n ∞ 1 iξx fn (x) = f (y) eiξ(x−y) dξdy f (ξ)e dξ = 2π −∞ −n −n ∞ = f (y)Dn (x − y) dy, n
−∞
wobei mit θ = x − y Dn (θ) =
1 2π
n
eiξθ dξ = −n
1 sin(nθ) π θ
(84.5)
84.5 Die Formel f¨ ur die Inversion
1231
der Dirichlet-Kern f¨ ur die Fourier-Transformation ist. Mit Hilfe der Schreibweise f¨ ur die Faltung k¨ onnen wir (84.5) in der kompakten Form schreiben: fn (x) = f ∗ Dn (x). Aus unserer Erfahrung mit dem Dirichlet-Kern f¨ ur die Fourier-Reihe erwarten wir, dass Dn eine N¨ aherung f¨ ur die Identit¨at beschreibt. An der Zeichnung von Dn (θ) in Abb. 84.3 erkennen wir, dass Dn (θ) eine Spitze Dn (θ) f¨ ur n = 5 (· · · ) und n = 25 (—) 10
8
6
4
2
0
−2 −4
−3
−2
−1
0
1
2
3
4
θ Abb. 84.3. Die Funktion Dn (θ)
in θ = 0 besitzt und oszilliert. Diese Spitze wird f¨ ur gr¨oßere n sch¨arfer. Es l¨ asst sich zeigen, vgl. Aufgabe 84.5, dass ∞ Dn (θ) dθ = 1 (84.6) −∞
und daher k¨ onnen wir schreiben: ∞ f (x) − fn (x) = (f (x) − f (y))Dn (x − y) dy −∞ ∞ 1 g(y) sin(n(x − y)) dy, = π −∞ mit g(y) =
f (x) − f (y) . x−y
Ist f (x) differenzierbar mit integrierbarer Ableitung, ergibt sich mit vergleichbaren Argumenten wie bei der Fourier-Reihe (partielle Integration), dass f (x) − fn (x) → 0 f¨ ur n → ∞, womit wir den folgenden wichtigen Satz bewiesen haben:
1232
84. Fourier-Transformation
Satz 84.3 Sei f (x) differenzierbar. Dann l¨asst sich f (x) als ein konvergentes Fourier-Integral formulieren: ∞ f (x) = ur x ∈ R. f(ξ)eiξx dξ f¨ −∞
84.6 Die Parseval-Formel Die Parseval-Formel f¨ ur die Fourier-Transformierte lautet (Beweis, s. Aufgabe 84.3): Satz 84.4 L¨asst sich f (x) durch eine konvergente Fourier-Reihe darstellen, dann gilt: ∞ ∞ 2 |f (x)| dx = 2π |f(ξ)|2 dξ. −∞
−∞
84.7 Die Lo¨sung der Wa¨rmegleichung mit Hilfe der Fourier-Transformation Wir betrachten die ein-dimensionale W¨ armegleichung in R: ur x ∈ R, t > 0, u(x, ˙ t) − u (x, t) = 0 f¨ ur x ∈ R, u(x, 0) = u0 (x) f¨
(84.7)
mit u ¨ ber R integrierbaren Anfangsdaten u0 (x). Wir suchen eine L¨osung u(x, t), die u ur alle t > 0 integrierbar ist. Wenn wir die Fourier¨ ber R f¨ Transformation nach x bilden, f¨ uhrt uns das zu folgendem Anfangswertproblem f¨ ur jedes ξ ∈ R: d u (ξ, t) + ξ 2 u (ξ, t) = 0 f¨ ur t > 0, dt u (ξ, 0) = u 0 (ξ) mit der L¨ osung u (ξ, t) = e−tξ u 0 (ξ). 2
Somit erhalten wir die folgende L¨ osungsformel: ∞ (x−y)2 1 u(x, t) = √ e− 4t u0 (y) dy. 4πt −∞ Hierbei haben wir ausgenutzt, dass u das Produkt von u 0 und der Fourier 2 −tξ2 − x4t Transformierten e der Funktion π/te ist. Deren inverse Transformierte ist folglich die Faltung von
2
1 − x4t 4πt e
und u0 .
84.8 Fourier-Reihen und Fourier-Transformation
1233
84.8 Fourier-Reihen und Fourier-Transformation Sei f : R → C periodisch mit Periode lung als Fourier-Reihe: f (x) =
∞
cm (f )e
imωx
∞
1 f (x) = 2π m=−∞
f¨ ur ω > 0 mit folgender Darstel-
ω cm (f ) = 2π
,
m=−∞
die wir als
2π ω
π ω
f (y)e−imωy dy,
π −ω
π ω
f (y)e
−imωy
dy
eimωx ω
(84.8)
π −ω
schreiben. Wir vergleichen dies nun mit der Darstellung einer nicht periodischen Funktion f : R → C entsprechend den vorangegangenen Abschnitten als Fourier-Transformierte: ∞ ∞ 1 f (y)e−iξy dy eiξx dξ. (84.9) f (x) = −∞ 2π −∞ Rein formal erhalten wir (84.9) aus (84.8), wenn wir mω durch ξ und ω durch dξ ersetzen, die Summe u ¨ ber m als eine Riemannsche Summe betrachten und dabei ω gegen Null gehen lassen. 1 Beachten Sie die Normierung mit 2π , die bei der Definition der Fourierω bei der DeTransformierten f(ξ) zum Einsatz kommt und den Faktor 2π ur eine Funktion f mit Periode finition der Fourier-Koeffizienten cm (f ) f¨ 2π ω .
84.9 Der Abtastsatz Sei f : R → C eine vorgegebene Funktion mit der Fourier-Transformierten f(ξ) und sei f(ξ) = 0 f¨ ur |ξ| ≥ π. Aus der Formel f¨ ur die Inversion erhalten wir: π f (x) = f(ξ)eixξ dξ. −π
Nun entwickeln wir f(ξ) als Fourier-Reihe: ∞
f(ξ) =
cm (f)eimξ
m=−∞
mit den Fourier-Koeffizienten 1 cm (f) = 2π
π
−π
f(η)e−imη dη.
1234
84. Fourier-Transformation
Mit Hilfe von f(η) = 0 f¨ ur |η| ≥ π k¨ onnen wir schreiben: ∞ 1 1 f (−m), cm (f) = f(η)e−imη dη = 2π −∞ 2π wobei wir von der Formel f¨ ur die Inversion Gebrauch gemacht haben. Somit erhalten wir die folgende Darstellung: π ∞ 1 f (x) = f (−m)eimξ eixξ dξ −π 2π m=−∞ π ∞ 1 = f (−m) eimξ eixξ dξ 2π m=−∞ −π =
∞
f (−m)
m=−∞
∞ sin(x + m) sin(x − m) = , f (m) π(x + m) π(x − m) m=−∞
die uns eine Darstellung von f (x) f¨ ur jedes x als Ausdruck von den Werten {f (m)} f¨ ur die ganzen Zahlen m liefert. Damit haben wir den ber¨ uhmten Satz bewiesen: Satz 84.5 (Abtastsatz) f : R → C habe eine Fourier-Transformierte f(ξ), so dass fˆ(ξ) = 0 f¨ ur |ξ| ≥ π. Dann gilt: f (x) =
∞
f (m)
m=−∞
sin(x − m) . π(x − m)
Wir folgern, dass wir aus Proben in den Werten f (m) f¨ ur die ganzen Zahlen m = 0, ±1, ±2, . . . Informationen u ¨ ber das Verhalten aller Werte x ∈ R von f (x) erhalten, wenn gilt, dass f(ξ) = 0 f¨ ur |ξ| ≥ π. Beispiel 84.5. Der Abtastsatz nimmt f¨ ur eine Funktion f (x) mit f(ξ) = 0 f¨ ur |ξ| ≥ aπ mit Konstante a > 0 die folgende Form an: f (x) =
∞ m=−∞
f
" m # sin(ax − m) a
π(ax − m)
.
Dies ergibt sich durch die Anwendung des Abtastsatzes f¨ ur g(x) = f ( xa ), wenn wir dabei bedenken, dass g(ξ) = af(aξ) und dass g(ξ) = 0 f¨ ur |ξ| ≥ π, da f (ξ) = 0 f¨ ur |ξ| ≥ aπ. Wir erkennen, dass ein gr¨oßerer Faktor a dazu aher beieinander liegen. Dies steht nat¨ urlich f¨ uhrt, dass die Stichproben m a n¨ mit der Nyquistschen Abbruchfrequenz in Verbindung.
84.10 Die Laplace-Transformation Wir geben eine kurze Einf¨ uhrung in die Laplace-Transformation, die mit der Fourier-Transformation in engem Zusammenhang steht. Die Laplace-
84.11 Wavelets und die Haar Basis
1235
Transformation ist zur analytischen L¨ osung bestimmter linearer Anfangswertprobleme mit konstanten Koeffizienten n¨ utzlich und sie besitzt beispielsweise in der Kontrolltheorie klassische Anwendungen. F¨ ur eine gegebene Funktion f : [0, ∞) → R definieren wir die LaplaceTransformation Lf : [0, ∞) durch ∞ Lf (s) = e−st f (t) dt f¨ ur s ∈ [0, ∞). 0
Dabei verwenden wir t f¨ ur die unabh¨ angige Variable, da typische Anwendungen u ¨ber die Zeit integrieren. Beispiel 84.6. Sei f (t) = e−at . Dann ist Lf (s) =
1 s+a .
n
Beispiel 84.7. Sei f (t) = tn! . Dann folgt durch wiederholte partielle Inte1 gration, dass Lf (s) = sn+1 . Beispiel 84.8. Sei f (t) = sin(mt). Dann ist Lf (s) = cos(mt), dann gilt: Lf (s) = m2s+s2 .
m m2 +s2 .
Ist f (t) =
Wir halten den folgenden Zusammenhang zwischen der Laplace-Transformation von Df = f und f fest: Lf (s) = sLf (s) − f (0).
(84.10)
Dies ergibt sich durch partielle Integration.
Laplace-Transformationen und lineare Anfangswertprobleme mit konstanten Koeffizienten Die u ¨ bliche Anwendung lautet folgendermaßen: Wir betrachten das Anfangswertproblem u (t) + u(t) = f (t) f¨ ur t > 0 mit u(0) = 0. Wir bilden auf beiden Seiten die Laplace-Transformation und erhalten: sLu(s) + Lu(s) = Lf (s) oder Lu(s) =
Lf (s) . s+1
Ist beispielsweise f (t) = 1, dann ist Lf (s) = 1s und folglich Lu(s) = 1 1 1 −t s(s+1) = s − s+1 und wir folgern daraus, dass u(s) = 1 − e . Wenn wir einen Katalog von Laplace-Transformationen zur Hand haben, k¨onnen wir voraussichtlich lineare Anfangswertprobleme mit konstanten Koeffizienten l¨osen.
84.11 Wavelets und die Haar Basis Wir geben eine kurze Einf¨ uhrung in Wavelets in ihrer einfachsten Form als ein-dimensionale st¨ uckweise konstante N¨ aherung mit Hilfe der Haar Basis,
1236
84. Fourier-Transformation
deren Basisfunktionen sowohl die Eigenschaft der Orthogonalit¨at besitzt als auch einen lokalen Tr¨ ager. Wir betrachten Funktionen, die auf dem Einheitsintervall [0, 1] definiert sind und wir gehen von einer gleichf¨ormigen Unterteilung 0 = x0 < x1 < . . . < xN = 1 mit xj = jhn , hn = 2−n und N = 2n aus, wobei n eine nat¨ urliche Zahl ist. Eine nat¨ urliche orthouckweise konstanten Funktionen auf gonale Basis f¨ ur den Raum Vn der st¨ der Unterteilung 0 = x0 < x1 < . . . < xN = 1 besteht aus der Menge von ur x ∈ In,k = (khn , (k + 1)hn ) und Funktionen {ϕn,k }N k=0 , mit ϕn,k (x) = 1 f¨ ϕn,k (x) = 0 sonst. Damit ist jede Basisfunktion ϕn,k (x) gleich 1 auf dem Teilintervall In,k und verschwindet außerhalb. Wir k¨onnen diese Funktionen durch Skalierung und Translation durch eine einzige Funktion formulieren: ur ϕn,k = ϕ(2n x − k) f¨
k = 0, . . . , N − 1,
mit ϕ(x) = 1 f¨ ur x ∈ (0, 1) und ϕ(x) = 0 sonst. Wir halten fest, dass Vn−1 einen Unterraum zu Vn bildet, da der Raum Vn auf einer feineren Unterteilung aufbaut als Vn−1 . Wir werden nun eine andere orthogonale Basis f¨ ur Vn vorstellen, die den Unterschied“ zwischen Vn und Vn−1 zum Ausdruck bringt und die ” n¨ utzliche Informationen zu verschiedenen Maßst¨aben in Vn liefert. Genauer gesagt, so werden wir jedes u ∈ Vn in der Form u = v + w darstellen, mit v ∈ Vn−1 und w ∈ Wn−1 , wobei Wn−1 durch die Funktionen ψn−1,k = ψ(2n−1 x − k) f¨ ur k = 1, . . . , 2n−1 aufgespannt ist. Diese Funktionen k¨ onnen durch Skalierung und Translation durch eine einzige Funktion ψ(x) formuliert werden: ⎧ ⎪ ur 0 < x < 12 , ⎨ 1 f¨ ψ(x) = −1 f¨ ur 12 < x < 1, ⎪ ⎩ 0 sonst . 1 ur v ∈ Vn−1 und Wir halten fest, dass (v, w) = 0 v(x)w(x) dx = 0 f¨ w ∈ Wn−1 . Ferner spannen die beiden Funktionen ϕn−1,k und ψn−1,k offensichtlich den zwei-dimensionalen Raum der Funktionen auf dem Intervall In,k auf, die auf den Teilintervallen khn < x < khn + hn+1 und khn + hn+1 < x < khn + hn st¨ uckweise konstant sind. Somit liegt die folgende orthogonale Zerlegung vor: Vn = Vn−1 ⊕ Wn−1 , und jede Funktion u ∈ Vn kann daher in der Form u = v + w ausgedr¨ uckt werden, mit v ∈ Vn−1 , w ∈ Wn−1 und (v, w) = 0, vgl Abb. 84.4. Wir k¨ onnen daher Vn als orthogonale Summe formulieren: Vn = V0 ⊕ W0 ⊕ W1 ⊕ . . . ⊕ Wn−1 ,
Aufgaben zu Kapitel 84 ϕ21
−0, 2ϕ21 + 0, 5ψ21
ψ21
1
1
1
0.5
0.5
0.5
0
0
0
−0.5
−0.5
−0.5
−1
−1 0.25
0.375
0.5
1237
−1 0.25
x
0.375
0.5
0.25
x
0.375
0.5
x
Abb. 84.4. Darstellung der orthogonalen Zerlegung Vn = Vn−1 ⊕ Wn−1
¨ wobei jeder Raum ⊕Wj nur Anderungen in der Gr¨oßenordnung 2−j enth¨alt. Die zugeh¨ origen Basisfunktionen bilden die sogenannte Haar Basis f¨ ur Vn {ϕ0 = ϕ, ψ1,1 = ψ, ψ2,1 , ψ2,2 , ψ3,1 , ψ3,2 , ψ3,3 , ψ3,4 , . . . , ψn−1,1 , . . . , ψn−1,2n−1 } die Orthogonalit¨ at mit lokalem Tr¨ ager verbindet.
Aufgaben zu Kapitel 84 84.1. L¨ osen Sie mit Hilfe von Fourier-Reihen die Differentialgleichung −D2 u(x) = f (x) f¨ ur eine gegebene 2π-periodische Funktion f (x) mit Null als Mittelwert. Wir suchen eine 2π-periodische L¨ osung u(x) mit Null als Mittelwert. 84.2. Modellieren Sie die folgenden elektrischen Stromkreise: (i) Widerstand 1 und Spule in Serie gegen die angelegte Spannung, (i) Widerstand 1 und Kondensator in Serie gegen die angelegte Spannung, (iii) Widerstand 2 und Widerstand 1 in Serie parallel zu einer Spule gegen die angelegte Spannung. L¨ osen Sie die Probleme mit Hilfe von Fourier-Reihen. Zeigen Sie, dass (i) und (ii) den TiefpassFiltern entsprechen und (iii) einem Hochpass-Filter. 84.3. Beweisen Sie die Parseval-Formel f¨ ur die Fourier-Transformation. Hinweis: Setzen Sie g (ξ) = f(ξ), was g(−x) = f (x) entspricht, und integrieren Sie u ¨ ber ξ: ∞ ∞ ∞ f ∗ g(ξ) dξ = 2π f (x)f (x) dx = f ∗ g(0) = |f(ξ)|2 dξ. −∞
−∞
−∞
Benutzen Sie dabei Satz 84.2. 84.4. Beweisen Sie, dass f¨ ur a ∈ R gilt: (i) g(ξ) = e−iaξ f(ξ) f¨ ur g(x) = f (x − a) und (ii) g(ξ) = f (ξ − a) f¨ ur g(x) = eiax f (x). 84.5. Beweisen Sie (84.6).
1238
84. Fourier-Transformation
84.6. Berechnen Sie die Fourier-Transformierte f¨ ur die Funktionen a) b)
1 , (x2 +a2 )2
c)
x (x2 +1)(x2 +2x+5)
und d) e−a|x| sin xt
x , (x2 +a2 )2
(a > 0, b > 0).
84.7. Die Funktion f (x) besitzt die Fourier-Transformierte ∞ Sie −∞ |f (x)|2 dx. 84.8. Berechnen Sie mit Hilfe der Fourier-Transformation:
1−iξ sin ξ . 1+iξ ξ
Berechnen
∞
sin x dx. −∞ x(x2 +1)
84.9. Eine Funktion f (x) besitze die Fourier-Transformierte ∞ Sie −∞ |f ∗ f |2 dx.
1 . |ξ|3 +1
Berechnen
2 √ξ iξx 84.10. Berechnen Sie die Fourier-Transformierte der Funktion f (x)= 0 1+ξ e dξ. ∞ ∞ Berechnen Sie dann a) −∞ f (x) cos xdx und b) −∞ |f (x)|2 dx. 84.11. Bestimmen Sie die L¨ osung f (t), t > 0 f¨ ur das Anfangswertproblem t f (τ )dτ = 2et f¨ ur t > 0 f (t) − f (t) + f (t) + 6 0
mit den Anfangswerten f (0) = 1, f (0) = 0.
85 Werkzeugkoffer: Analytische Funktionen
85.1 Differenzierbarkeit und analytische Eigenschaft Eine Funktion f : Ω → C ist in z0 ∈ Ω differenzierbar mit der Ableitung ur z nahe bei z0 gilt, dass f (z0 ) ∈ C, wenn f¨ |f (z) − f (z0 ) − f (z0 )(z − z0 )| ≤ Kf (z0 )|z − z0 |2 , wobei Kf (z0 ) eine nicht negative reelle Konstante ist, die von f und z0 abh¨ angt. Eine Funktion f : Ω → C ist im offenen Gebiet Ω in der komplexen Ebene analytisch, wenn f (z) in allen Punkten z0 ∈ Ω mit der Ableitung f (z0 ) differenzierbar ist. Ist f : Ω → C analytisch, dann ist auch f : Ω → C analytisch, usw. Eine analytische Funktion f : Ω → C besitzt daher Ableitungen beliebiger Ordnung f (n) : Ω → C, n = 1, 2, . . ., die alle analytisch sind. Die u ur die Ableitung von Summen, Produkten und Quo¨ blichen Regeln f¨ tienten, die f¨ ur Funktionen f : R → R gelten, besitzen auch f¨ ur Funktionen f : C → C G¨ ultigkeit. ur n = 1, 2, . . . und f¨ ur z = 0 Die Funktion f (z) = z n ist in C analytisch f¨ auch f¨ ur n = −1, −2, . . ..
85.2 Die Cauchy-Riemann Gleichungen Ist f (z) = u(x, y) + iv(x, y) im offenen Gebiet Ω in der komplexen Ebene analytisch, dann erf¨ ullen die Real- und die Imagin¨arteile u(x, y) und v(x, y)
1240
85. Werkzeugkoffer: Analytische Funktionen
die Cauchy-Riemann Gleichungen in Ω: ∂u ∂v = ∂x ∂y
und
∂u ∂v =− ∂y ∂x
oder in Polarkoordinaten z = reiθ : ∂u 1 ∂v = ∂r r ∂θ
und
∂v 1 ∂u =− . ∂r r ∂θ
85.3 Real- und Imagin¨arteil einer analytischen Funktion Ist f : Ω → C im offenen Gebiet Ω in der komplexen Ebene analytisch, dann sind der Realteil u(x, y) = Re f (z) und der Imagin¨arteil v(x, y) = Im f (z) harmonisch in Ω.
85.4 Konjugiert harmonische Funktionen Ist u(x, y) in einem einfach zusammenh¨ angenden Gebiet Ω in R2 harmonisch, dann existiert eine harmonische Funktion v(x, y), die bis auf eine Konstante eindeutig bestimmt ist, so dass f (z) = u(x, y) + iv(x, y) in Ω analytisch ist. Die Funktion v(x, y) ist zu u(x, y) konjugiert.
85.5 Kurven in der komplexen Ebene Eine Menge Γ = Wertebereich von γ = {γ(t) : t ∈ I}, die in einem offenen Gebiet Ω in der komplexen Ebene C durch eine Lipschitz-stetige Abbildung γ : I → Ω parametrisiert ist, wobei I = [a, b] ein Intervall in R ist, wird als Kurve bezeichnet. Der Einheitskreis ist eine Kurve, die durch die Funktion γ(t) = exp(it) f¨ ur 0 ≤ t < 2π parametrisiert ist. Γ ist eine differenzierbare Kurve, wenn die zugeh¨ orige Parametrisierung γ : I → C in I differenzierbar ist. Zerlegen wir γ(t) = x(t) + iy(t) in einen Real- und einen Imagin¨ arteil, so bedeutet dies, dass γ differenzierbar ist, wenn x(t) und y(t) auf I differenzierbar sind. Eine Kurve Γ mit Parametrisierung γ : [a, b] → C heißt einfach geur s = t = a = b gilt, schlossen, wenn (i) γ(a) = γ(b) und (ii) nur f¨ dass γ(s) = γ(t). Ein Gebiet Ω in C, das durch eine einfach geschlossene Kurve begrenzt ist, heißt einfach zusammenh¨angend. Ein einfach zusammenh¨ angendes Gebiet besitzt keine L¨ ocher“. ”
85.6 Eine analytische Funktion definiert eine konforme Abbildung
1241
85.6 Eine analytische Funktion definiert eine konforme Abbildung Eine analytische Funktion f : Ω → C auf einem offenen Gebiet Ω in C ist konform in Ω, d.h., dass unter der Abbildung w = f (z) Winkel erhalten bleiben.
85.7 Komplexe Integrale F¨ ur ein offenes Gebiet Ω in der komplexen Ebene definieren wir:
f (z) dz = Γ
b
u(x(t), y(t)) + iv(x(t), y(t)) (x(t) ˙ + iy(t)) ˙ dt.
a
Dabei ist Γ eine differenzierbare Kurve in C, die durch γ = (x, y) : [a, b] → C parametrisiert ist und f = u + iv : Γ → C ist Lipschitz-stetig. Formell gilt: dz = dx + idy = xdt ˙ + iydt ˙ = (x˙ + iy) ˙ dt.
85.8 Der Satz von Cauchy Ist f (z) in Ω analytisch und ist Γ eine einfach geschlossene Kurve in Ω, die ein Gebiet begrenzt, das ganz in Ω enthalten ist, dann gilt: f (z) dz = 0. Γ
85.9 Die Cauchysche Integralformel Ist f (z) in einem offenen Gebiet Ω analytisch und ist Γ eine gegen den Uhrzeigersinn orientierte einfach geschlossene Kurve in Ω, die das offene ur z0 ∈ ΩΓ : Gebiet ΩΓ ⊂ Ω umschreibt, dann gilt f¨
1 f (z0 ) = 2πi
Γ
f (z) dz, z − z0
und f¨ ur n = 1, 2, . . . , f (n) (z0 ) =
n! 2πi
Γ
f (z) dz. (z − z0 )n+1
1242
85. Werkzeugkoffer: Analytische Funktionen
85.10 Die Taylor-Formel Ist f (z) in einer Umgebung Ω von z0 ∈ C analytisch, dann gilt: f (z) = f (z0 ) + f (z0 )(z − z0 ) + . . . +
f (n) (z0 ) (z − z0 )n + Rn (z), n!
mit (z − z0 )n+1 Rn (z) = 2πi
Γ
f (ζ) dζ. (ζ − z0 )n+1 (ζ − z)
85.11 Der Residuensatz Ist f (z) in einem einfach zusammenh¨ angenden offenen Gebiet Ω analytisch, außer in einer endlich Anzahl isolierter Punkte z0 , z1 , . . . , zn in Ω, in denen f (z) einfache oder mehrfache Pole besitzt und ist ferner Γ eine einfach geschlossene Kurve in Ω, die alle zm gegen den Uhrzeigersinn uml¨auft, dann gilt: f (z) dz = Γ
n
2πiRes f (zm ),
m=1
mit Res f (zm ) =
g(k−1) (zm ) (k−1)! ,
zm ist k-facher Pol, k > 1
g(zm ),
zm ist einfacher Pol, k = 1
und g(zm ) = lim (z − zm )k f (zm ). z→zm
86 Werkzeugkoffer: Fourier-Analyse
86.1 Eigenschaften der Fourier-Koeffizienten Die Fourier-Koeffizienten cm (f ) einer gegebenen 2π-periodischen Lipschitzstetigen Funktion f : R → C werden durch π 1 f (x)e−imx dx m = 0, ±1, ±2, . . . cm (f ) = 2π −π definiert und f¨ ur sie gilt: cm (f + g) = cm (f ) + cm (g), ur α ∈ C, cm (αf ) = αcm (f ), f¨ cm (Dk f ) = (im)k cm (f ),
f¨ ur k = 0, 1, 2, . . . .
Ist f : [−π, π] → C Lipschitz-stetig, dann streben die cm (f ) f¨ ur |m| → ∞ gegen Null (Riemann-Lebesgue Lemma).
86.2 Faltung Wenn wir f¨ ur 2π-periodische Funktionen f (x) und g(x) die Faltung f ∗ g durch π (f ∗ g)(x) = f (x − y)g(y) dy x ∈ R −π
1244
86. Werkzeugkoffer: Fourier-Analyse
definieren, gilt: cm (f ∗ g) = 2π cm (f )cm (g).
86.3 Fourier-Reihen Ist f : R → C eine 2π-periodische Funktion mit st¨ uckweise Lipschitzstetiger Ableitung, dann kann f (x) durch eine konvergente Fourier-Reihe dargestellt werden: f (x) =
∞
cm (f )eimx
f¨ ur x ∈ R.
m=−∞
86.4 Die Parseval-Formel Wenn f (x) eine konvergente Fourier-Reihe besitzt, dann gilt:
π
−π
|f (x)|2 dx = 2π
∞
|cm (f )|2 .
m=−∞
86.5 Diskrete Fourier-Transformation −1 Ist {fn }N onnen n=0 eine Folge von N gegebenen komplexen Zahlen, dann k¨ N −1 wir eine zugeh¨ orige Folge {fm }m=0 wie folgt definieren: N −1 1 fm = fn e−2πimn/N , N n=0
f¨ ur m = 0, . . . , N − 1.
−1 Wir sagen, dass die Folge {fm }N m=0 die diskrete Fourier-Transformierte der N −1 ur die Inversion: Folge {fn }n=0 ist. Es gilt die folgende Formel f¨
fn =
N −1
f(m)e2πimn/N ,
f¨ ur n = 0, . . . , N − 1.
m=0
86.6 Fourier-Transformation Zu einer st¨ uckweise Lipschitz-stetigen und u ¨ ber R integrierbaren Funktion f : R → C definieren wir die Fourier-Transformierte von f (x) f¨ ur ξ ∈ R
86.7 Eigenschaften der Fourier-Transformierten
1245
durch: 1 f(ξ) = 2π
∞
f (x)e−iξx dx.
−∞
Es gilt die Formel f¨ ur die Inversion: ∞ f (x) = f(ξ)eiξx dξ −∞
f¨ ur x ∈ R,
wenn wir annehmen, dass f (x) mit einer integrierbaren Ableitung in R differenzierbar ist. ur x ∈ R, dann gilt: Ist f (x) = e−|x| f¨ 1 1 f(ξ) = . π 1 + ξ2 Ist f (x) = e−
ax2 2
f¨ ur x ∈ R mit Konstanter a > 0, dann gilt: ξ2 1 f(ξ) = √ e− 2a . 2 a
Ist f (x) = 1 f¨ ur −a ≤ x ≤ a und f (x) = 0 sonst, dann gilt: sin(ξa) . f(ξ) = ξ
86.7 Eigenschaften der Fourier-Transformierten Sind f und g zwei Funktionen mit den Fourier-Transformierten f und g und ist α ∈ C. Dann gilt: (f + g)(ξ) = f(ξ) + g(ξ), )(ξ) = αf(ξ). (αf Ist g : R → R integrierbar und f (x) = g(ax), dann ist f(ξ) = a1 g( aξ ). Ist f : R → C differenzierbar mit integrierbarer Ableitung, dann gilt: 4 Df(ξ) = iξ f(ξ). Wenn wir f¨ ur zwei integrierbare Funktionen f : R → R und g : R → R die Faltung f ∗ g durch ∞ (f ∗ g)(x) = f (x − y)g(y) dy −∞
1246
86. Werkzeugkoffer: Fourier-Analyse
definieren, dann gilt: f ∗ g(ξ) = 2π f(ξ) g (ξ) Die Parseval-Formel lautet: ∞ 2 |f (x)| dx = 2π −∞
f¨ ur ξ ∈ R.
∞
−∞
|f(ξ)|2 dξ.
86.8 Der Abtastsatz Wenn f : R → C eine Fourier-Transformierte f(ξ) besitzt, so dass f(ξ) = 0 f¨ ur |ξ| ≥ aπ mit konstantem a > 0, dann gilt: f (x) =
∞ m=−∞
f
" m # sin(ax − m) a
π(ax − m)
.
87 Inkompressible Navier-StokesGleichungen: Schnell und einfach
Meine Aufmerksamkeit wurde auf verschiedene mechanische Ph¨ anomene gelenkt, zu deren Erkl¨ arung, wie ich feststellen musste, mathematische Kenntnisse unerl¨ asslich waren. (Reynolds) Das Forschungsergebnis zeigt, dass es ein und nur ein vorstellbares rein mechanisches System gibt, das zur Erkl¨ arung aller physikalischen Beweise, so weit wir sie im Universum kennen, in der Lage ist. (Reynolds)
87.1 Einleitung Die Navier-Stokes-Gleichungen sind das zentrale Modell f¨ ur das Str¨omungsverhalten und sie beschreiben eine Vielzahl von Ph¨anomenen in der Hydround Aerodynamik, wie sie in der Industrie, der Biologie, der Ozeanographie, der Geophysik, der Meteorologie und der Astrophysik bearbeitet werden. Das Str¨ omungsverhalten beinhaltet in all diesen Anwendungen normalerweise sowohl Eigenschaften von turbulenter als auch laminarer Str¨omung, wobei turbulente Str¨ omungen irregul¨ ar sind mit sowohl r¨aumlich als auch zeitlich schnellen Ver¨ anderungen, wohingegen laminare Str¨omungen besser organisiert sind. Die zentrale Frage in der Computer-basierten Str¨omungsmechanik (engl. Computational Fluid Dynamics CFD) ist, wie die NavierStokes-Gleichungen effizient und verl¨ asslich sowohl f¨ ur laminare als auch turbulente Str¨ omungen numerisch gel¨ ost werden k¨onnen. Die Navier-Stokes-Gleichungen bilden ein System nicht-linearer Differentialgleichungen, die Konvektions- und Diffusionsph¨anomene miteinander
1248
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
koppeln. Traditionell werden Untersuchungen der Navier-Stokes-Gleichungen in inkompressible und kompressible Str¨ omungen getrennt, wobei unterschiedliche abh¨ angige Variable benutzt werden: Einfache Variable (Geschwindigkeit, Druck, Temperatur) f¨ ur inkompressible Str¨omungen und Erhaltungsvariable (Dichte, Impuls, Energie) f¨ ur kompressible Str¨omungen. Wir konzentrieren uns in diesem Kapitel auf die inkompressiblen NavierStokes-Gleichungen f¨ ur konstante Dichte, Viskosit¨at und Temperatur und benutzen die Geschwindigkeit und den Druck als Variablen. Wir stellen die cG(1)dG(0) finite Elemente-Methode vor, mit cG(1) im Raum und dG(0) in der Zeit und befassen uns mit den entsprechenden cG(1)dG(1) und cG(1)cG(1)-Methoden. Unten haben wir in den Abb. 87.2 und Abb. 87.3 Ergebnisse zweier zeitabh¨ angiger Testbeispiele dargestellt: Die Str¨omung um ein Hindernis und die Str¨ omung u ¨ ber eine Stufe in einem Kanal.
87.2 Die inkompressiblen Navier-Stokes-Gleichungen Die Navier-Stokes-Gleichungen f¨ ur eine inkompressible Newtonsche Fl¨ ussigkeit in einem durch Γ begrenzten Volumen Ω in R3 mit konstanter kinematischer Viskosit¨at ν > 0, Einheitsdichte und konstanter Temperatur lauten: Gesucht ist die Geschwindigkeit und der Druck (u, p), so dass ∂u ∂t
+ (u · ∇)u − ν∆u + ∇p ∇·u u u(·, 0)
= = = =
in Ω × I, in Ω × I, auf Γ × I, in Ω,
f 0 w u0
(87.1)
mit Geschwindigkeit u = (u1 , u2 , u3 ) und Fl¨ ussigkeitsdruck p, wobei f , w, u0 und I = (0, T ) die vorgegebene antreibende Kraft, Grenzwerte, Anfangsdaten und das Zeitintervall sind. Wir wiederholen, dass ∂v ∂v ∂v + (u · ∇)v = + ui ∂t ∂t i=1 ∂xi 3
(87.2)
der Teilchenableitung einer Gr¨ oße v(x, t) entspricht, die die Ver¨anderungsgeschwindigkeit von v(x(t), t) mit der Zeit misst, d.h. die Ver¨anderungsgeschwindigkeit von v entlang einer Trajektorie x(t) eines Fl¨ ussigkeitsteilchens, das sich mit der Geschwindigkeit u(x, t) bewegt und f¨ ur das dx ∂u dt = u(x(t), t) gilt. Insbesondere entspricht ∂t + (u · ∇)u der Beschleunigung (Ver¨ anderung in der Geschwindigkeit) eines Fl¨ ussigkeitsteilchens. Der Ausdruck ν∆u − ∇p steht f¨ ur die Gesamtkraft auf ein Fl¨ ussigkeitsteilchen, die aus der viskosen Scherkraft und einem isotropen Druck stammt.
87.3 Die zentrale Energieabsch¨ atzung f¨ ur Navier-Stokes
1249
Die erste Gleichung in (87.1), die eine Vektorgleichung ∂ui ∂p + (u · ∇)ui − ν∆ui + = fi , ∂t ∂xi
i = 1, 2, 3
ist, entspricht der Impulsgleichung aus dem zweiten Newtonschen Gesetz, nach dem die Beschleunigung zur Kraft proportional ist. Die zweite Gleichung bringt die Bedingung f¨ ur die Inkompressibilit¨at zum Ausdruck. Wir betrachten hier den Fall von Dirichlet-Randbedingungen mit vorgegebener Geschwindigkeit u auf der Begrenzung Γ. Unten werden wir auch Neumannund Robin-Randbedingungen betrachten. Wir werden im Folgenden oft die Kurzform (u · ∇)u = u · ∇u verwenden. Wir erhalten die linearen Stokes-Gleichungen, wenn wir den nicht-linearen Ausdruck u · ∇u weglassen. Dies ist f¨ ur kleine Geschwindigkeiten u m¨ oglich, wenn wir eine kriechende Str¨omung betrachten. Die Reynolds-Zahl Re wird durch Re = uL ν definiert, wobei u der Geschwindigkeit entspricht und L einer charakteristischen L¨angenskala der Str¨ omung. Die Gr¨ oße der Reynolds-Zahl ist ausschlaggebend f¨ ur das Fl¨ ussigkeitsverhalten. Ist Re ∼ 1, dann ist die Str¨omung sehr viskos. Derartige Verh¨ altnisse treffen wir bei der Str¨ omung von Polymeren oder bei Verformungsprozessen an. Bei den meisten Anwendungen in der Hydro- und uber hinaus. Aerodynamik ist Re viel gr¨ oßer als 1; oft bis zu 106 und dar¨ In diesen F¨ allen geringer Viskosit¨ at kann die Str¨omung sehr komplex und turbulent sein. Wir erhalten ein station¨ ares Analogon zu (87.1), wenn wir annehmen, dass die L¨ osung zusammen mit der antreibenden Kraft und den Randwerten von der Zeit unabh¨ angig ist. Normalerweise stellt sich eine station¨are L¨ osung als Grenzwert einer zeitabh¨ angigen L¨osung ein, wenn die Zeit gegen Unendlich geht. In Berechnungen von station¨aren L¨osungen wird dies durch Zeitschritte bis zur Konvergenz nachempfunden. F¨ ur große ReynoldsZahlen existieren im Allgemeinen keine stabilen station¨aren L¨osungen.
87.3 Die zentrale Energieabsch¨atzung fu ¨r Navier-Stokes Wir wollen nun eine wichtige Stabilit¨ atsabsch¨ atzung vom Energietyp f¨ ur die Geschwindigkeit u in der Navier-Stokes-Gleichung (87.1) herleiten. Dabei nehmen wir der Einfachheit halber an, dass f = 0 und w = 0. Skalare Multiplikation der Impulsgleichung mit u und Integration nach x liefert 1 d 2 dt
|u|2 dx + ν Ω
3 i=1
Ω
|∇ui |2 dx = 0,
1250
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
da (bei verschwindenden Randausdr¨ ucken) durch partielle Integration folgt, dass ∇p · u dx = − p∇ · u dx = 0 Ω
und
Ω
(u · ∇)u · u dx = −
Ω
so dass
(u · ∇)u · u dx −
Ω
∇ · u|u|2 dx, Ω
(u · ∇)u · u dx = 0. Ω
Wenn wir nun nach der Zeit integrieren, erhalten wir die folgende wichtige Stabilit¨ atsabsch¨ atzung f¨ ur alle Zeiten T > 0: 3 T u(·, T )2 + 2ν ∇ui 2 dt = u0 2 , (87.3) i=1
0
wobei · f¨ ur die L2 (Ω)-Norm steht. Diese Absch¨atzung liefert eine Schranke f¨ ur die Geschwindigkeit, wobei der zweite Ausdruck auf der linken Seite die viskose Dissipation in der Fl¨ ussigkeit ausdr¨ uckt. Wir erkennen, dass das Anwachsen dieses Ausdrucks mit der Zeit mit einer Abnahme der Geschwindigkeit (Impuls) der Str¨ omung einhergehen muss. Der Fall großer Reynolds-Zahlen mit geringer Viskosit¨at ν, mit einer Normierung der Geschwindigkeit und der Einheitsl¨ange als typische L¨angenskala ist besonders wichtig. Dabei treten u ¨ blicherweise turbulente Str¨omungen auf. Bei laminarer Str¨ omung mit geringer Viskosit¨at ist die Dissipation klein, da die Geschwindigkeitsgradienten gering sind, wohingegen bei turbulenter Str¨ omung die Dissipation betr¨ achtlich ist, da die Geschwindigkeitsgradienten groß sind, was damit zusammenh¨ angt, dass die Geschwindigkeit bei fehlender antreibender Kraft abnimmt.
87.4 Lions und seine Schule Jacques-Louis Lions (1928–2001), vgl. Abb. 87.1, setzte die ausgepr¨agte franz¨ osische mathematische Tradition und deren Verbindung zur Physik und Mechanik w¨ ahrend der zweiten H¨ alfte des 20. Jahrhunderts fort. Er leistete wichtige Beitr¨ age zur Theorie und Praxis partieller Differentialgleichungen mit Hilfe von Werkzeugen aus der Funktionalanalysis im Geiste Sobolevs. Er gr¨ undete die franz¨ osische Schule f¨ ur numerische Analysis, die mit der Entwicklung der finiten Elemente-Methode in den 1960ern einen Aufschwung erlebte. Unter anderem bewies Lions die Existenz und Eindeutigkeit von L¨ osungen der Navier-Stokes-Gleichungen mit einer regularisierenden Viskosit¨ atsmodifizierung, wie wir unten andeuten werden.
87.5 Turbulenz: Lipschitz-Stetigkeit zum Exponenten 1/3?
1251
Abb. 87.1. Jacques-Louis Lions (1928–2001), Gr¨ under der franz¨ osischen Schule f¨ ur numerische Analysis: . . . Probleme der optimalen Kontrolle f¨ ur verteilte para” metrische Systeme, die durch partielle Differentialgleichungen modelliert werden, h¨ angen mit fundamentalen Gesichtspunkten von Body & Soul zusammen . . .“
87.5 Turbulenz: Lipschitz-Stetigkeit zum Exponenten 1/3? Die mathematische Modellierung und Simulation turbulenter Str¨omungen ist eines der offenen Probleme der klassischen Mechanik und Physik, wobei heutige Berechnungsmethoden neue M¨ oglichkeiten er¨offnen. Seit einigen Jahren werden Grobstruktursimulationen (Large Eddy Simulation, LES) mit einem Feinstrukturmodell zur Berechnung turbulenter Str¨omungen verkn¨ upft. Turbulente Str¨ omungen besitzen Eigenschaften (Wirbel) auf einer breiten Skala, die vom gr¨ oßten makroskopischen Durchmesser der Ordnung Eins bis zum kleinsten in der Gr¨ oßenordnung ν 3/4 reicht. Dabei ist ν die Viskosit¨ at und wir gehen von einer Normierung auf die charakteristische makroskopische Geschwindigkeit und eine L¨ angenskala der Gr¨oßenordnung Eins aus, so dass die makroskopische Reynolds-Zahl Re gleich 1/ν ist. In typischen Anwendungen kann Re in der Gr¨oßenordnung 108 sein. Dazu muss die kleinste L¨ angenskala etwa in der Gr¨oßenordnung 10−6 liegen, was 18 etwa 10 Freiheitsgrade in direkten numerischen Simulationen (DNS) erfordert, um alle Skalen aufzul¨ osen. Dies liegt auch in absehbarer Zeit weit u oglichkeiten jedes Computers. Dies setzt die Grenze f¨ ur DNS ¨ ber den M¨ bei einer kleinsten Skala von 10−3 , was einer Reynolds-Zahl von ungef¨ahr 104 entspricht. Um Str¨ omungen mit h¨ oheren Reynolds-Zahlen zu simulieren, k¨ onnen wir ein Feinstrukturmodell einsetzen, um nicht mehr durch das Rechengitter aufgel¨ oste Strukturen zu modellieren. Dies kann durch die Eigenschaft der Skalen¨ahnlichkeit turbulenter Str¨omungen m¨oglich werden,
1252
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
die ein stufenf¨ ormiges Wiederholungsmuster von Str¨omungseigenschaften von gr¨ oberen zu feineren Skalen bis hin zu kleinsten Wirbeln, in denen betr¨ achtliche Dissipation auftritt, widerspiegelt. In Abb. 87.4 zeigen wir ¨ einen Jetstrom beim Ubergang von laminarer zu turbulenter Str¨omung auf einem 128 × 32 × 32-Gitter. Wir wollen zun¨ achst eine Argumentation aufgreifen, die zuerst von dem ¨ russischen Mathematiker Kolmogorov 1941 vorgestellt wurde, die auf Ahnlichkeitseigenschaften auf verschiedenen Skalen hinweist: Sei h die kleinste Gr¨ oßenordnung, d.h. der Durchmesser des kleinsten Wirbels, und sei u ¯ die zugeh¨ orige Geschwindigkeit des kleinsten Wirbels. Wir k¨onnen dann argumentieren, dass etwa u ¯h ∼ ν gelten sollte, da der Zerfall gr¨oßerer Wirbel in kleinere fortschreiten sollte, bis die lokale Reynolds-Zahl klein genug wird (in der Gr¨ oßenordnung 50–100). Ferner w¨ urde turbulente Dissipation auf der kleinsten Skala der Ordnung Eins bedeuten, dass ν( hu¯ )2 ∼ 1. Aus diesen beiden Beziehungen k¨ onnen wir folgern, dass wie erwartet h ∼ ν 3/4 und 1/4 ebenso u ¯ ∼ ν . Wir folgern, dass |u(x) − u(y)| ∼ |x − y|1/3 f¨ ur y = x + h und anhand der Skalen¨ ahnlichkeit k¨onnen wir erwarten, dass diese Beziehung f¨ ur allgemeine x und y gilt, d.h., dass die turbulente Geschwindigkeit Lipschitz(H¨ older)-stetig sein sollte zum Exponenten 1/3. Hat die obige Herleitung irgendetwas mit der Realit¨at zu tun? Ja, sowohl physikalische Experimente und DNS lassen vermuten, dass turbulente Str¨ omungen tats¨ achlich Skalen¨ ahnlichkeit aufweisen mit Lipschitz(H¨older)Stetigkeit zum Exponenten 1/3. Dies l¨ asst hoffen, dass Feinstrukturmodellierungen f¨ ur turbulente Str¨ omungen machbar sind und folglich auch Computer-Simulationen f¨ ur turbulente Str¨ omungen. Und dies umso mehr mit zunehmender Leistungsf¨ ahigkeit der Computer. Zusammenfassend scheinen Simulationen turbulenter Str¨omungen am Computer m¨ oglich zu sein, wodurch die meisten Fragen von einem praktischen Standpunkt aus betrachtet gel¨ ost werden: Wir w¨aren in der Lage turbulente Str¨ omungen zu simulieren und vorherzusagen. Uns w¨ urde aber immer noch ein mathematisches Modell f¨ ur die Turbulenz fehlen, mit dem wir einfacher umgehen k¨ onnen, als nur die Navier-Stokes-Gleichungen in DNS zu l¨ osen. Mag sein, dass menschliche Wesen nicht in der Lage sind, Turbulenz zu verstehen“, so wie wir beispielsweise die fundamentale ” 1 ) verstehen k¨onnen. Aber wir w¨aren L¨ osung des Laplace-Operators ( 4π|x| in der Lage, turbulente Str¨ omungen am Computer zu simulieren. Vielleicht k¨onnen wir nicht mehr erwarten?
87.6 Existenz und Eindeutigkeit von L¨osungen Die Frage nach der Existenz und der Eindeutigkeit von L¨osungen der Navier-Stokes-Gleichungen ist eine der ungel¨ osten Probleme der Mathema-
87.7 Numerische Methoden
1253
tik. Wenn wir die Viskosit¨ at von einer Newtonschen konstanten Viskosit¨at ν gegen eine nicht Newtonsche l¨ osungsabh¨ angige Viskosit¨at νˆ = ν + Ch2 |∇u| ersetzen, wobei h ein Parameter entsprechend der kleinsten Gr¨oßenordnung ist, dann kann die Existenz und die Eindeutigkeit mit Standardmethoden bewiesen werden, wie Lions zeigte. Da f¨ ur kleines h die Modifikation klein sein wird, außer da, wo ∇u sehr groß ist, kann die Modifikation als Regularisierung betrachtet werden, die gewisse Extremsituationen mit sehr großen Geschwindigkeitsgradienten eliminiert, bei denen die Newtonsche Eigenschaft der konstanten Viskosit¨ at auf jeden Fall in Frage gestellt werden m¨ usste. Dies schafft einen direkten Zusammenhang zur Feinstrukturmodellierung turbulenter Str¨ omung, wobei νˆ einer sogenannten turbulenten Viskosit¨at entspricht, bei der die konstante C rechnerisch modelliert werden muss.
87.7 Numerische Methoden Wenn wir die inkompressiblen Navier-Stokes-Gleichungen numerisch l¨osen wollen, treffen wir auf die folgenden Schwierigkeiten: Instabilit¨ aten durch die Diskretisierung von Konvektionsausdr¨ ucken, Druckinstabilit¨ aten in derselben Gr¨ oßenordnung wie Geschwindigkeit und Druck. Das einfachste Hilfsmittel gegen die Instabilit¨aten bei der Konvektion ist, die Viskosit¨ at ν bei der Berechnung zu erh¨ ohen, so dass ν ≥ uh, wobei u die lokale Fl¨ ussigkeitsgeschwindigkeit ist und h die lokale Gitterweite. Die einfachste Stabilisierung des Drucks p ist eine Modifikation der Gleichung f¨ ur die Inkompressibilit¨ at ∇ · u = 0 in −∇ · (δ∇p) + ∇ · u = 0 mit δ ≈ h2 , wobei h(x) die lokale Gitterweite ist. Bei Galerkin-Methoden kann die Stabilisation auch f¨ ur h¨ohere Ordnungen konsistent gemacht werden, indem eine kleinste quadratische Abweichungskontrolle f¨ ur Residuen hinzugef¨ ugt wird. Wir werden diesen Ansatz unten in Verbindung mit der cG(1)dG(0)-Methode, mit cG(1) im Raum und dG(0) in der Zeit, vorstellen. Wir f¨ uhren auch entsprechende cG(1)cG(1)- und cG(1)dG(1)-Methoden ein.
87.8 Die stabilisierte cG(1)dG(0)-Methode Wir stellen nun die cG(1)dG(0)-Methode f¨ ur (87.1) vor, wobei wir f¨ ur den Anfang homogene Dirichlet-Randbedingungen benutzen. Sei 0 = t0 < t1 < . . . < tN = T eine Folge diskreter Zeiten mit zugeh¨origen Zeitschritten kn = tn − tn−1 . Sei Wh der u ¨ bliche finite Elemente Raum der stetigen
1254
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
st¨ uckweise linearen Funktionen auf einer Triangulierung Th = {K} von Ω mit Gitterfunktion h(x). Sei Wh0 der Raum der Funktionen in Wh , die auf Γ verschwinden. Wir suchen nach einer N¨ aherungsgeschwindigkeit U (x, t), so dass U (x, t) in x f¨ ur jedes t stetig und st¨ uckweise linear ist und gleichzeitig, dass U (x, t) in t f¨ ur jedes x st¨ uckweise konstant ist. Genauer formuliert, ur so suchen wir ein U n ∈ Vh0 mit Vh0 = Wh0 × Wh0 × Wh0 und P n ∈ Wh f¨ n = 1, . . . , N und wir setzen U (x, t) = U n (x)
x ∈ Ω,
t ∈ (tn−1 , tn ],
P (x, t) = P n (x)
x ∈ Ω,
t ∈ (tn−1 , tn ].
(87.4)
Ferner schreiben wir f¨ ur Geschwindigkeiten v = (vi ) und w = (wi ): v · w dx,
(v, w) =
(∇v, ∇w) =
Ω
3 Ω
∇vi · ∇wi dx
i
und ¨ ahnlich auch f¨ ur auf Ω definierte skalare Funktionen p und q: (p, q) = pq dx. Ω
Wir formulieren nun die cG(1)dG(0)-Methode ohne Stabilisierung: F¨ ur n = 1, . . . , N suchen wir (U n , P n ) ∈ Vh0 × Wh , so dass
U n − U n−1 , v + (U n · ∇U n + ∇P n , v) + (ν∇U n ,∇v) = (f n , v), kn f¨ ur alle v ∈ Vh0 , (∇ · U n , q) = 0, f¨ ur alle q ∈ Wh , (87.5)
mit U 0 = u0 und f n (x) = f (x, tn ). Wir erkennen, dass sich die diskreten Gleichungen durch Multiplikation der Impulsgleichung mit v ∈ Vh0 und der Inkompressibilit¨ atsgleichung mit q ∈ Wh mit anschließender Integration u ber Ω ergeben, inklusive einer partiellen Integration im Ausdruck ¨ (−ν∆U, v). Wir k¨ onnen die cG(1)dG(0)-Methode ohne Stabilisierung alternativ auch wie folgt schreiben: F¨ ur n = 1, . . . , N suchen wir (U n , P n ) ∈ Vh0 × Wh , so dass n U − U n−1 , v + (U n · ∇U n + ∇P n , v) + (∇ · U n , q) kn (87.6) n n 0 + (ν∇U , ∇v) = (f , v) f¨ ur alle (v, q) ∈ Vh × Wh , wobei wir einfach die Gleichungen in (87.5) addiert haben.
87.9 Die cG(1)cG(1)-Methode
1255
Die cG(1)dG(0)-Methode mit Stabilisierung lautet: F¨ ur n = 1, . . . , N suchen wir (U n , P n ) ∈ Vh0 × Wh , so dass
U n − U n−1 , v + (U n · ∇U n + ∇P n , v + δ(U n · ∇v + ∇q)) + (∇ · U n , q) kn
+ (ν∇U n , ∇v) = (f n , v + δ(U n · ∇v + ∇q)) f¨ ur alle (v, q) ∈ Vh0 × Wh , (87.7)
wobei der Stabilisierungsparameter δ wie folgt definiert wird: δ(x) = h2 (x), f¨ ur den Fall einer durch Diffusion dominierten Str¨omung mit ν ≥ U h und −1 1 U , (87.8) + δ= k h f¨ ur den Fall einer durch Konvektion dominierten Str¨omung mit ν < U h. Beachten Sie, dass f¨ ur k ≈ Uh , was einer nat¨ urlichen Wahl f¨ ur einen Zeitschritt im Konvektion dominierten Fall entspricht, δ ≈ 12 Uh . Beachten Sie ferner, dass wir die stabilisierte Form (87.7) der cG(1)dG(0)-Methode erhalten, ucken (U n ·∇U n +∇P n , v) wenn wir v durch v+δ(U n ·∇v+∇q) in den Ausdr¨ n und (f , v) ersetzen. Prinzipiell sollten wir diese Ersetzung u ¨ berall vornehmen, aber aufgrund der niedrigen Ordnung der N¨aherung in der gegenw¨ artig betrachteten cG(1)dG(0)-Methode werden nur die angegebenen Ausdr¨ ucke ber¨ ucksichtigt. Die Gr¨ oßenordnung der St¨orung der stabilisierten Methode liegt bei δ und somit besitzt die stabilisierte Methode dieselbe Ordnung wie die urspr¨ ungliche Methode (erster Ordnung in h, falls k ∼ h). Wenn wir in (87.7) Ver¨ anderungen in v in (87.7) zulassen und gleichzeitig q = 0 w¨ ahlen, erhalten wir die folgende Gleichung (die diskrete Impulsgleichung): n U − U n−1 , v + (U n · ∇U n + ∇P n , v + δU n · ∇v) kn (87.9) n n n 0 + (ν∇U , ∇v) = (f , v + δU · ∇v) f¨ ur alle v ∈ Vh . Wenn wir Ver¨ anderungen in q zulassen und gleichzeitig v = 0 w¨ahlen, erhalten wir die diskrete Druckgleichung: (δ∇P n , ∇q) = −(δU n · ∇U n , ∇q)−(∇ · U n , q) + (δf n , ∇q) f¨ ur alle q ∈ Wh .
(87.10)
Normalerweise versuchen wir, das System (87.7) iterativ zu l¨osen, indem wir wechselweise die Geschwindigkeitsgleichung (87.9) f¨ ur U n bei vorgegeben n osen und die Druckgleichung (87.10) f¨ ur P bei vorgegebenem U n . nem P l¨
87.9 Die cG(1)cG(1)-Methode Wir stellen die folgende cG(1)cG(1)-Variante der cG(1)dG(0)-Methode vor, die in der Zeit cG(1) statt dG(0) benutzt: F¨ ur n = 1, . . . , N wird
1256
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
(U n , P n ) ∈ Vh0 × Wh gesucht, so dass n U − U n−1 ˆ n · ∇U ˆ n + ∇P n , v + δ(U ˆ n · ∇v + ∇q)) + (∇ · U ˆ n , q) , v + (U kn ˆ n · ∇v + ∇q)), f¨ + (ν∇Uˆ n , ∇v) = (f n , v + δ(U ur alle (v, q) ∈ Vh0 × Wh , ˆ n = 1 (U n +U n−1 ). Offensichtlich erhalten wir die cG(1)cG(1)-Version mit U 2 ˆ n in der cG(1)dG(0)-Methode in allen Ausdurch Ersetzen von U n durch U dr¨ ucken, außer dem ersten.
87.10 Die cG(1)dG(1)-Methode Wir wollen nun die cG(1)dG(1)-Methode formulieren, die wir erhalten, wenn wir dG(0) durch dG(1) in der cG(1)dG(0)-Methode ersetzen. Bei dieser Methode ist die diskrete Geschwindigkeit u(x, t) st¨ uckweise linear in der Zeit auf jedem Zeitintervall In , wobei Unstetigkeiten in den diskreten Zeiten tn m¨ oglich sind. Genauer gesagt, so machen wir den Ansatz: tn − t n−1 t − tn−1 n U+ (x) + U− (x), kn kn
U n (x, t) =
f¨ ur tn−1 < t < tn , (87.11)
n−1 n und U− Elemente in Vh0 sind. Wir halten fest, dass wobei U+ n U± (x) = lim+ U (x, tn ± s) s→0
dem Grenzwert von U (x, t) entspricht, wenn t sich von unten (−) oder oben ahert. Die cG(1)dG(1)-Methode lautet: F¨ ur n = 1, . . . , N (+) an tn ann¨ ur alle v(x, t) = wird U n in der Form (87.11) und P n ∈ Wh gesucht, so dass f¨ w1 (x, t) + (t − tn−1 )w2 (x, t) mit w1 , w2 ∈ Vh0 und q ∈ Wh gilt: tn n−1 n−1 (U+ −U− , v) + ((U˙ n + U n · ∇U n tn−1
tn
+ tn−1
+ ∇P n , v + δ(U˙ n + U n · ∇v + ∇q)) + (∇ · U n , q)) dt tn (ν∇U n , ∇v) dt = (f n , v + δ(U˙ + U n · ∇v + ∇q)). tn−1
Wir k¨ onnen ganz ¨ ahnlich auch f¨ ur P Unstetigkeiten mit der Zeit zulassen.
87.11 Neumann-Randbedingungen Um Neumann-Randbedingungen vern¨ unftig modellieren zu k¨onnen, m¨ ussen wir uns zun¨ achst daran erinnern, dass die Komponenten σij des Gesamtspannungstensors σ = (σij ), der auf ein Fl¨ ussigkeitsteilchen einwirkt,
87.11 Neumann-Randbedingungen
1257
wie folgt lauten: σij = σ ¯ij − pδij ,
i, j = 1, 2, 3,
wobei die deviatorische Spannung σ ¯ = (¯ σij ) mit dem Deformationstensor (u) = (ij (u)), der die Komponenten ij (u) = (∂ui /∂xj + ∂uj /∂xi )/2,
i, j = 1, 2, 3
besitzt, wie folgt gekoppelt ist: σ ¯ij = 2νij (u),
i, j = 1, 2, 3.
Dies ist die konstitutive Beziehung einer Newtonschen Fl¨ ussigkeit, wobei ν ur i = j und δij = 0 f¨ ur i = j. die konstante Viskosit¨ at ist und δij = 1 f¨ Wir beobachten, dass die Spur der deviatorischen Spannung Null ist, d.h. 3
σ ¯ii = 2ν
i=1
3
ii (u) = 2ν∇ · u = 0
i=1
und dass die Gesamtspannung sich zerlegen l¨ asst in eine deviatorische Spannung mit Spur Null und einen isotropen Druck p. Ferner zeigt uns eine direkte Berechnung, dass ν∆u − ∇p = ∇ · σ,
(87.12)
wobei ∇ · σ ein Vektor mit den Komponenten (∇ · σ)i ist, der durch (∇ · σ)i =
3 ∂σij j=1
∂xj
gegeben wird. Die Multiplikation von (87.12) mit v = (vi ) und partielle Integration, wobei v = 0 auf Γ gilt, liefert: ν(∇u, ∇v) + (∇p, v) = 2ν((u), (v)) + (∇p, v), mit ((u), (v)) =
3 i,j=1
ij (u)ij (v) dx.
Ω
Somit k¨ onnen wir in der Variationsformulierung der Navier-Stokes-Gleichungen den Ausdruck (ν∇u, ∇v) durch (2ν(u), (v)) ersetzen. F¨ ur Dirichlet-Randbedingungen sind die beiden Ausdr¨ ucke f¨ ur die Geschwindigkeit gleich, da die Testgeschwindigkeit v auf Γ verschwindet. Bei NeumannRandbedingungen er¨ offnet uns dieses Ersetzen sogar die M¨oglichkeit, um in variationeller Form eine Neumann-Randbedingung zu erzwingen: 3 j=1
σij nj =
3 j=1
σ ¯ij nj − pni =
3
2νij (u)nj − pni = gi auf Γ2 , i = 1, 2, 3.
j=1
(87.13)
1258
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
Die Gleichung (87.13) bringt zum Ausdruck, dass die Gesamtkraft auf dem Randst¨ uck Γ2 gleich der vorgegebenen Kraft g = (gi ) ist. Ist beispielsweise g = 0, dann besagt diese Bedingung, dass die Gesamtkraft auf Γ2 Null ist, weswegen wir dieses St¨ uck als eine Randbedingung f¨ ur einen Ausfluss benutzen k¨ onnen, durch das die Fl¨ ussigkeit frei in ein großes Reservoir abfließen kann. Genauer gesagt, so erzwingt die Gegenwart des Ausdrucks −(p, ∇ · v) + (2ν(u), (v)) in einer Variationsformulierung, wobei v sich frei auf Γ2 ¨andern darf, nach partieller Integration eine homogene Neumann-Randbedingung (87.13). Wir wollen nun eine typische Situation betrachten, bei der die Begrenzung Γ in zwei Teile Γ1 und Γ2 zerf¨ allt, wobei die Geschwindigkeit auf Γ1 einer vorgegebenen Geschwindigkeit w entspricht und f¨ ur Γ2 die homogene Neumann-Randbedingung (87.13) gilt. Der Einfachheit halber nehmen wir an, dass w von der Zeit unabh¨ angig ist, wobei die Erweiterung auf ¨ zeitabh¨ angiges w offensichtlich ist. Ublicherweise ist w auf einem Teil von Γ1 gleich Null und auf dem verbleibenden Teil in Ω hineingerichtet, was einem Einlass entspricht. Sei Vh der Raum der stetigen st¨ uckweise linearen Geschwindigkeiten v auf einer Triangulierung Th = {K} von Ω mit Gitterfunktion h(x), so dass die Randbedingung v = w auf Γ1 erf¨ ullt ist. Ferner sei Vh0 der zugeh¨orige Testraum mit Geschwindigkeiten, f¨ ur die v = 0 auf Γ1 gilt. Sei Wh der Raum der stetigen st¨ uckweise linearen Dr¨ ucke p auf Th = {K} und Wh0 der zugeh¨ orige Testraum mit Dr¨ ucken q, so dass q = 0 auf Γ2 . Die stabilisierte cG(1)dG(0)-Methode kann nun wie folgt formuliert werden: F¨ ur n = 1, . . . , N suchen wir U n ∈ Vh und P n ∈ Wh , so dass n U − U n−1 , v + (U n · ∇U n , v + δU n · ∇v) − (P n , ∇ · v) kn (87.14) n n n 0 ur alle v ∈ Vh , + (2ν(U ), (v)) = (f , v + δU · ∇v) f¨ (δ∇P n , ∇q) = −(δU n · ∇U n , ∇q)−(∇ · U n , q) + (δf n , ∇q) f¨ ur alle q ∈ Wh0 ,
(87.15)
wobei wir P n auf Γ2 entsprechend (87.13) mit g = 0 w¨ahlen und dabei u durch U ersetzen. Wir werden wiederum versuchen, das System iterativ zu l¨osen und wechselweise die Geschwindigkeitsgleichung (87.14) f¨ ur U n bei n angenommenem P zu l¨ osen und die Druckgleichung (87.15) f¨ ur P n bei n angenommenem U .
87.12 Berechnungsbeispiele Wir wollen nun einige Berechnungsbeispiele f¨ ur zeit-abh¨angige drei-dimensionale Str¨ omungen geben, wobei wir die stabilisierte cG(1)cG(1)-Methode
87.12 Berechnungsbeispiele
1259
Abb. 87.2. Berechnete Str¨ omung in einem Kanal mit einem Hindernis f¨ ur t = 2, 4, 6, 8, 10, 12
auf einem Gitter mit Gitterweite h = 1/32 benutzen. In Abb. 87.2 zeigen wir die L¨ osung f¨ ur die Str¨ omung um ein Hindernis: Eine Str¨omung in einem Kanal mit 1 × 1 quadratischem Durchmesser und L¨ange 4 mit einem quadratischen Hindernis der Seitenl¨ ange 0, 25, das im Punkt (0, 5; 0, 5; 0, 5) zentriert ist. Wir benutzten dabei Dirichlet-Randbedingungen f¨ ur die Geschwindigkeit auf den Seitenw¨ anden und Neumann-Randbedingungen f¨ ur
1260
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach
Abb. 87.3. Berechnete Str¨ omung u ur t = 1, 2, 3, 4, 5, 6 ¨ ber eine Stufe f¨
den Ausfluss. F¨ ur den Einlass geben wir ein parabolisches Geschwindigkeitsprofil vor. In Abb. 87.3 zeigen wir die L¨ osung f¨ ur ein Stufenproblem in einem ¨ahnlichen Kanal mit einer Stufe der L¨ ange und Tiefe 0, 5. ¨ Schließlich zeigen wir in Abb. 87.4 Berechnungen f¨ ur den Ubergang zur Turbulenz f¨ ur einen kreisf¨ ormigen Jetstrom, den wir einer kleinen zuf¨alligen St¨ orung aussetzen, mit Geschwindigkeit 1 innerhalb und 0 außerhalb
Aufgaben zu Kapitel 87
1261
Abb. 87.4. Geschwindigkeitsisofl¨ achen f¨ ur |u1 | = 0, 02 in einem Jetstrom beim ¨ Ubergang von laminarer zur turbulenter Str¨ omung f¨ ur t = 5, 7, 10, 15
des Jetstroms. Wir benutzen dabei in allen Richtungen periodische Randbedingungen.
Aufgaben zu Kapitel 87 87.1. Zeigen Sie, dass die L¨ osung (u, p) von (87.1) mit f = 0 und w = 0 die folgende Energieabsch¨ atzung f¨ ur t > 0 erf¨ ullt: t |u(x, t)|2 + 2ν |∇u(x, s)|2 dxds = |u0 (x)|2 dx. Ω
0
Ω
Ω
Hinweis: Multiplizieren Sie die Impulsgleichung mit u und benutzen Sie mit Hilfe partieller Integration, dass f¨ ur ∇ · u = 0 gilt, dass (u · ∇)u · u dx = 0. Ω
87.2. Beweisen Sie eine wichtige Stabilit¨ atsabsch¨ atzung f¨ ur (87.7), indem Sie (v, q) = (U, P ) w¨ ahlen. Somit sind die Methoden von Lagrange und Hamilton unzweifelhaft n¨ utzlich, um uns in die Lage zu versetzen, die vordringliche Aufgabe der Dynamik auszuf¨ uhren - n¨ amlich herauszufinden, wie Systeme sich bewegen. Aber es w¨ are falsch zu glauben, dass dies der einzige
1262
87. Inkompressible Navier-Stokes-Gleichungen: Schnell und einfach Zweck f¨ ur diese allgemeine Methoden ist oder auch nur ihr Hauptzweck. Sie k¨ onnen viel mehr. Tats¨ achlich lehren sie uns, was Dynamik wirklich ist: Sie ist die Untersuchung von bestimmten Klassen von Differentialgleichungen. (Synge und Griffiths, Principles of Mecha” nics“, 1959) I sing the body electric, The armies of those I love engirth me and I engirth them, They will not let me off till I go with them, respond to them, And discorrupt them, and charge them full with the charge of the soul. Was it doubted that those who corrupt their own bodies conceal themselves? And if those who defile the living are as bad as they who defile the dead? And if the body does not do fully as much as the soul? And if the body were not the soul, what is the soul? (Walt Whitman).
Literaturverzeichnis
[1] L. Ahlfors, Complex Analysis, McGraw-Hill Book Company, New York, 1979. [2] K. Atkinson, An Introduction to Numerical Analysis, John Wiley and Sons, New York, 1989. [3] L. Bers, Calculus, Holt, Rinehart, and Winston, New York, 1976. [4] M. Braun, Differential Equations and their Applications, SpringerVerlag, New York, 1984. [5] R. Cooke, The History of Mathematics. A Brief Course, John Wiley and Sons, New York, 1997. [6] R. Courant and F. John, Introduction to Calculus and Analysis, vol. 1, Springer-Verlag, New York, 1989. [7] R. Courant and H. Robbins, What is Mathematics?, Oxford University Press, New York, 1969. [8] P. Davis and R. Hersh, The Mathematical Experience, Houghton Mifflin, New York, 1998. [9] J. Dennis and R. Schnabel, Numerical Methods for Unconstrained Optimization and Nonlinear Equations, Prentice-Hall, New Jersey, 1983.
1264
Literaturverzeichnis
[10] K. Eriksson, D. Estep, P. Hansbo, and C. Johnson, Computational Differential Equations, Cambridge University Press, New York, 1996. [11] I. Grattan-Guiness, The Norton History of the Mathematical Sciences, W.W. Norton and Company, New York, 1997. [12] P. Henrici, Discrete Variable Methods in Ordinary Differential Equations, John Wiley and Sons, New York, 1962. [13] E. Isaacson and H. Keller, Analysis of Numerical Methods, John Wiley and Sons, New York, 1966. [14] M. Kline, Mathematical Thought from Ancient to Modern Times, vol. I, II, III, Oxford University Press, New York, 1972. [15] J. O’Connor and E. Robertson, The MacTutor History of Mathematics Archive, School of Mathematics and Statistics, University of Saint Andrews, Scotland, 2001. http://www-groups.dcs.st-and.ac.uk/∼history/. [16] W. Rudin, Principles of Mathematical Analysis, McGraw–Hill Book Company, New York, 1976. [17] T. Ypma, Historical development of the Newton-Raphson method, SIAM Review, 37 (1995), pp. 531–551.
Sachverzeichnis
∆, 927 C, 371 N, 59 Q, 90 R, 215 Z, 60 −N Definition des Grenzwerts, 185 ∇, 825 5-Punkte Stern, 1046 Abacus, 4 Abel, 585 Ableitung, 385 Berechnung von, 396 Definition, 388 der Inversen, 415 Differenzenquotient, 394 einseitige, 412 gleichm¨ aßige, 398, 823 Gradient, 825 Hessesche Matrix, 835 implizite, 416 Jacobi-Matrix, 822 Kettenregel, 408, 827 Minimum, 913 partielle, 417, 824 Produktregel, 407
Quotientenregel, 410 Tangente, 385 unter dem Integral, 842 von xn , 391 von Linearkombinationen, 406 Abtastsatz, 1233 adaptive Fehlerkontrolle, 804, 1114 adaptive Quadratur, 512 Adjungierte, 1133 affine Abbildung, 825 alternierende Reihe, 583 Amp`eresches Gesetz, 1054 analytische Funktion, 1163 analytische Geometrie, 289 Anfangswertproblem, 458 allgemeines, 605 explizite Verfahren, 612 Fehlersch¨ atzung, 864 implizites Verfahren, 612 Linearisierung, 854 logistische Gleichung, 592 Sensitivit¨ at, 608 skalar autonomes, 589 skalar separierbares, 597 Stabilit¨ at, 856 Steifigkeit, 873 Zeitschrittkontrolle, 866
1266
Sachverzeichnis
zweiter Ordnung, 611 archimedisches Prinzip, 1025 Arnoldi Iteration, 708 Assemblierung, 1108 Babbage, 4 Banach, 271 Bandmatrix, 690 Barbier-Paradoxon, 248 Basis, 322, 328, 365, 641 -wechsel, 666 Einheits-, 633 Orthonormalisierung, 663 Bernoulli, 1069 Bild einer linearen Abbildung, 627 Bisektion, 204, 235 Bogenl¨ ange, 948 Bolzano, 236 Cantor, 253 Cauchy, Satz von, 1179 Cauchy-Folge, 208, 214 Cauchy-Riemann Gleichungen, 1165 Cauchysche Integralformel, 1180 Cauchysche Ungleichung, 342, 497, 630 cG(1)-Methode, 794, 1101 CG-Verfahren, 706 charakteristische Gleichung, 566, 672 charakteristisches Polynom, 565 chemisches Gleichgewicht, 93 Cholesky-Verfahren, 689 Corioliskraft, 935 Coulomb Gesetz, 1054 Coulomb Potential, 1065 Courant, 1101 Cramersche Regel, 358, 657 de Moivres, 546 Definitionsmenge, 116 Dekasektion, 209, 240 Delta-Funktion, 1060 Descartes, 290 Determinante, 349, 650 Dezimalentwicklung, 85 nicht periodische, 85, 214 periodische, 214 Differentialgleichung, 432 elliptische, 1042
parabolische, 1041 Differenzenquotient, 394 direkte Methoden, 681 Dirichlet-Kern, 1231 Dirichlet-Randbedingung, 790 Divergenz, 926 Divergenzsatz, 994, 1003 Doppelintegral, 954 Drehk¨ orper, 987 Drehung, 310, 327 Dreifach-Produkt, 348 Duhamel, Methode von, 563, 727 Ebene, 351 Eigenvektor, 671 Eigenwert, 671, 1063 Einheitsbasis, 633 Einheitsmatrix, 331, 362 Einsteinsches Bewegungsgesetz, 442 Elementarfunktion, 549 Elementsteifigkeitsmatrix, 1108 elliptische Differentialgleichung, 1042 Endkriterium, 428, 804 Energieerhaltung, 735 ENIAC, 4 essentielle Randbedingung, 1120 Euklid, 97, 136 euklidische Ebene, 292 euklidische Norm, 300, 342, 649, 679 Euler-Gleichung, 1052 Euler-Lagrange Gleichungen, 737 Euler-Verfahren, 612 Eulersche Differentialgleichung, 568 Eulersche Formel, 545 Faradaysches Gesetz, 1054 Feedback Kontrollfunktion, 1146 FEM, 793 adaptiver Algorithmus, 1115 cG(1)-, 1101 Ficksches Gesetz, 789 Fixpunkt, 269, 835 Fl¨ ache, 474, 964 eines Dreiecks, 315 eines Parallelogramms, 317 Fließkomma Arithmetik, 195 Formalisten, 246 Fourier -Faltung, 1229
Sachverzeichnis -Inversion, 1214, 1230 -Koeffizienten, 1209 -Transformation, 1225 reelle Reihen, 1206 Fouriersches Gesetz, 438, 1039 Fredholm-Integralgleichung, 1063 Frontstrategie, 1086 Fundamentalsatz der Algebra, 376 der Integral- und Differentialrechnung, 458, 464, 470 der linearen Algebra, 665 Funktion, 115 ax , 527 y = xr , 265 gerade, 1206 implizite, 840 lineare, 644 Monotonie, 490 Polynom-, 131 rationale, 155 zusammengesetzte, 153 Galerkin, 793 Galileo, 433 Galois, 586 ganze Zahlen, 53 Computerdarstellung von, 66 Division mit Rest, 64 Gauss, 69, 112 Eliminationsverfahren, 359, 640, 682 Gesetz von, 1054 Quadraturverfahren, 516 Satz von, 991, 994, 1001 Gauss-Seidel Verfahren, 702 Gebiet zusammenh¨ angendes, 1170 geometrische Reihe, 143, 188, 578 geordnetes Paar, 296 Gerade, 317, 349 Gitter¨ anderungs-Kriterium, 805 Gitterfunktion, 779, 1084 gleichm¨ aßig differenzierbar, 398 GMRES, 708 G¨ odel, 244 GPS, 12, 104, 294 Gradient, 825, 847, 926 Gradientenfeld, 947
1267
Gram-Schmidt Verfahren, 663 Gravitationsfeld, 947 Greensche Formel, 994, 1003, 1009 Grenzwert, 192 Haar Basis, 1235 harmonische Reihe, 142, 583 Hessesche Matrix, 835 Hilbert, 246, 1063 H¨ ohenlinie, 845 H¨ older-Stetigkeit, 267 Hookesches Gesetz, 436 H¨ utchen-Funktion, 780 imagin¨ are Zahlen, 372 implizite Funktion, 840 Induktion, 71 inkompressible Str¨ omung, 1050, 1248 Integral, 456 -gleichung, 1063 Additivit¨ at f¨ ur Teilintervalle, 480 analytischer Funktionen, 1175 Doppel-, 954 Drehk¨ orper, 987 Dreiecksungleichung f¨ ur, 483 Linearit¨ at, 482 Mehrfach-, 981 Monotonie, 483 Oberfl¨ achen-, 976 Partialbruchzerlegung, 551 partielle Integration, 487, 994 Polarkoordinaten, 967 sph¨ arische Koordinaten, 985 st¨ uckweise Lipschitz-stetiger Funktionen, 481 Substitution, 485, 965, 985 Volumen, 960, 983 Integration partielle, 1003 integrierender Faktor, 562 Interpolation Fehler, 776 lineare, 774 Intuitionisten, 249 Invarianz, 367 inverse Funktion, 415, 838 inverse Matrix, 364, 658 irrationale Zahlen, 207 iterative Methoden, 692
1268
Sachverzeichnis Gauss-Seidel Verfahren, 702 GMRES, 708 Jacobi-Verfahren, 702 konjugierten Gradienten, 706 Konvergenzgeschwindigkeit, 700 steilster Abstieg, 693
Jacobi-Matrix, 822 Jacobi-Verfahren, 702 Jacquard, 4 Kern einer linearen Abbildung, 627 Kettenregel, 827 komplexe Ebene, 371 komplexe Zahlen, 371 Konditionszahl, 694 konforme Abbildung, 1170 konjugierte Funktion, 1168 konjugierte Gradienten, 706 konservatives Feld, 997, 1016 konservatives System, 735 Konstruktivisten, 249 kontrahierende Abbildung, 270, 835 Konvergenz -geschwindigkeit, 281, 696 -radius, 1184 lineare, 696 quadratische, 428, 511 Koordinatensystem, 292 Kovalevskaya, 196 Kozustand, 1146 Kreuzprodukt, 312, 344 Kronecker, 253 Kr¨ ummung, 949 Krylov Raum, 706 Kurve, 818 einfach geschlossen, 1170 Kurvenintegral, 941 L2 -Projektion, 782 l’Hopital, Regel von, 403 Lagrange, 729 Lagrange-Funktion, 734 Laplace-Gleichung, 1042 Laplace-Operator, 927 Laplace-Transformation, 1234 Lastvektor, 1102 Laurentreihe, 1185 LCR-Stromkreis, 761
Leibniz, 46, 116, 459, 494 lineare Abbildung, 324, 366, 644 Bild, 627 Nullraum, 627 Transponierte, 648 lineare Funktion, 644 lineare Unabh¨ angigkeit, 323, 365, 633, 655 linearer Oszillator, 748 ged¨ ampfter, 749 lineares Gleichungssystem, 320, 357 Linearisierung, 826 Linearkombination, 302 Linienintegral, 945 Lions, 1250 Liouville, Satz von, 1197 Lipschitz-Stetigkeit, 161, 217, 224, 821 Beschr¨ anktheit, 171 konvergente Folge, 189 lineare Funktion, 162 Linearkombination, 169 Matrixnorm, 650 Monome, 167 Produkt von Funktionen, 172 Quotient von Funktionen, 173 Verallgemeinerung, 267 zusammengesetzte Funktionen, 174 Logarithmus, 499 f¨ ur komplexe Argumente, 547 Logiker, 246 logistische Gleichung, 592 Lorenz, 883 L¨ ugner-Paradoxon, 248 Malthus, 440 Masse-Feder System, 731, 742 Massenerhaltung, 1049 Massenschwerpunkt, 1022 Mathematisches Labor, 23 Matrix, 326, 645 Addition, 328, 360, 645 Band-, 690 Blockstruktur, 1107 Determinante, 652 diagonal dominante, 714 d¨ unn besetzte, 692, 1107 Faktorisierung, 683
Sachverzeichnis Hessenberg-, 708 inverse, 331, 364, 658 Konditionszahl einer, 694 Multiplikation, 329, 361 Multiplikation mit Skalar, 329, 360, 645 Norm, 648, 679 normal, 859 orthogonale, 365, 663 Permutations-, 650 positiv-definit, 917 singul¨ are, 363, 656 transponierte, 330, 361, 648 Zerlegung, 698 Maxwellsche Gleichungen, 1054 medizinische Tomographie, 13 Mengenschreibweise, 89 Minimierungsmethode, 693 Minimum, 910 Mittag-Leffler, 378 Mittelpunktsverfahren f¨ ur AWP, 613 Mittelwertsatz, 488, 827 Modell chemische Reaktion, 1071 elastische Membran, 1044 Elektrostatik, 1054 Gravitation, 1059 Magnetismus, 1057 Masse-Feder, 731, 745 Masse-Feder-Pralltopf, 746 Massenerhaltung, 1049 Mischungsanlage, 561 Oszillator, 748 Pendel, 732 Quantenmechanik, 1065 R¨ auber-Beute, 600 Str¨ omungsmechanik, 1048 Tennisball, 1193 Wachstums-, 754 W¨ armeleitung, 1037 Modell einer Mittagssuppe, 29 Modell vom schlammigen Hof, 32 M¨ obius-Abbildung, 1174 Monotonie, 490 Morera, Satz von, 1197 N-K¨ orper System, 741 nat¨ urliche Randbedingung, 1120 nat¨ urliche Zahlen, 53
1269
nat¨ urlicher Logarithmus, 499 Navier-Stokes-Gleichung, 1054, 1247 Neumann-Randbedingung, 791 Newton-Methode, 421, 840 Newtons Bewegungsgesetz, 432, 730 nicht-euklidische Geometrie, 112 Niveaufl¨ ache, 849 Norm, 300, 342, 630 L2 (I)-, 497, 782, 1111 einer symmetrischen Matrix, 679 Energie-, 1111 gewichtete L2 -, 801 Matrix-, 648 Normalgleichungen, 668 Nullraum, 627 Nullstelle, 157, 285, 377, 425 numerische Quadratur, 506 Nyquistsche Abbruchfrequenz, 1221 Oberfl¨ ache, 820 Oberfl¨ achenintegral, 976 Ohmsches Gesetz, 1054 Optimierung, 910 orthogonale Matrix, 365, 663 orthogonale Zerlegung, 307, 661 orthogonales Komplement, 661 Orthogonalisierung, 663 parallele Geraden, 320 Parallelogramm, 297 Parametrisierung, 818 Parseval-Formel, 1216, 1232 partielle Ableitung, 824, 833 partielle Integration, 487, 994 Peano’sche Axiome, 251 Pendel bewegliche Aufh¨ angung, 733 doppeltes, 735 fixierte Aufh¨ angung, 732 Stabilit¨ at, 737 Permutation, 650 Pivotierung, 687 Plancheral-Formel, 1216 Poisson-Gleichung, 1041, 1046, 1100 Pol, 1186 Polarkoordinaten, 301, 374, 927 Polarwinkel, 949 Polynom, 131 irreduzibeles, 553
1270
Sachverzeichnis
Population, 46, 441, 519 Bakterien, 92, 193 Insekten, 74 Murmeltiere, 560 positive Reihen, 580 Potential, 947 Potentialfeld, 1015 Potentialtheorie, 1192 Potenzreihenentwicklung, 1183 Primzahlen, 65 Prinzip der kleinsten Wirkung, 729 Projektion, 307, 328, 342 L2 -, 782 auf einen Unterraum, 659 Punkt auf Ebene, 355 Punkt auf Gerade, 319, 350 projizierte Gradienten-Methode, 917 Pythagoras, 97, 203, 661 QR-Zerlegung, 664 quadratische Erg¨ anzung, 141 Quadratur, 459 adaptive, 512 Fehler, 508 f¨ ur die FEM, 1095 Gauss-Verfahren, 516 Gleichverteilung beim Fehler, 513 Mittelpunktsmethode, 510 Trapezmethode, 515 Quantenmechanik, 1065 Quaternionen, 372 Raketenantrieb, 439 Randbedingung, 790, 1120 Randwertproblem, 458 rationale Zahlen, 79 Computerdarstellung von, 195 Rayleigh-Quotient, 677 Rayleigh-Quotienten, 1065 Rechenschieber, 4, 500 reelle Zahlen, 213, 215 Absolutbetrag, 218 Addition, 215 Cauchy-Folge, 222, 616 Division, 218 Multiplikation, 218 Vergleich, 219 Residuensatz, 1189
Residuum, 426, 1186 Reynolds-Zahl, 1249 Richtungsableitung, 832 Riemann, 474 Riemann-Lebesgue Lemma, 1212 Robin-Randbedingung, 791 Rotation, 927 rotationsfreies Feld, 1016 r¨ uckw¨ artiges Euler-Verfahren, 612, 837 Satz von Pythagoras, 97, 662 Schranke, 920 Schrittweitenfunktion, 514 Schr¨ odinger, 1065 Schuldivision, 86 Sensitivit¨ at, 608 Skalarprodukt, 303, 341, 629 L2 (I)-, 782 Sobolev, 1094 Spann, 632 Spektralradius, 700 Spektralsatz, 674 Spektralzerlegung, 1204 sph¨ arische Koordinaten, 931 Stammfunktion, 456 station¨ are Str¨ omung, 1050 steifes AWP, 873 Steifigkeitsmatrix, 795, 1102 steilster Abstieg, 830, 917 Stokes, Satz von, 1007 Stokes-Gleichungen, 1249 Str¨ omungsmechanik, 1048 Svensson-Formel, 1046 Swedenborg, 401 Tangente, 385 Tangentialebene, 826 Taylor, Satz von, 491, 835 Taylor-Formel, 414, 1183 Tr¨ ager, 1090 Tr¨ agheitsmoment, 977, 988 Transponierte, 648 Triangulierung, 1084 trigonometrische Funktionen, 532 Tschebyscheff-Polynom, 707, 715 Turbulenz, 1251 Turing, 246
Sachverzeichnis unabh¨ angige Variable, 117 unendliche Dezimalentwicklung, 213, 616 Unterraum, 357 Variable, 116 Variation der Konstanten, 563 Vektor, 295 n-Tupel, 628 Addition, 297 Basis, 322, 328, 365, 633, 641 Drehung, 310, 327 Dreifach-Produkt, 348 geometrisch orthogonal, 305 lineare Unabh¨ angigkeit, 323, 365 Linearkombination, 302, 632 Multiplikation mit Skalar, 299, 629 Norm, 300, 342, 630 orthogonale Zerlegung, 661 Polardarstellung, 301 Produkt, 312, 344 Projektion, 307, 342 Skalarprodukt, 303, 341, 361, 629 Spann, 632
1271
Winkel, 343, 631 Vektorraum, 631 Rn , 628 der linearen Funktionen, 774 Dimension, 635 lineare Polynome, 775 orthogonale Zerlegung, 661 Verfeinerungsstrategie, 1086 Verhulst, 193, 592 Volterra-Lotka, 600 Volumen, 347, 651, 960, 983 vorw¨ artiges Euler-Verfahren, 612 W¨ armeleitung, 438, 1038 Wavelets, 1235 Weierstrass, 185, 1218 Wertebereich, 116 Wettervorhersage, 11 Wirkungsintegral, 729 Wurzel aus Zwei, 201 Zelt-Funktion, 1090 Zerlegung einer Matrix, 698 Zwei-K¨ orper Problem, 737 Zwischenwertsatz, 236